行業洞察 | 聽說,大語言模型無法接近人類水平智能?
發布時間 : 2022-09-02 閱讀量 : 1408
近日,圖靈獎得主 Yann LeCun 對于人工智能的前景提出最新思考,“語言只承載了所有人類知識的一小部分;大部分人類知識、所有動物知識都是非語言的;因此,大語言模型是無法接近人類水平智能的”。Yann LeCun認為,當前流行的大規模語言模型存在明顯的極限。未來 AI 領域努力的方向或許應該是讓機器優先理解真實世界其他層面意義上的知識。
而就在不久前,Google工程師Blake Lemonine對外宣稱谷歌的大型語言模型LaMDA具有人類的“自我意識”,在他的看法中,即便藉由OpenAI開源架構形式建構的最大語言神經模型GPT-3打造的人工智能,亦可能出現“人”的意識。
關于人工智能到底是否具有“人格”的討論遍布國內外社交平臺,領域內的研究者持有著各自不同的看法。
「AI到底有沒有“意識”,其智能極限是否有限?」
關于AI是否有“意識”這個問題,從客觀唯物主義思想看,答案是否定的。即使AI能夠遍覽全書通曉古今,也不能定義其具有“意識”。人類的自我意識除了能理解書面表達意識之外,具有因個人過往經歷不同,從而擁有不同的思維與共情模式的特征。
例如,人類之間的交流,當提到“媽媽”這個詞的時候,因為不同的經歷或者與對話者共同的經歷,我們會有不同的話題延拓,大腦中大量的信息、情感區域都會產生聯動。AI也可以談論所有這些事情,但并不意味著它理解正在談論的內容。
縱然AI能夠集百家之所長,但是卻無法集一個人的平生經歷或者經驗與一體。如Yann LeCun所提,最根本的問題在于語言的有限性。一旦我們放棄了關于意識和語言之間聯系的假設,這些系統就注定只能有關于世界的膚淺理解,永遠無法接近人類的“全面思維”。
而即便大語言模型LaMDA能夠對人類的對話做出合理的預測,它也不過是接受了數十億單詞的訓練,將文本轉換為“Token”和“嵌入(Embedding)”,然后對嵌入進行處理以添加其他維度。比如文本序列中單詞之間的關系以及它們在句子和段落中的作用,并學會通過預測下一個單詞序列來回應提示。
「與其爭論AI意識與智能水平,何不善假于物呢?」
荀子曰“君子生非異也,善假于物也”。意思是:君子的本性同一般人沒有什么差別,但是他們善于借助外物進行學習。其實人類社會中,有很多美好的靈魂都被邊緣化,他們就是殘障人士,中國總共八千萬殘疾人,但我們在大街上很少遇到殘疾人,即便再高貴的靈魂和自我意識,外在軀體的不方便仍讓他們珠玉蒙塵。倘若讓AI的外在能力輔助殘障人士的生活和工作,豈不是獲得共贏。
目前,國內已有團隊開始進行這方面的研究。天津理工大學“鯨言創益”無障礙智能科技研發團隊用近5年時間,構建視頻語料庫,研發“復雜場景下中國手語實時翻譯系統”。在聽障人士打手語的同時,屏幕上就能夠自動“翻譯”出文字,只為讓更多聽障人士被“聽見”。
無獨有偶,上海首個盲人咖啡“種子店”在浦東新區華潤時代廣場開啟試營業。雙胞胎兄弟殷天保、殷天佑是兩個盲人,但是他們現在已經依靠在線語音識別技術輔助自我在社會上實現了個人價值。
而訓練這些AI的語音和自然語言相關的語料,通常由專業數據團隊提供,通過更多的數據才能讓AI變得更加“Smart”。Magic Data作為一家為眾多AI產品提供數據的專業數據采集、標注公司,其中涵蓋各個領域與語種的對話數據、自然語言處理數據以及圖像數據,其樣例如下:
中文人機交互語料庫:點擊查看詳情
廣東粵語語料庫:點擊查看詳情
英文車載命令控制語料庫:點擊查看詳情