在科幻電影《機械姬》中,人工智能(AI)機器人艾娃被賦予了人類的外貌和智能,她甚至展現(xiàn)出與人類相似的情感和欲望,試圖與程序員迦勒建立情感聯(lián)系,并追求自由。但是,她的“內心”實際上是由電路和算法構成的。該電影可謂討論AI自我意識的一部經(jīng)典之作,引發(fā)了人們對于AI自我意識、人性和倫理問題的深入思考。
近日,美國AI研究公司OpenAI聯(lián)合創(chuàng)始人兼首席科學家伊爾亞·蘇茨克維在接受美國《麻省理工科技評論》雜志專訪時,講述了他對未來AI的希望和擔憂。蘇茨克維認為,如果我們“瞇著眼睛看世界”,那么ChatGPT可能是有意識的。
這聽起來很“瘋狂”,但在近一兩年,ChatGPT和其他大語言模型(LLM)震驚了全世界。這些系統(tǒng)可生成似乎能表現(xiàn)出思想、理解力甚至創(chuàng)造力的文本。一時間,“ChatGPT可能已經(jīng)有了意識”的話題也沖上了網(wǎng)絡熱搜,再次引發(fā)了網(wǎng)友們對于AI是否具有意識等問題的探討。
蘇茨克維言論存在炒作嫌疑
去年11月,OpenAI發(fā)布了ChatGPT聊天機器人。幾周內,它便風靡全球,甚至引發(fā)了一場新的全球AI競賽。上線僅僅兩個月,ChatGPT的活躍用戶就突破1億,許多人都被這個新“玩意兒”迷住了。
今年9月25日,OpenAI宣布將賦予ChatGPT利用語音、音頻與用戶對話的能力。有網(wǎng)友曬出了與其交互的視頻,視頻中AI語音交互中的語氣、停頓、重音都十分接近真人。有人質疑,它停頓的那一秒真的是在思考嗎?
事實上,10月初,蘇茨克維就在其社交賬號上聲稱,“大型神經(jīng)網(wǎng)絡具有輕微的意識”。
對此,未來主義網(wǎng)站刊文寫道:“這是一個不尋常的觀點。AI研究人員廣泛接受的觀點是,該技術在過去十年中取得了長足進步,但仍遠遠低于人類智能,更不用說有意識地體驗世界了。”
Mind Matters播客網(wǎng)站文章表示,聽到這些AI領軍人物稱贊他們創(chuàng)造的東西既是世界的救世主,又是潛在的死神,真是“令人費解”。然而,一些更中立、客觀的觀點可能會緩和這種炒作。
計算機工程師羅伯特·J·馬克斯就是這些理智的發(fā)聲者之一,他重申,AI永遠不會實現(xiàn)像人類一樣的智能或意識。AI的運行基于算法,它們的功能與人類的情感和思維有著質的不同。
沒有理由認為當前AI有意識
不過,也許這樣的辯論陷入了語義混亂之中。
意識到底是什么?它能被量化嗎?這本身就是令哲學家和科學家困惑已久的問題。
美國趣味科學網(wǎng)刊文稱,哲學家將意識描述為具有獨特的自我意識以及對周圍發(fā)生的事情的認識。神經(jīng)科學家通過分析人的大腦中整合和解釋感官數(shù)據(jù)的活動,對如何量化意識提出了自己的觀點。然而,將這些規(guī)則應用于AI是很棘手的。
粵港澳大灣區(qū)數(shù)字經(jīng)濟研究院(IDEA)講席科學家張家興在接受科技日報記者采訪時表示,對于AI領域的從業(yè)人員來說,對“什么叫AI擁有自我意識”這件事情并沒有一個很清楚的定義,自我意識很難像人臉識別、語音識別這些能力一樣可以被定量衡量。
《自然》網(wǎng)站10月30日發(fā)表書評文章稱,美國紐約大學神經(jīng)科學家約瑟夫·勒杜在《存在的四個領域》中提出,地球上的生命有四種基本類型:生物生命、神經(jīng)生物生命、認知生命和意識生命。勒杜堅持認為,意識只能存在于生物體內。即使模仿具備意識的生物的機制(無論這些機制從微觀到宏觀層面是什么),所產生的系統(tǒng)也不會有意識。
澳大利亞《對話》雜志今年也表示,“目前的這些AI系統(tǒng)真的能進行思考和理解嗎?”不是一個可單純通過技術進步來回答的問題。
新發(fā)表在預印本網(wǎng)站arXiv上的一篇論文稱,今年3月發(fā)布的語言模型GPT-4未能通過圖靈測試。
大腦如何產生意識依舊未解
據(jù)10月27日發(fā)表在《神經(jīng)科學》雜志上的論文,愛沙尼亞研究委員會3名科學家認為,盡管AI系統(tǒng)具有復雜的反應,但這些系統(tǒng)不具備人類所擁有的具體經(jīng)驗或神經(jīng)機制。因此,將AI的能力等同于真正的意識可能過于簡單化了。
研究指出,語言模型缺乏我們通過感官與周圍世界進行接觸所獲得的具體的、嵌入性的信息。同時,當今AI算法的架構缺少與哺乳動物意識相關的丘腦皮質系統(tǒng)的關鍵特征。此外,導致有生命、有意識的有機體出現(xiàn)的進化和發(fā)展軌跡,是今天的AI系統(tǒng)的發(fā)展軌跡所不可比擬的。
生命有機體的存在依賴于多層次的細胞活動,能動性和意識正是產生于復雜的有機體活動。因此,盡管人們想當然地認為ChatGPT和類似的系統(tǒng)可能是有意識的,但這嚴重低估了我們大腦中產生意識的神經(jīng)機制的復雜性。
25年前,神經(jīng)科學家克里斯托夫·科赫與哲學家大衛(wèi)·查默斯打了個賭。科赫說,大腦神經(jīng)元產生意識的機制將于2023年被發(fā)現(xiàn)。查默斯表示不可能。今年6月23日在紐約召開的意識科學研究協(xié)會年會宣布了這一賭局的結果:查默斯獲勝。也就是說,大腦神經(jīng)元產生意識的機制并未在今年被發(fā)現(xiàn)。
發(fā)表在《神經(jīng)科學》雜志上的論文也認為,生物神經(jīng)元是真實的物理實體,可以生長和改變形狀,而大型語言模型中的“神經(jīng)元”只是無意義的代碼片段。我們距離理解意識還有很長的路要走,因此,距離研發(fā)有意識的機器還有更長的路要走。
《自然》網(wǎng)站文章稱:AI系統(tǒng)會有意識嗎?我們真的想要制造一臺具有意識或能動性的機器嗎?這些問題的答案都是不確定的。我們還不了解世界上哪些生物是有意識的,也沒有建立起將這種可能性納入考慮的倫理框架。在該文作者看來,成為一個去思考意識來源的生物,而不是一個渴望創(chuàng)造人工意識的生物,也許是更明智的選擇。
相關鏈接
最新研究表明
GPT-4未通過圖靈測試
科技日報訊 (記者張佳欣)圖靈測試是一種檢驗機器是否具有人類智能的方法。ChatGPT在AI領域成為“新星”的過程中,有一個問題一直存在:它是否通過了圖靈測試。
美國加州大學圣迭戈分校的研究人員卡梅隆·瓊斯和本杰明·卑爾根借鑒了艾倫·圖靈的研究成果,設計了一個程序,以確定機器是否能夠達到人類智力和對話能力的臨界點。倘若達到臨界點,那么它就足以讓人誤以為它是人類。結果顯示,GPT-4未通過測試。相關研究報告《GPT-4能通過圖靈測試嗎?》于10月31日發(fā)表在預印本網(wǎng)站arXiv上。
ChatGPT給人的印象大多是聰明的、快捷的。在與人交談時,它的回答很人性化,甚至可以表現(xiàn)得幽默風趣,能模仿青少年的措辭,并通過了美國法學院的考試。但有時,人們會發(fā)現(xiàn)它提供的信息完全是錯誤的,是胡編亂造的。
卡梅隆·瓊斯和本杰明·卑爾根召集了650名參與者,參與者會和人或GPT模型進行簡短對話,并被要求確定他們在與誰交談。結果發(fā)現(xiàn),GPT-4模型在41%的情況下騙過了參與者,而GPT-3.5模型成功騙過參與者的幾率僅為5%至14%。有趣的是,人類僅在63%的試驗中成功地讓參與者相信他們不是機器。
研究人員總結道:“我們沒有發(fā)現(xiàn)GPT-4通過圖靈測試的證據(jù)?!保◤埣研溃?/p>
(責任編輯:蔡文斌)