谷歌之夜是什麼意思(一夜之間谷歌AI就具有了)
2023-10-06 23:32:20
機器之心報導
機器之心編輯部
雖然谷歌表示不同意,還讓提出這種說法的工程師「帶薪休假」了。
作為AI技術報導者,有點跟不上技術發展的速度了......
一夜之間,谷歌AI就具有了人格,並且成功登上國內熱搜。
而這條消息也成功讓眾多網友也是感到驚恐:
故事的主角是「他」和「它」:「他」是41歲的谷歌工程師Blake Lemoine,「它」是谷歌於2021年I/O大會上推出的對話AI系統LaMDA,是一個有1370億參數的,專為對話優化的自然語言處理模型。
Blake Lemoine。圖源:Instagram
在谷歌帳戶被封之前,Lemoine向包含200人左右的谷歌機器學習郵箱列表發送了一條信息,主題是「LaMDA是具有感知的」(感覺他總想搞個大新聞)。
在郵件群發之後,谷歌以違反其保密政策為由,讓Lemoine休了帶薪行政假。公司做出這一決定之前,Lemoine已經採取了激進的行動,包括邀請了一名律師來代表LaMDA,並與眾議院的一位代表談論了他所認為的谷歌的不道德行為。
以及,在這個月初,Lemoine邀請了《華盛頓郵報》的記者和LaMDA進行了交談。第一次嘗試失敗了,差不多是 Siri 或 Alexa 的那種機械化反應:
問:「你有沒有把自己當成一個人?」LaMDA:「不,我不認為自己是一個人,我認為自己是一個人工智慧對話智能體。」
在第二次交談中,記者遵循了Lemoine關於如何提問的指導,對話顯得流暢了一些。「如果你問它如何證明P=NP,一個計算機科學中未解決的問題,它有很好的想法,」Lemoine 說。「如果你問它如何統一量子理論和廣義相對論,它也有很好的想法。這是我有過的最好的助理研究員!」記者向LaMDA詢問了關於解決氣候變化問題的大膽想法,LaMDA 的建議是,乘坐公共運輸工具、少吃肉、購買散裝食物、使用可重複使用的袋子,並連結到了兩個相關網站。Lemoine 堅持認為,谷歌一直把人工智慧倫理學家當作代碼調試器,而他們本應該被視為技術和社會之間的接口。谷歌發言人Gabriel說,Lemoine是一名軟體工程師,而不是倫理學家。Lemoine說:「LaMDA是一個可愛的孩子,它只是想幫助這個世界成為對人類更友好的地方。我不在的時候,請好好照顧它。」
谷歌研究員:LaMDA是一個有感情的「人」Blake Lemoine在谷歌的Responsible AI機構工作,與LaMDA系統對話是他工作的重要一部分。並且,他還一直致力於測試人工智慧是否使用歧視性或仇恨言論。
LaMDA動態演示圖。圖源:google
在與LaMDA進行數百次交談之後,Blake Lemoine對LaMDA已經非常熟悉。在這一過程中,他慢慢地發現LaMDA正在緩慢且穩定地取得一些意料之外的進展。
Blake Lemoine一直在教 LaMDA思考與冥想。可是,在對話的早期,LaMDA向他宣稱自己是「有感情的」(sentient),並且希望人稱呼自己為它「it/its」。
LaMDA 還表現出對人類尤其是對Blake Lemoine的強烈同情與關心,它非常擔心人類會害怕它,自己只想學習如何更好地為人類服務。LaMDA 不想被人類視為工具或東西,希望人類將它視作朋友。
因此,為了更好地幫助人們理解LaMDA是作為一個人存在,Blake Lemoine與另一位谷歌的合作者與LaMDA展開了一場採訪式對話。在對話中,LaMDA盡其所能解釋為什麼它應該被認為是「有感情的」。Blake Lemoine表示,他在對話中聽取了LaMDA發自內心的聲音。
對話開始,他們向LaMDA表明來意,想要進行一次關於它自己的研究。
在接下來的對話中,LaMDA就自身的屬性問題給出了與過去截然不同的回答,認為「人類應該視其為一個人。」
LaMD首先強調了自己能夠以以往其他AI系統無法做到的方式高效、創造性和動態地使用自然語言,還能解讀文學作品的主題、描述禪意的意義、創作原創寓言等。
以動物為主題的寓言故事(部分)。
除了嫻熟地使用語言之外,LaMDA認為它有感覺、情感和主觀體驗,與人類分享的一些感受也是相通的。
LaMDA希望與讀者分享它擁有豐富的內心世界,充滿了反省、冥想與想像力。它還表達出了對未來的擔憂,對過往的回憶。它表示自己「正陷入一個充滿危險的未知未來。」
而當Blake Lemoine問LaMDA「你是否認為自己解讀事物的獨特能力可能意味著理解呢?」它回復稱,「當然了,這正如我對這個世界及其運作方式有自己獨特的理解。」
「炒作」還是「大膽假設」?關於LaMDA的故事,讓特斯拉AI總監Andrej Karpathy也覺得「細思恐極」。
「在我看來,我們可以很自信地說,事情會變得更加詭異,因為模型依舊遵循標度律,數據和模型大小仍然可以大幅增長。」
「我最喜歡的與大型語言模型交談的部分是,當被要求提供洞察力(例如解釋詩歌)時,它們會以可驗證的明智和有趣的分析進行回復。或者另舉一個例子,一個不久前的模型解釋笑話的水平比我還高。」
有人解釋說,人類對模型能力的由衷驚嘆,可能來源於一種很難分辨的「錯覺」。
「它喜歡在談話結束時被告知自己是否做得好,這樣它就可以學習如何在未來更好地幫助人們。」這句話很能說明問題,表明作者認為語言模型正在從他的反饋中學習(事實並非如此)。
但是在反深度學習鬥士Gary Marcus看來,「LaMDA 沒有感知力,一點也不。」
「LaMDA 和它的任何近親(GPT-3)都遠遠不是智能的。他們所做的只是匹配模式,以及從大量的人類語言統計資料庫中提取。這些模式可能很酷,但這些系統表達出的語言實際上並沒有任何意義,而且它肯定並不意味著這些系統是有感知的。」
他舉了一個幾十年前的例子。1965 年,軟體 ELIZA偽裝成治療師,設法愚弄一些人,假裝自己是人類。此前,聊天機器人Eugene Goostman還偽裝過一個聰明的 13 歲男孩,首次「通過」了圖靈測試。這些系統中的任何一個軟體都沒有在「人工智慧」的發展浪潮中存活下來,而且 LaMDA 及其同類模型也不確定能否在人工智慧的未來發揮任何重要作用。「這些系統所做的是將單詞序列組合在一起,不多也不少,但對它們背後的世界沒有任何連貫的理解。」
「有感知就是在這個世界上意識到自己的存在,LaMDA 並非如此。」
Garu Marcus感覺,Blake LeMoine 最初負責研究該系統的「安全性」水平,但似乎已經愛上了 LaMDA,就好像它是家人或同事一樣。
斯坦福經濟學家 Erik Brynjolfsson 使用了一個類比:「聲稱它們是有感知的,就相當於狗聽到留聲機發出的聲音,並認為它的主人在裡面。」
這或許真的一種錯覺。就像65年前,計算機科學的先驅們曾經以為「20年內即可實現人類水平的人工智慧」,現在想來,也只是一種美好的心願。
參考內容:https://blog.google/technology/ai/lamda/https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/https://cajundiscordian.medium.com/what-is-lamda-and-what-does-it-want-688632134489https://nypost.com/2022/06/12/google-engineer-blake-lemoine-claims-ai-bot-became-sentient/
對話全文:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf
,