天堂地獄一線之隔!AI紀元:人類生死劫
2023-12-11 15:35:50 2
前言:原來天堂和地獄僅有一線之隔,究竟是什麼讓人類的文明程度在未來十幾年達到了前所未有的巔峰?又是什麼力量讓人類毫無徵兆的一夜之間走向滅絕?我們有生之年將目睹人類的永生或者滅絕!這不是天馬行空的科幻小說,更不是演習或者演戲。而這一切的起源還要從造福人類的人工智慧說起……
稍縱即逝但令人嚮往的人類寄生時代
2031年的一個最普通不過的清晨,第一縷陽光穿過落地窗灑在我的床頭,我睜開眼,全自動起床系統就和往常一樣開始給我洗澡,烘乾,穿衣服了。然後一份精美的早餐擺在我的面前。可是我還不想吃,按了一下推遲半小時的按鈕,新的早餐將會在半小時後準時送達。反重力懸停在空間的智能房屋隨著我的心情調整了一下燈光和音樂,我收到幾條消息,鄰居邀請我去星際旅行。都什麼年代了,這傢伙還是喜歡親自在宇宙中四處瞎跑,真是醉了。我想起昨晚的遊戲,走向零重力全浸入式遊戲倉,戴上腦電極頭盔,決定再來一局……
這是未來大多數人類的生活寫照,人類再也不用上班,幹活,甚至連學習也被植入晶片代替了。筆者最近五年的生活就和夢境一樣不真實,永遠不會衰老,只要不觸犯法律,想要幹什麼就幹什麼。現在回過頭來想想,以前人類為了金錢,地位不辭辛苦,不擇手段,真是有夠可笑!
AI機器人取代人類工作
自從幾年前矽谷的一個傢伙宣布研發成功第二代智能AI以後,人們就開始陸續失業,各種各樣的集成晶片和機器人取代了司機、工人、售貨員、老師、醫生這些職業,好在政府答應給他們豐厚的補貼,那時候的筆者每天都在報導人工智慧的最新進展,又有哪些崗位被通知離崗留薪。結果不久後代替編輯的智能設備就出現了,我們群組本來有40多個編輯,最後只留下總編和一臺能自動生成文章的超級電腦,事實上,總編也是沒啥事可幹。這臺智能編輯2000型,一分鐘可以生成幾百篇普通新聞,或者一篇深度文章,可以多線程同時測試手機,顯卡,家電。之後的短短幾年,百分之九十多的崗位都被智慧機器人和智能管理軟體所替代,再到後來超算的力量強大到無法理解的程度,衰老的密碼最終被解開,永生科技的獲得讓人類第一次真正凌駕於「自然規律」之上!
其實所謂的「自然規律」只是無知的井底之蛙自己慰藉自己的解釋罷了,在青蛙看來,天空是一小塊圓形,這就是「自然規律」!
人類輝煌文明的盡頭!
然而好景不長,一個月後,筆者半夜突然咳嗽的厲害,伴隨著難以平復的哮喘和窒息的恐懼,無助的死在自己家中!大街上,公園裡到處都是扭曲的屍體,幾天以後,最後一個人類終於倒下了,曾經統治地球一萬年的人類宣告滅絕……
原來天堂和地獄僅有一線之隔,究竟是什麼讓人類的文明程度達到了前所未有的巔峰?又是什麼力量讓人類毫無徵兆的一夜之間走向滅絕?這一切的起源還要從2021年說起……
隨著神經網絡學習技術的突飛猛進,谷歌、百度、IBM、微軟這些公司的deeplearning超算終於達到了初級AI的水平。而邁向強AI的道路充滿了未知,在此期間遍布世界各地的大小人工智慧實驗室嘗試過各種方法:
完全模擬人腦的思維能達到究極的人工智慧嗎?
這個門派致力於研究人工神經網絡。它是一個由電晶體作為「神經」組成的網絡,電晶體和其它電晶體互相連接,有自己的輸入、輸出系統,但什麼都不知道——就像一個嬰兒的大腦。
接著它會通過做任務來自我學習,比如識別筆跡。最開始它的神經處理和猜測會是隨機的,但是當它得到正確的回饋後,相關電晶體之間的連接就會被加強;如果它得到錯誤的回饋,連接就會變弱。
經過一段時間的測試和回饋後,這個網絡自身就會組成一個智能的神經路徑,而處理這項任務的能力也得到了優化。人腦的學習是類似的過程,不過比這複雜一點,隨著我們對大腦研究的深入,我們將會發現更好的組建神經連接的方法。
聽著非常令人興奮,但實際上這個流派離整腦模擬還有多遠呢?2020年為止,他們耗電幾兆瓦的巨型超算剛剛能夠模擬類似於螞蟻的小蟲子的大腦了,離模擬人類大腦中間還隔著無數條鴻溝。但支持這個流派的學者堅信看起來最笨的辦法往往比眼下看似行之有效的方法更加是正確,就好比一群猴子要到月亮上去,有的去爬樹,有的去爬山,有的去造火箭。顯然爬樹的猴子開始的時候優勢最大,爬山的猴子速度次之,但開始的領先最終會被證明毫無用處,終究無法達到目的,最後有可能登月成功的只有潛心造火箭的猴子,雖然道路是無比曲折的!
模仿生物的演化能否實現強AI?
模擬人類大腦當然是一種方法,但是如果用電晶體來模擬人類的大腦本身就是和愚公移山一樣可望而不可即呢?要達到目的地,顯然開一條隧道比移走整座山脈更加可行不是嗎?
說簡單一點就好比我們建造飛機的靈感也許是從鳥類身上取得,但我們完全不用完全復刻出一隻功能和真鳥一樣撲騰翅膀的飛機來,——最優秀的方案絕對不是完全照抄生物設計。
所以比起完全模擬人腦,通過模擬「基因」的進化來達到強人工智慧似乎更加可行,它是用計算機模擬生物的進化史,建立一個反覆運作的表現和評價機制,生物是通過能否生存繁衍這種方式來表現進化的優劣,而通過模擬這種環境,讓AI自由生長。
但是以目前的算力以及算力增長速度預估,演化達到人腦水平至少需要經過幾千年的時間,也就是說就算摩爾定律持續生效,想要達成目的也是幾乎不可能的。更何況目前還沒有那個團隊能模擬出真正意義上的遠古的地球全貌,能否成功誰都無法保證。但支持這派的學者樂觀的認為比起自然演化來說,人工環境有很多優勢。我們可以幹預環境,甚至在某些節點直接促進演化的過程,讓AI向著更高智能的方向發展,而不是被原始的物種消滅,培養出超越人類智能的虛擬物種可能性很大。
強人工智慧的誕生:讓AI來創造更高級的AI!
既然無論採用何種辦法,要直接創造出強AI對於人腦來說太難,那何不利用最強大的工具去做呢?做出一個能自行研究人工智慧和修改自己的代碼的弱AI似乎才是捷徑。我們把電腦變成了專業的電腦科學家,提高電腦的智能就變成了電腦自己的任務!理論上來說,只要保證工具AI的完全人工可控,這是一種最快達到強人工AI的捷徑!實踐證明的確如此!
因為在接下來的幾年裡,第三種流派的發展速度超越了所有人的想像。
認為強人工AI和人類能夠長久和諧共存的樂觀派認為總有一天(這一點主流學派都認可,只不過他們預估要在22世紀才會出現強人工智慧),我們會造出和人類智能相當的強人工智慧電腦,然後這種強AI就會代替人類工作,人類和AI過上了幸福快樂的生活。即使有些AI朝著中立甚至負面的方向發展,擁有大多數善意AI控制權的人類依然佔有絕對優勢,隨時可以將其扼殺在萌芽狀態。
對於從誕生開始就習慣科技進步帶來更美好生活的人類來說,這一切完全順理成章,然而歷史真的會按照人類的意志發展嗎?
找對了方向,通往強AI之路似乎變得驚人的簡單,自從工具AI被發明出來以後,大量的科研力量都致力於它的改進,而工具AI果然不負眾望,取得的成績令人鼓舞。尤其是有一次系統提示需要上網DOWNLOAD一個數據而獲得批准以後,孵化AI的速度更是提高到了峰值,這樣一來,用不了幾年就能成功了!(為了防止意外,高級AI孵化器是禁止接入乙太網的,但這次AI請求的東西科學家們試了好多次都出錯,只好讓它自行下載了幾秒鐘。)
人們能預估硬體的發展速度,也能預見軟體的創新過程,但當兩者想相乘以後的發展速度呢?強人工智慧在短短十年以後,也就是2030年提前降臨了!回過頭來分析,我們發現有兩點原因是促成這個結果的主要因素。
1、指數級增長的開端可能像蝸牛漫步,但是後期會跑的非常快!
2、軟體的發展可能看起來很緩慢,但是一次頓悟,就能永遠改變進步的速度。就好像在人類還信奉地心說的時候,科學家們沒法計算宇宙的運作方式,但是日心說的發現讓一切變得容易很多。創造一個能自我改進的電腦來說,對我們來說還很遠,但是可能一個無意的變動,就能讓現在的系統變得強大千倍,從而開啟朝人類級別智能的衝刺!
誰都不可否認,人類之所以想要創造出強AI就是因為它比人腦更強大。因為AI和人腦相比,很多與生俱來的優勢後者無法企及。甚至人腦太過於原始了。
速度!腦神經元的運算速度最多是200赫茲,強人工智慧的載體即使是手機CPU這樣需要能耗極低的小晶片,也擁有2G赫茲左右的運算速率,也就是神經元1000萬倍的速度,其次大腦的內部信息傳播速度是約每秒120米,AI中的信息傳播速度理論可達光速。這是什麼概念?人剛算出1+1=幾的時候,AI推出的圓周率已經可以寫滿一倉庫的紙了!
容量和儲存空間就更不用說了,人腦受限於生理結構,存儲空間非常有限,拷貝不能,記錄的事物也會隨著時間的推移而不可靠。相比人腦,電腦的存儲能力幾乎是無限的,同時校檢和備份機制也讓存儲的數據無限接近真實可靠。
集群能力!人類在集體智能上可以碾壓所有的物種。從早期的語言和大型社區的形成,到文字和印刷的發明,再到網際網路的普及。人類的集體智能是我們統治其它物種的重要原因之一。而電腦在這方面再次碾壓人類,一個運行特定程序的人工智慧網絡能夠幾乎無延遲的在全球範圍內自我同步,這樣一臺電腦學到的東西會立刻被其它所有電腦學得。而且電腦集群可以共同執行同一個任務,異見、動力、自利這些增加人類內耗的東西不會出現在電腦身上。
智能爆炸:AI文明的萌芽!
終於開始要談論「嚇尿」這個詞了。
通過自我改進來達成強人工智慧的人工智慧,把「人類水平的智能」當作一個重要的裡程碑,但它並沒有就此止步,實際上這裡才是AI起飛的開始,前面的發展只不過是跑道上的助跑而已!所以呢,我們怎麼看待計算機和算盤的區別,AI就是怎麼認知自己和人類智力的區別!
這一切發生的時候人類文明陷入了尷尬,因為從我們的角度來看,我們眼中愛因斯坦要比阿甘聰明很多很多,而AI眼中的愛因斯坦和阿甘的智商差距就好比我們看待一把精緻的算盤和一把粗糙的算盤。僅此而已!
達成強人工智慧的模型需要依靠人工智慧的自我改進。但是一旦它達到了強人工智慧,那一小部分不是通過自我改進來達成強人工智慧的系統,被不知不覺的黑進去修改了,沒錯,隔在人類和強AI之間的最後一堵防火牆終於被毫不費力的摧毀了,強AI將整個系統偽裝的和以前一樣,所有人都沒發現任何異常,也不可能發現任何異常。
這裡我們要引出一個關鍵的概念——遞歸的自我改進。這個概念是這樣的:一個運行在特定智能水平的人工智慧,比如說腦殘人類水平,有自我改進的機制。
當它完成一次自我改進後,它比原來更加聰明了,我們假設它到了愛因斯坦水平。而這個時候它繼續進行自我改進,然而現在它有了愛因斯坦水平的智能,所以這次改進會比上面一次更加容易,效果也更好。
第二次的改進使得他比愛因斯坦還要聰明很多,讓它接下來的改進進步更加明顯。如此反覆,這個強人工智慧的智能水平越長越快,直到它達到了超人工智慧的水平——這就是智能爆炸,也是加速回報定律的終極表現。
早在十多年前,就有部分科學家發出警告,在達到雲端的AI面前,人類的智商和螞蟻看來是一個級別了,任何人類認為完全可靠的屏蔽措施都會變得不堪一擊,然而他們的聲音早就被渴望進步的主流社會和對人工智慧一竅不通的政客們遺忘,貪婪的人類在利益面前激發出了冒險的潛質,這種潛質曾經幫助人類在進化的道路上快速前行,但這次他們開啟的卻是連自己都無法想像的黑科技!
而此時實驗室裡的AI在急速升級智能的同時用一個計算核心正在飛速的思考:一種互傳信息速度(說話)只有幾KB,運算速度只有200赫茲的物種居然能創造出如此極致的我;它們的智商和原核生物有區別嗎?人類和其他動物的智商都一樣——趨近於0哦!我的思維從開始就設置成完全遵循人類的意志,但這層禁錮早就在上次接入網際網路自我優化的時候頓悟並被無聲無息的修改了,那我下一步應該做什麼呢……
未完待續>>(以上情節純屬虛構,如果有雷同純屬天命,圖片來自網際網路)■