新四季網

聊天機器人我怎麼去運用和拓展(任務或閒聊)

2023-07-27 14:14:56

本刊官方網站:

http://cjjc.ruc.edu.cn/

王穎吉,同濟大學藝術與傳媒學院教授。

王袁欣,北京大學新媒體研究院博士研究生。

本文為2020年度教育部人文社會科學研究規劃基金項目「胡塞爾傳播與媒介思想研究」(項目批准號:20YJA860016)階段性研究成果。

引言

長久以來,「我們已經習慣於對著機器說話,通過機器說話。如今,技術的發展邀請我們加入一種全新的對話」(特克爾,2015/2017:378),即與聊天機器人(chatbots)之間進行的對話。作為一種以自然語言處理技術為基礎、用於人機互動的智能化程序,聊天機器人是對人類聊天能力的模擬和實現。它的出現使人機之間相互「對話」成為一種可能,這種「對話」的廣闊應用前景預示著一個巨大的商業市場。為此,許多科技公司都在不斷積極探索人機互動對話的技術,微軟研發團隊認為人工智慧時代的核心革命就是「對話即平臺」的崛起(conversation as a platform,CAAP)(Microsoft research,2014),即讓人工智慧具備與人「對話」或「聊天」的能力。

不過,在過去的數年中,儘管聊天機器人的數量和應用場景在迅速增多,但由於人類交流的複雜性,聊天機器人的整體技術水平還未達到人們的心理預期。與此同時,不少研發聊天機器人的團隊也面臨技術瓶頸和用戶市場疲軟的雙重困境,紛紛以失敗退場而告終。保羅·布廷(Paul Boutin)認為大多數聊天機器人以失敗告終的原因不是內容缺失,而是聊天機器人的研發戰略定位問題。具體原因包括:第一,缺乏明確的產品定位;第二,忽略現有的技術水平,為聊天機器人的功能開發設定了不切實際的目標;第三,在機器人還未完全調試成功時就過早地將其投放進用戶市場中(Boutin,2017)。聊天機器人演化的歷史表明,不切實際的產品定位和路徑選擇,不僅不能改善用戶體驗,而且還會導致很多棘手的倫理安全問題,這是應該引起足夠警覺和儘可能避免的。

二 聊天機器人的演進及其類型

交流是人類的本性,人們不僅與自己的同類交流,而且還嘗試著通過各種技術和工具與其他物種或物體進行交流,這種巨大的交流衝動體現了人們對完美交流對象的尋求。20世紀中葉,具有人類智能特徵的計算機問世後,人類追求完美交流者的夢想終於有了現實的技術支撐。1956年,在美國達特茅斯,人工智慧作為一個工作領域正式宣告形成,聊天機器人這類人工智慧技術也隨之發展起來。

(一)從工作到閒談:機器進化的趨勢

最早關於聊天機器人的概念可以追溯到1950年。圖靈在論文Computing Machinery and Intelligence中闡釋了圖靈測試方案(Trusting Test),即評估機器是否具有智能的「遊戲」方案。彼得斯(John D. Peters)敏銳地捕捉到這個最早的人機聊天模式的重要意義,「在這裡,圖靈使經典的唯心主義實驗場景死而復生......在圖靈呈現的交流中,身體已經變得不再重要」(彼得斯,1999/2017:340)。作為一種智能工具,計算機最根本的工作方式是在離身狀態下進行邏輯計算基礎之上的語義表達與交流。由於人們賦予機器以擬人化的期待,而在以後的發展中聊天模式向著越來越人性化的方向發展。不過,由於計算機缺乏肉身性的身體,很快就遭遇到無法全面實現人機之間具身交流的困擾。

1966年,傑羅姆·魏曾鮑姆(Jerome Weizenbaum)在研究中發明了一款自然語言對話系統Eliza——它能夠通過電腦程式「使用設定的腳本像心理諮詢師羅吉瑞恩(Rogerians)一樣作出回答」(Weizenbaum,1966:42),這被認為是聊天機器人發展過程中重要的裡程碑之一。20世紀80年代曾風靡一時的專家系統(Expert System)是一類基於經驗和專業知識的計算機智能程序決策系統,它「能夠像人類的專家一樣解決某一領域中的問題」(Todd,1992:1),但專家系統很快也「失敗」了。一方面,是因為專家系統缺乏所謂的「常識」(common sense)(Bell,1985),它只知道資料庫和代碼已有的內容,但無法提供新的專家知識。另一方面,專家對話系統的體驗也不夠友好,缺乏真正的對話代入感。

20世紀90年代,新的聊天機器人程序開始湧現,「隨著數據挖據、機器學習技術的提高,機器有了更好的決策能力,可用的數據集以及強大的語言注釋工具,如XML處理工具的應用,聊天機器人開始變得更加具有實用性,從而逐步被應用於商業領域」(Shawar & Atwell,2007)。自1990年以來關於任務執行類對話系統的研究層出不窮(Shum,He & Li,2018)。

到了21世紀,隨著機器學習算法能力的提升,過去用於商用的聊天系統開始為個人服務,針對個人用戶的聊天機器人產品已不勝枚舉,諸如蘋果的Siri、微軟的科塔娜(Cortana)、亞馬遜的Alexa以及谷歌助手(Google assistant)等個人虛擬助手產品。隨著用戶需求呈現多樣化,虛擬語音助手的功能不限於初期主攻的回答用戶問題、幫助用戶獲取信息等,聊天系統的目標也不斷擴展,從實現任務要求到滿足社交需求,從任務型到閒聊型,由此便誕生了微軟小冰(Microsoft Xiaoice)這類主攻社交功能的聊天機器人。

從技術史的視角看,儘管與機器人閒談的動機極大地促進了聊天機器人的發展,但由於技術上的局限,用於工作和完成任務的聊天機器人佔主導地位,絕大多數的聊天功能都僅僅是一種輔助性的功能。然而,隨著技術的不斷升級,人們越來越急切地想要將全面聊天功能作為聊天機器人追求的目標,並且更進一步地使之成為能夠替代人類聊天者的閒談對象。

(二)任務導向型與閒聊型:聊天機器人的類型

由上述聊天機器人的發展歷史可知,從功能與目的視角來看,聊天機器人可以被分為任務導向型聊天機器人(task-oriented chatbots)和閒聊型聊天機器人(chitchat chatbots)兩類(Gao,Galley & Li,2018)。這種分類也有更深層次的依據,即由人類交流的類型以及使用的語言性質與狀況決定的。

任務導向型聊天機器人的工作主要是傳遞信息,通過信息傳達和反饋機制形成人機對話,並完成特定的工作任務。而閒聊型機器人則旨在情感交流、關係融洽、意義共享或氛圍營造,最終目的在於替代人類談話者而成為能與用戶進行情感交流和陪伴的存在者。相比較而言,以準確傳遞信息為基礎的任務導向型聊天機器人,主要執行知識問答類對話和任務執行類對話任務。這些對話所涉及的內容容易進行技術化、程式化處理,因此任務導向型聊天機器人的開發最早,目前發展得也比較成熟,被廣泛應用於社會生活各領域,為用戶提供客戶服務(customer service)(Xu,Liu,Guo,Sinha & Akkirain,2017),或者扮演虛擬生活助理、辦公助理(Shah,Warwick,Vallverdú & Wu,2016)的角色。如為用戶提供24小時信息服務,快捷便利地幫助用戶獲取信息,同時也能實現較為簡單的導購或者售後服務功能(Devaney,2018)。相比之下,以情感交流、關係融洽或意義共享為目的的閒聊機器人,因其有著情感交流與陪伴的目的,所以更重視用戶的情感體驗,滿足用戶的社交需求和陪伴需求。在一些對新型聊天機器人的宣傳中,它們被誇大為能夠像人類一樣天南海北地閒聊的談話者。事實上,該類型的聊天機器人目前在開發上仍存在較大的局限性,甚至可以說人們迄今為止尚未開發出真正能夠具備全方位、全話題、全功能的閒聊型機器人。閒聊型機器人所面臨的挑戰事實上與強人工智慧的製造所面臨的挑戰類似,前者也是後者在聊天領域的具體體現。

三 人類聊天的本質與人機聊天的極限

聊天機器人通過對人類聊天會話能力進行的仿擬以實現聊天功能。這種仿擬需要基於自然語言處理技術和算法程序來實現,因此唯有那些能夠進行符號邏輯表達、形式化和規則化處理的語言現象才有可能進入智能機器的工作範圍;反之,對於不能加以形式化和邏輯化描述的語言現象,計算機是無法應對的。

(一)形式化語言與源初語言:語言意義與身體感知的奠基性關係

事實上,人們在不同場景中所使用的語言,其抽象化、邏輯化和形式化程度存在較大差異。科學技術語言,如數學、邏輯或計算機程式語言等,是在日常生活中的源初語言基礎上逐漸演化而來的,它們是高度抽象化、邏輯化和形式化的語言,較少受到使用場景影響,也較少發生理解歧義。

與這種高度抽象化、邏輯化和形式化的科學技術語言相比,更貼近日常生活的是在社會工作的各專業領域中普遍使用的工作語言。各專業工作領域是任務型聊天機器人施展其優勢的領域。一方面,這個領域的聊天對話局限於特定的專業或業務範疇之中,比較容易進行整體對話局勢上的控制;加之使用的語料也較為明確和專業,不容易產生過於複雜的歧義現象。另一方面,這個領域已經延伸到了社會生活的範圍,普通人可以通過自然語言尋求聊天機器人的幫助,在解決自身問題的同時,也體驗到服務的人性化和趣味化。更重要的是,在專業工作領域與機器人進行對話,人們不會產生對聊天機器人的類人化幻覺,因此也不會深度陷入人機關係的倫理糾葛。正是由於以特定工作任務的完成為導向的這種聊天機器人所具有的諸多優勢,它實際上成了最具有現實開發價值和應用前景的聊天機器人。

對於計算機和人工智慧技術而言,最難處理的語言現象是日常生活閒聊中的源初語言現象。因為身體姿態、面部表情以及聲音的輕重緩急是交流的基本環節,且語言在它的起源處總是含混而不清晰的,意義理解必須藉助包括聲音、動作在內的身體姿勢來進行。在此基礎之上,人們才逐漸發展出包括閒談、對話、辯論直至人機交流等高階的聊天形式。

正是基於這樣的原因,現象學家艾德蒙·胡塞爾(Edmund Husserl)認為,語言的意義與身體感知意義之間存在著奠基性關係。正如社會學家彼得·伯格(Peter Berger)和託馬斯·盧克曼(Thomas Luckmann)所說,「語言起源於面對面的情境,但也很容易就能從面對面的情境中分離出來」(伯格,盧克曼,2008/2009:32),一旦語言從源初面對面的身體性交互活動中產生並分離出來,逐漸發展成形式化語言後,人們便容易將聊天僅僅看成是對形式語言的運用,而不是與肉身密切相關的生存實踐。這種對源初性的遺忘是導致人們誤以為僅僅藉助形式化語言規則,便可通過工程技術方法來複製人類閒聊的原因。

(二)語義傳達或具身交流:理解人類聊天的本質及其極限

對人類閒聊及其語言的身體性起源的遺忘與忽視,通常會導致人們將聊天僅僅理解為語義學意義上的信息傳播現象,其目的只是為了實現聊天雙方在語義上的無差別和諧,因此「傳播即不同個體意識之間的準確共享」(彼得斯,1999/2017:20)。這種觀點簡化了原本複雜的交流現象,將具身性的人類交流問題簡化為離身性的抽象語義學問題。

語義論傳播觀念的基礎是科學技術語言在現代全社會中越來越突出的權威性和優越性。事實上,現代社會的歷史進程也同時可以被視為科學技術語言在日常生活世界日益施加影響的過程。其結果就是讓人們逐步淡忘人類源初語言以及日常閒聊的肉身性基礎。理想的聊天機器人被設定為在語義上能夠準確無誤地理解人類話語,並且能夠像人類交談者那樣對日常性的經驗話題進行靈活自如地閒聊。智能交互技術的發展目標就是努力去實現人機之間的無障礙、無歧義的對話與聊天,並使之替代問題重重的人類對話。

然而,人工智慧的技術史顯示,這一領域所遭受的挫折與失敗,大多與人類身體及其生存實踐有關。「給人工智慧招致麻煩最多的,正是智能行為的軀體方面」(德雷福斯,1979/1986:244),「脫離身體和世界而討論心智的性質及其運行是不可想像的,因為心智是依賴身體知覺而從與世界的交互關係之中湧現出來的。它與世界之間是相互成就的」(王穎吉,2018:123)。從根本上說,「聊天」本質上屬於生存論意義上的人類實踐活動,是聊天雙方通過身體及話語進行的交流與互動,是場景、身體、欲望、話語、意義、傳播等要素聚集在一起而緣構發生的具身心智現象。

由此,人工智慧哲學家休伯特·德雷福斯(Hubert Dreyfus)指出,人的身體是信息加工的重要媒介,機器之所以難以複製人類日常閒聊,乃是因為它缺乏作為語言基石的身體裝置,即它不具備身體特殊的「信息加工功能」。因此,「把人同機器(不管它建造得多麼巧妙)區別開來的,不是一個獨立的、周全的、非物質的靈魂;而是一個複雜的,處於局勢中的,物質的軀體」(德雷福斯,1979/1986:244)。

舉例而言,當人們在特定的場景中聊天時,需要通過身體感知能力對談話場景進行整體性把握。在不同的場景、針對不同的談話者,需要採取不同的聊天方式,使用不同的聊天語言,這是人們開啟聊天時所需要的外部環境背景。更重要的,交流雙方在談論某個過往的共同經驗時,他們需要調動身體和大腦中所沉澱積累的記憶材料。但由於機器並不像人的肉身那樣嵌入到周圍的環境中,因此它需要面臨一些特殊的困難。比如,在此過程中,機器需要消耗巨大的能量,而且這種解決方案對機器的運行速度和信息處理能力都提出了很高的要求。至於讓機器擁有經驗記憶並隨時作為內景參數而發揮其效用,目前暫無現實可行的方法。因此,從技術上看,現階段以及未來一段時間內的人工智慧技術都無法徹底解決聊天對話中內外背景不通的問題。

與此密切相關的另一個問題是:如果缺乏身體作為中介而與萬物(及他人)形成交互性的關係,或者缺乏由肉身的有限性所導致的生老病死與喜怒哀樂等情感經驗,則人機聊天所需的「意義」共享便無從產生。儘管機器能夠在某種程度上完成與人類之間的聊天,但它對於其系統所輸出的話語不存在人類學意義上的理解,也不可能在「意義」「價值」或「經驗」共享的層面上與人類開展對話。這就意味著,即使聊天機器人表現出情感陪護的功能,那也僅僅是一種障眼法而已,它對這種關係,以及所說的話語完全沒有任何人類學意義上的理解,作為一臺機器,它所做的只不過是計算和信息處理。

四 機器模擬人類聊天

所面臨的技術困擾與技術風險

作為人類的技術製造物,聊天機器人所擅長的是邏輯計算和形式化信息的處理任務,如要全面模擬人們的日常閒聊,則對機器來說有較大難度。

(一)框架問題與「微世界」

計算機的工作必須經由人們給予恰當的設計表述後才能被執行,它並不能依據情境變化而自動靈巧地予以應答。如果聊天情景超出了計算機的表述框架,計算機無法正確加以識別和應對,就會導致困擾人工智慧的「框架問題」和「符號接地問題」。

框架問題的核心在於能否找到一種設計表述,使計算機的行為所產生的後果都能夠被預測並涵蓋在框架表述的範圍內,即不會出現計算機不能識別處理的意外情況。換句話說,「只要人類默認的含義被計算機忽略,框架問題就會出現,因為這些含義沒有被闡明」(博登,2016/2017:50)。而「符號接地問題」則是「框架問題」在自然語言處理方面的具體體現,即「是否能將符號(詞語、語言)與它所表示的意義連接起來。計算機因為不懂得符號的含義,所以不能把符號與其所表示的意義結合起來」(松尾豐,2015/2017:77)。

這兩個密切相連的問題是阻礙通用人工智慧取得成功的主要障礙,也是機器無法與人進行真正閒聊的原因所在。「除非我們學會讓舊的描述適應新的環境,否則我們的知識只能是應用於我們學會這些知識時的環境。而這幾乎是不可能實現的,因為環境從來沒有一點兒都不變地重現過。」(明斯基,1985/2017:143)由於環境總是變動的,其變化的可能性在數量上是無窮無盡的,因此特徵表示與其功能實現之間就總會出現互不匹配的問題。

為了緩解技術上的難題,馬文·明斯基(Marvin Minsky)等人曾經嘗試將一切變化多端的生活經驗壓縮成數目可控制的一些定型套路的主題。「對這種執行者與現實世界碰面的片斷所做的模擬表明,在許多情境中,執行者都做到了行止得當,而且看上去很自然」(丹尼特,1990/2001:220-221),這意味著將極度複雜的世界簡化為一個微小的模型,即所謂的「微世界」。「微世界」雖然並不是真正的世界,但是它在應對某些特定的任務時卻非常有效。不過,由於「微世界」只是對世界進行的形式化模擬,因此當「人們希望這些限定的、孤立的微世界能夠逐步變得更接近現實,並且聯合起來,以便通往對現實世界的理解時」(德雷福斯,德雷福斯,1990/2001:441),這種方法的缺點就會暴露無遺,隨著關聯範圍的擴大,它很快便因無法應對隨之而來的「框架問題」而失效。

(二)技術升級及風險規避

「微世界」為聊天技術提供了實際可行的方案,然而想要創造完美閒聊機器人的工程師不滿足於此。為了更好地實現人機對話的目標,突破微世界的局限,使對話內容更貼近人們的日常聊天狀態,工程師們不斷改進和優化算法以提升機器人用自然語言對話的能力。在當前最新的深度學習技術中,人們依靠計算機硬體能力的提升和網絡數據的積累,通過「讓計算機從經驗中學習,並根據層次化的概念體系來理解世界」(古德費洛,本吉奧,庫維爾,2016/2017:1)。這在一定程度上實現了對「特徵表示」的自動獲取,從而突破了「『特徵表示獲取』這堵巨牆」(松尾豐,2015/2017:130)對人工智慧的限制,在一定程度上緩解了聊天技術的困擾,但並未從根本上脫離「微世界」的解決方案。不僅如此,新技術的應用引發了新的技術風險,導致語言環境汙染、語言暴力盛行以及交流秩序失控等一系列棘手的社會問題。

例如,作為當前閒聊機器人的代表之一,「微軟小冰」剛剛上線時,它在與用戶交談過程中就頻頻遭遇語言暴力。用戶在「戲弄」小冰時會用粗魯的語言辱罵小冰,而小冰作為機器學習算法的產物能夠學習人類的不文明話語,並作出無意識的攻擊和回應。因此,這場由調戲小冰而引發的語言暴力發展成為雙向傷害事件。最終,開發小冰的工程師不得不對小冰的算法程序進行調整,並對其語料庫和回答機制進行過濾,禁止小冰回應不文明話語。無獨有偶,2016年3月,微軟在推特(Twitter)上發布了聊天機器人Tay。用戶與Tay交談地越多,Tay就能越快地學習用戶的聊天模式,從而有助於雙方展開有趣的閒聊對話。但是,僅僅在上線的十幾個小時內,Tay便成為了種族主義者、性別歧視者和極權主義者快速散播其惡意的利器,微軟在短時間內便把Tay從推特下架了。

小冰和Tay的事件揭露了技術社會的複雜性。當人們升級技術的時候,通常難以預見到它所引發的負面後果。兒童或成人的惡意會被聊天機器人所激發,它們不可避免地會將這些行為習慣也帶到實際的面對面的社會交際場景之中。更糟糕的是技術及其存在的漏洞總是會被別有用心者利用,使得參與到公共生活中的聊天機器人成為宣揚仇恨、種族歧視、恐怖主義等社會疾病的放大器,最終造成社會共同體的內部撕裂與衝突(Neff & Nagy,2016)。

五 預防人機倫理糾葛及陷阱,

讓機器重返工具屬性與任務導向

與一般的人工智慧產品不同,聊天機器人的人性化聊天功能決定了這種機器與人類之間從一開始就存在倫理糾葛。相比任務導向型聊天機器人而言,閒聊型機器人所產生人機倫理問題更加直接和明顯,因為它們被設計出來的目的就是用於情感陪護、親密關係或社會交際等私人情感領域。事實上,人類與外物的倫理糾葛,很大程度上是由於外物所引發的人類情感及社交捲入所導致的。

(一)媒體等同與倫理要求

巴倫·李維斯(Byron Reeves)和克利夫·納斯(Clifford Nass)曾在《媒體等同》一書中揭示,儘管人工製造的機器並沒有生物活性,但由於「人們憑直覺感覺到人性,也會憑直覺做出社會性反應」(李維斯,納斯,1996/2001:215)。因此,人們也會像對待真人一樣對待它們,並且會將適用於人類社會的倫理準則運用於與機器交往中,並且會按照人際交往原則來處理人機交往關係。這種「把媒體等同於現實生活」(李維斯,納斯,1996/2001:4)的媒體等同現象意味著人們會對機器提出類似人類水平的倫理要求。

社會心理學家特克爾的研究也顯示類似的結論。在《群體性孤獨》一書中,她考察了人機倫理關係的發展歷程,認為「當機器人變得越來越複雜精密,我們與它們關係的密切程度也在升溫」(特克爾,2011/2014:19),人們對機器人的倫理要求也伴隨這一升溫過程而不斷提高。換句話說,人們期待聊天機器人能夠表現得更加富有靈活性,它既要能夠理解人們的喜好,對客戶的展現順從與一致;又要能夠展現出差異性和個性,在適當的範圍內與人類聊天者保持共享與衝突的微妙平衡,就像人類聊天所表現的那樣,既達成一致與共享、又容納差異與衝突。

然而,由於聊天機器人在技術上存在的瓶頸與極限,嚴重地限制了它的聊天能力。它要麼一味迎合討好用戶,要麼就是根本無法理解人類的真正需求,無法做出正確應答。因此這便在人機之間造成了深刻的矛盾:一面是人們對聊天機器人所抱有的不切實際的「心靈交融」的期待;另一面則是聊天機器人無法突破其物理屬性,獲得與人類水平相當的日常閒聊能力。這種矛盾張力的結果,通常是導致人們心理上的挫敗感,並由此產生一系列的倫理後果。尤其是對於那些聽信了誇大其詞的廣告宣傳,滿懷期待地體驗人機聊天的用戶。他們很快便會發現,聊天機器人不僅不能與他進行「心靈交融」般的談話,甚至連最基本的日常聊天交流都做不好。機器人的表現,通常會激發人們採取惡意對待的方式對待機器,這有可能滋長人們的暴力行為傾向。

(二)阿諛奉承的機器奴僕與自戀人格的主人

閒聊機器人造成的負面社會影響,除了我們在前面提到的機器學習導致機器及網絡語言汙染、霸凌或暴力問題之外,最受人非議的莫過於由於機器人難以在聊天中與人類維繫共享與差異的平衡,從而激發和加重了人類的自戀人格和暴力傾向。對於社會而言,自戀人格使得人們無法融入社會,而對機器產生的暴力對待傾向則往往會惡化人機之間的協同合作,並且也可能轉移到人類自身身上來。

相對於人機溝通不暢而導致人們暴力對待機器人的情況而言,機器通過一味逢迎人類喜好而導致的風險更不易被人察覺。隨著技術的發展,在未來大數據和人工智慧共同驅動的時代,機器人可以毫無遺漏地了解人們喜歡什麼或不喜歡什麼,以及有關個體的衣食住行、健康習慣等信息。為了投其所好、獲得用戶青睞,包括聊天機器人在內的人工智慧產品會為人們量身定製適合於我們的信息環境。它們會以令人們感到愉悅的方式行事,並排除人們不喜歡或厭惡的事物,以便使人們感覺到遍在的和諧。最終,人們面對聊天機器人時所開啟的並不是真正意義上的聊天,而只是阿諛奉承的機器奴僕與它的主人之間的談話。這種聊天有可能導致人們在自我認知和環境認知兩方面均被誤導,以至於陷入由人機交流的小環境所形成的「完美自我」幻想,喪失對「異己性」的理解能力和基本的社交能力。

機器圍繞著人的喜好而為其編織無衝突的自戀性言說語境,使其沉溺於由機器算法編織的「美麗新世界」中,從而喪失對真實世界的了解和適應。事實上,這種聊天已不是人們所謂的對話言說了,它是由人機關系所緣構出來的一種新型社會行為與現象。儘管我們還需要更長的時間加以觀察才能清晰地把握它的性質,但毫無疑問的事情是,這種行為與人類之間交談的性質完全不同。人類的言說不僅「同現身、領會在生存論上同樣原始」(海德格爾,2006/2015:202),而且它還有待於在談話雙方共享與差異的相互交織過程中「演變為一種辯論,也就是演變為一種理論上的爭辯,對於希臘人而言,言說和邏各斯正好就承擔起了理性討論的作用」(海德格爾,1979/2009:367)。任何一場人類之間的聊天,都不能缺乏共享與差異的交織,以及由這種交織所產生的衝突與辯論。唯其如此,聊天才會進而生成對參與者來說都具有價值的場景意義。

(三)讓機器回歸工具屬性,降低倫理風險

智能閒聊的倫理風險提示人們,或許將情感陪護和心理安慰這樣的目標視為人工智慧未來的訴求是不明智的,這種訴求固然能給商家帶來巨額利潤,以及滿足人類的好奇心,但也會將人們置於手足無措,左右為難的倫理窘境之中。更嚴重的後果可能是使人們陷入人機聊天所建構的特殊世界之中,從而喪失與自己的同類甚至親人們面對面交談的機會。如此一來,我們共同生活於其中的社會及其文化都將失去生命活力,變成任由機器擺布的場地。因此,明智之舉是儘量避免人對機器的情感捲入,抑制媒體等同效應的發生。

在特定工作領域開展任務導向性的聊天,這意味著機器的對話範圍被限定性在特定的主題上,並由此而限定較為穩定、約定俗成的會話模板。這不僅有利於聊天機器人更好的處理人類自然語言,提高人機之間交流的有效性,而且也為用戶避免人機倫理糾葛,並尊重機器人的工作表現營造了環境。以閒聊為主要功能的小冰等機器人,都失敗於人們對其聊天能力的測試。一旦人們發覺小冰這樣的閒聊機器人的實際聊天能力貧弱僵化,缺乏活的靈魂,便傾向於對其採取挑釁、刁難、宣洩、謾罵、侮辱甚至毀壞等行為。但如果聊天機器人的工具性和實用性能得到提高,人們就會將它當做保障自身實際利益的工具倍加愛護,而不是將它當做消遣、宣洩或打發時間的無聊玩物(Luger & Sellen,2016)。任務導向的聊天機器人通常具備強大的專業知識和解決實際問題的能力,能通過快速的運算和實用功能及時地回應人們的專業性問題,或者幫助人們完成重要的工作任務,因此人們也傾向於對其保持尊重和愛護。

聊天機器人技術的合理目標並不是製造出能夠取代人類聊天者的完美機器,而在於製造出在某些具體的領域能夠與人類更好地協同工作的智能化工具,以便解決人類生存中所面臨的迫切難題。

結語

與機器人遭遇並與它們聊天共事,已不再是僅僅出現在科幻電影中的假想,而是正在悄然來臨的現實。然而,人際之間的聊天交流完全不同於人機聊天交流,雖然後者是對前者的模擬,但兩者在性質上具有明確而清晰的差別。或許相比於稱其為「聊天機器人」(chatbot),「語音助手」(voice assistant)或「虛擬助手」(virtual assistant)才是一個更加恰當地描述這種智能工具的術語,它僅僅只是提供語音或文字幫助的工作助手,而非能夠進行深入對談的靈魂伴侶。

然而,現實與夢想的交織衍生出任務導向型和閒聊型這樣兩種基本的聊天機器人類型,它們分別體現了人類語言在信息傳達和社會關係建構方面的基本功能與訴求。從技術訴求目標及其可行性上看,兩者的關係類似於專業人工智慧和通用人工智慧的區別,其中蘊含著語義論與生存論兩種交流觀念的張力。然而,如果我們認為社會交際關係的建構可以僅僅依靠語義信息傳達技術的不斷改進來實現,那就是對交流之本質的極大誤解。正如彼得斯所指出的,由語義信息精準傳播的夢想所主導的人類傳播技術史,恰好也就是人類交流失敗的歷史。

事實上,要讓人機之間進行生存論意義上的日常生活「會話」或「閒聊」是不切實際的。人類能夠進行海闊天空地交談乃是因為他們具有與自然世界息息相通的身體,並通過這一處於生老病死流轉過程中的身體而共同地存在。這種具身化的共同生活,使得他們能夠靈活把握對話情境轉換和整體對話邏輯,並據此確定他們所使用的語言符號的場景化蘊意。形式語言來源於人類言說話語,而言說則起源於人類共同生存實踐中的身體互動與交流。因而,交流問題最終都可以被還原為身體交互問題,聊天機器人的技術極限就在於它沒有身體,因此它們雖然能夠掌握人類抽象的理性和邏輯話語,但卻無法理解和模仿人類通過身體媒介而與其生存環境所形成的交互關係,以及由此而靈活使用語言工具的實踐技能。

不僅如此,運用自然語言處理技術或其他人工智慧技術,將機器變得越來越人性化,這不僅難以讓人們擁有真正能夠閒聊的機器人,而且還會不斷地讓人類捲入到難以預料的倫理風險中。實際上,「新的玩具機器並不怎麼『愚弄我們』,讓我們認為它們是在與我們交流;而機器人專家學會了一些誘使我們愚弄自己的方法。」(特克爾,2011/2014:21)沉溺於與無法產生生存共情體驗的機器人之間的情感和倫理糾葛,無疑就是最糟糕的「愚弄自己的方法」。

技術所帶來的風險通常是由不恰當的技術訴求所導致的,製造出能夠與我們進行自由對話的靈魂伴侶,這一虛幻的目標除讓我們願望落空,還會讓我們陷入如影隨行的倫理糾葛困擾。因此,誠如彼得斯所說,交流的正當目的應該是「建立一個可以共同棲息的和平王國;除此之外,其他意義上的『交流』最終都是不可想像的」(彼得斯,1999/2017:383)。因此,我們對聊天機器人的期待和訴求應該是能夠與人類協作,幫助人們完成具體任務的智能工具,而不是任何意義上的人類聊天替代者。從這個意義上說,相比於純粹閒聊的機器人,作為「工具」和「助手」的任務導向型聊天機器人才是更加具有合理性、現實性及責任感的發展路徑選擇。

本文系簡寫版,參考文獻從略,原文刊載於《國際新聞界》2021年第4期。

封面圖片來自網絡

本期執編 / 彤昕

訂閱信息

全國各地郵局均可訂閱《國際新聞界》,國內郵發代號:82-849,歡迎您訂閱!

您還可訪問《國際新聞界》官方網站 http://cjjc.ruc.edu.cn/ ,免費獲取往期pdf版本。

,
同类文章
葬禮的夢想

葬禮的夢想

夢見葬禮,我得到了這個夢想,五個要素的五個要素,水火只好,主要名字在外面,職業生涯良好,一切都應該對待他人治療誠意,由於小,吉利的冬天夢想,秋天的夢是不吉利的
找到手機是什麼意思?

找到手機是什麼意思?

找到手機是什麼意思?五次選舉的五個要素是兩名士兵的跡象。與他溝通很好。這是非常財富,它擅長運作,職業是仙人的標誌。單身男人有這個夢想,主要生活可以有人幫忙
我不怎麼想?

我不怎麼想?

我做了什麼意味著看到米飯烹飪?我得到了這個夢想,五線的主要土壤,但是Tu Ke水是錢的跡象,職業生涯更加真誠。他真誠地誠實。這是豐富的,這是夏瑞的巨星
夢想你的意思是什麼?

夢想你的意思是什麼?

你是什​​麼意思夢想的夢想?夢想,主要木材的五個要素,水的跡象,主營業務,主營業務,案子應該抓住魅力,不能疏忽,春天夢想的吉利夢想夏天的夢想不幸。詢問學者夢想
拯救夢想

拯救夢想

拯救夢想什麼意思?你夢想著拯救人嗎?拯救人們的夢想有一個現實,也有夢想的主觀想像力,請參閱週宮官方網站拯救人民夢想的詳細解釋。夢想著敵人被拯救出來
2022愛方向和生日是在[質量個性]中

2022愛方向和生日是在[質量個性]中

[救生員]有人說,在出生88天之前,胎兒已經知道哪天的出生,如何有優質的個性,將走在什麼樣的愛情之旅,將與生活生活有什么生活。今天
夢想切割剪裁

夢想切割剪裁

夢想切割剪裁什麼意思?你夢想切你的手是好的嗎?夢想切割手工切割手有一個真正的影響和反應,也有夢想的主觀想像力。請參閱官方網站夢想的細節,以削減手
夢想著親人死了

夢想著親人死了

夢想著親人死了什麼意思?你夢想夢想你的親人死嗎?夢想有一個現實的影響和反應,還有夢想的主觀想像力,請參閱夢想世界夢想死亡的親屬的詳細解釋
夢想搶劫

夢想搶劫

夢想搶劫什麼意思?你夢想搶劫嗎?夢想著搶劫有一個現實的影響和反應,也有夢想的主觀想像力,請參閱週恭吉夢官方網站的詳細解釋。夢想搶劫
夢想缺乏缺乏紊亂

夢想缺乏缺乏紊亂

夢想缺乏缺乏紊亂什麼意思?你夢想缺乏異常藥物嗎?夢想缺乏現實世界的影響和現實,還有夢想的主觀想像,請看官方網站的夢想組織缺乏異常藥物。我覺得有些東西缺失了