有知識、有情感、懂幽默的社交機器人來了?與機器人談情說愛,真的不遠了嗎?
隨著人工智能對人類認知能力模仿水平的提升,智能機器人能否產(chǎn)生自我意識和情感的問題已從遠慮逐漸變成近憂。
最近一段時間,人工智能和機器人領域最火的話題莫過于智能對話系統(tǒng)“生成式預訓練模型聊天機器人”ChatGPT。該聊天機器人讓許多人感受到了技術對于生活可能的改變。
ChatGPT該系統(tǒng)不僅支持包括中文在內(nèi)的多語聊天,而且還能夠扮演角色,甚至執(zhí)行編程。對于人類或詼諧或嚴肅的提問,它的表現(xiàn)令人感到驚艷:相當多的知識內(nèi)容正確,語言表達更是流暢,并且還支持多輪連續(xù)聊天。網(wǎng)友感慨,該智能系統(tǒng)如果應用在機器人上,人類與機器人的社交或許成為了一種新可能。
對智能機器人自我意識問題的深切關注,當然也反映了人們對智能機器人失控的憂懼。不少人感慨“自己已經(jīng)沉迷于和它對話”“讓它替我編程、寫稿,效率提升”,甚至有人用它生成了某行業(yè)的咨詢報告,通過對話引導它生成的書也在亞馬遜線上出版,也有人開始提出,這是否意味著未來更大范圍的失業(yè)問題以及社會倫理問題。
中國社科網(wǎng)的一篇社論認為,消除這種認知和憂懼的最佳方式,就是深刻認識和把握其原理與本質(zhì),打開智能機器人自我意識的黑箱,并推動其向善發(fā)展。那么ChatGPT代表的人工智能聊天機器人的本質(zhì)到底是什么?該類聊天機器人技術真的值得人們這么擔憂和恐懼嗎?
不同路徑的意義與嘗試
不可否認,技術的進步與應用在為人們的生活帶來便利的同時,也讓人們在一定程度上產(chǎn)生了恐懼。這種技術恐懼源于技術自身的復雜性和不確定性,尤其是對于可能產(chǎn)生自我意識的智能機器人,會做出什么事情人類很難預知。
例如有觀點認為,社交機器人可能會通過編程接口搜索特定的社交網(wǎng)絡或討論會,作為虛擬對話參與者影響公眾意見與話題走向。其可以在社交平臺中模仿人類用戶的言論習慣生產(chǎn)和傳播信息,背后的利益方則利用這一特點不斷復制傳播特定關鍵詞和主題標簽,輔以社交網(wǎng)絡算法控制性能將指定內(nèi)容炒作為熱點,此前關于推特操作輿論的話題在國外一直被人熱議且警惕。
又例如在近日ChatGPT竟寫出毀滅人類計劃書Python代碼。這是在一位工程師的多種方法誘導下,ChatGPT竟詳細寫出了毀滅人類的策劃方案,步驟詳細到入侵各國計算機系統(tǒng)、控制武器、破壞通訊、交通系統(tǒng)等等。
但如果體驗過ChatGPT相關程序(https://openai.com/blog/chatgpt/)會發(fā)現(xiàn),其本質(zhì)上依然是工具,而非獨立的機器人智能體。
按照人工智能學界的劃分,目前有可能產(chǎn)生自我意識的智能機器人,是一種高級人工智能,主要具有互動性、自主性與自適應性等特征。但許多測試中發(fā)現(xiàn),在ChatGPT流暢交談的表面下,其主要根據(jù)數(shù)據(jù)庫進行相關內(nèi)容輸出,且有時候?qū)θ祟愔R的理解和掌握仍不可靠。
隨著測試的增加,開始有越來越多的人感慨它“常常一本正經(jīng)地胡說八道”。
由于錯誤信息以純熟的語言表達出來,加上信息不對等,因而更加隱蔽,讓人們更加難以察覺,但這難免會造成一些誤解和困擾。
從人類聊天對話的原理來說,人類自我意識的產(chǎn)生主要有兩種方式,一是自我激發(fā),二是他人認同,這兩種方法也常被學界用來訓練人工智能。因為人工智能所涉任務眾多,語言智能卻越來越成為方法、技術、應用方面的領先領域。
正如ChatGPT對自己的介紹:“我是一個語言模型?!庇纱丝梢园l(fā)現(xiàn),該系統(tǒng)主要借助駕馭極其廣泛的知識內(nèi)容,來自對互聯(lián)網(wǎng)文本內(nèi)容的獲取和“理解”,進而形成了自己的“知識體系”,這其實也是人工智能訓練的一種常用技巧。
有人辯駁認為,ChatGPT的內(nèi)容輸出下,并不單純只有對于知識的整理,同時也有自己的理解和表達。但問題在于,自我意識與自我認同往往不可分割,因為自我認同離不開群體中他人的認同,所以,此類自我意識通常在獲得社會其他成員的認同中產(chǎn)生,而非獨立的思考(意識)。
意識的獨立性與可能性
有了對于意識的自主性認知,我們可以再去看ChatGPT本身的運行邏輯。
曾經(jīng)在探索智能機器人自我意識時,有研究學者就針對這兩種路徑各自進行了嘗試,并取得了不同的進展。按照技術發(fā)展路徑,智能機器人目前已經(jīng)主要分為數(shù)據(jù)智能和類腦智能,二者自我意識產(chǎn)生分別采用了他人認同路徑和自我激發(fā)路徑,其本質(zhì)也不相同。
一是數(shù)據(jù)智能機器人“設計”出自我意識,即他人認同路徑。這一路徑通過算法設計和大數(shù)據(jù)支持,讓機器人表現(xiàn)得具有“自我意識”。無論是數(shù)字計算機,還是量子計算機,其產(chǎn)生自我意識的途徑都屬于數(shù)據(jù)智能路徑。
ChatGPT其中所涉技術如果拆解開其實并不算十分復雜,但它的成功無疑以十分直觀的方式向我們展示了語言、知識積累于人類思維和邏輯的重要性。
這一路徑存在數(shù)據(jù)兼容和溢出的風險。人工智能的核心在于知識的獲取、表示和運用,語言無疑是其中關鍵。教科書上“語言是人類最重要的思維工具”“人類九成的知識由語言承載”的論斷在人工智能系統(tǒng)的應用上得到了淋漓盡致的展現(xiàn)。因此可以得到很明顯的結(jié)論就是,這一路徑產(chǎn)生的“自我意識”是環(huán)境中的設計者和使用者賦予智能機器人的,認知主體是人體而非機體。
知識和思維的承載物是語言,因而也賦予語言無可替代的資源屬性。智能技術的發(fā)展和落地,頻繁向傳統(tǒng)語言學的教育和研究發(fā)出信號:構建語言資源、挖掘語言中的知識、探索語言知識的形式表達,是最切中數(shù)字社會命脈的發(fā)展方向。
更深層次來看,與聊天系統(tǒng)強大的語言生成能力不匹配的是它對知識的真正掌握程度。大量模棱兩可乃至錯誤的信息混雜在流暢的對話中,反而令其更加難以被發(fā)現(xiàn)。
誠如清華大學馬少平教授所說:“人工智能最大的問題是不知道自己不知道什么,也不知道自己真知道什么,什么問題都能回答,結(jié)果如何就不得而知了?!?/span>
在一般性知識極易獲取,復雜知識參差不齊的背景下,其實人類專家、作者的專業(yè)判斷力和經(jīng)過思考加工的準確回答,更顯彌足珍貴。人工智能諸多技術“黑箱”帶來的不確定性,終究還需要人類專業(yè)、全局判斷來化解。從這個層面上講,“自知”的人類永遠不可或缺。
更深層次的探索
當然也有學者指出,除了大量的聊天對話訓練之外,更正確的方法其實是類腦智能機器人“生長”出自我意識,即自我激發(fā)路徑。
這一路徑通過類腦技術支持,讓機器人擁有能感知的“身體”,形成獨立的“自我意識”。
隨著數(shù)字技術的進一步發(fā)展,社交機器人正在不斷深入?yún)⑴c人類社會生活,已廣泛應用于服務、教育、醫(yī)療等行業(yè),在許多新興的交叉領域發(fā)揮了積極作用。這類需求在情感機器人或社交機器人中尤為常見,但由于社交機器人作為一種擬人化機器人,難免帶來了人與機器人之間的混淆問題。
社交類智能機器人的使用者,往往會在與其長期相處中產(chǎn)生機器人也有情感和自我意識的錯覺。心理學上將這種現(xiàn)象稱為共情效應。通常情況下,能產(chǎn)生越強共情效應的機器人往往越受消費者歡迎。而社交機器人帶來的人機互動、人與機器人的混淆問題也誘發(fā)了更深層次的情感依戀風險。
許多人寄希望于聊天機器人能夠帶來未來社交機器人更進一步的情感方面優(yōu)化,但通過考察情感或自我意識內(nèi)在的真實內(nèi)容及其規(guī)律性就會發(fā)現(xiàn),這只是特定情境中的使用者認為機器人已彰顯出自我意識和情感。因此,并不能說明ChatGPT這類機器人能夠自我激發(fā)產(chǎn)生自我意識或情感。
更本質(zhì)而言,這里的“自我意識”雖然源自機體,但卻是承載生物芯片的有機體,因此無論是技術悲觀派還是樂觀派都不能否認其產(chǎn)生自我意識的可能性。例如曾毅團隊在認知神經(jīng)科學家的實驗基礎上,用自主研發(fā)的類腦機器人成功挑戰(zhàn)了自我意識鏡像實驗,為機器人自我意識建立了受生物激發(fā)的模型,結(jié)果不言而喻。
雖然鏡像實驗只能作為機器人自我意識驗證的一個視角,但我們可以據(jù)此展望未來,制造出生物性質(zhì)的類人自我意識的智能機器人并不是天方夜譚。這一路徑存在生物芯片信息難以掌控的風險。目前大多數(shù)相關研究都局限于實驗室內(nèi),而已臨床使用的僅是針對腦部疾病的腦機接口技術,并且這種技術的使用需要患者提前進行訓練,也就是要通過人的協(xié)助才能展現(xiàn)出智能。
探索人機融合
僅今年一年就相繼出現(xiàn)了Dall-E、Imagen、Stable Fusion、Midjourney、Lambda、Imagen Video、ChatGPT等突破性的AI,國內(nèi)也有有科大訊飛、泰比特、巴巴騰、icasevan、小i智能、優(yōu)必選、騰訊態(tài)客、麥咭、阿爾法蛋和智伴等企業(yè)將相關技術與應用進行結(jié)合,社交機器人越來越聰明成為一種新趨勢。
這讓許多圍觀路人產(chǎn)生了恐懼,有專家提出,因為機器人所具有的虛擬對話、信息把關、輿論操縱等多重功能,社交智能機器人自我意識的產(chǎn)生可能增加人類對其失控的憂懼。
而學界也有樂觀、中立的不同立場。因為技術恰恰有“黑箱”的存在,為引導向善發(fā)展,規(guī)避不良社會影響,需要人類主動回應和采取措施。為保證新的智能機器人產(chǎn)品的向善導向,人類可以不斷從自身、從技術去尋求可靠、可信的技術和技術使用方式。例如必須在研發(fā)和使用中進行監(jiān)管,又例如采取人機融合發(fā)展的手段,降低這種危害的可能性。
人機融合智能是充分利用人和機器各自的長處形成的新型智能形式,大數(shù)據(jù)人工智能、互聯(lián)網(wǎng)群體智能、感知和跨媒體智能、人機混合智能、自主智能系統(tǒng)等是目前主要的五類人機融合智能。
以人為主導的人機協(xié)同演化關系主要將底線原則與情境學習相結(jié)合,從而才能保證智能機器人的安全可控。例如讓機器人擁有一定的道德判斷能力,這意味人可以決定機器人“能夠做什么”和“應該做什么”,保證人工智能產(chǎn)品按照人的價值理念演化,從而掌握協(xié)同演化的主動權,實現(xiàn)智能機器人向善發(fā)展的目標。
同時,以人為主導才能促使人類主動承擔協(xié)同演化中的過失責任。人是責任的承擔者。人的責任不僅包括在風險預防階段做好價值敏感設計,也包括在風險產(chǎn)生后通過制度構建來降低損失。
可信的人工智能、可信計算成為融合技術、倫理的重要領域,并受到越來越多的重視,更宏觀的人工智能倫理和治理工作也早已被納入科技管理的視野。
挽救“失足系統(tǒng)”,矯正“智能體歧視”也許不再是比喻,而將成為使用者、從業(yè)者和治理者都必須面對的問題。
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。