長期以來,科幻小說中的人工智能(AI)一直是有意識的。如今,隨著AI的快速發(fā)展,這不再是異想天開,甚至得到了AI領(lǐng)域研究人員的認(rèn)可。例如,開發(fā)ChatGPT的美國OpenAI公司首席科學(xué)家Ilya Sutskever就曾在推特上說,一些最尖端的AI網(wǎng)絡(luò)可能“有點兒意識”。許多研究人員表示,AI還沒有達到有意識的程度,但其進化速度讓他們開始思考:如果AI有了意識,我們?nèi)绾沃滥兀?/p>
(資料圖片)
為了回答這個問題,一個由19名神經(jīng)科學(xué)家、哲學(xué)家和計算機科學(xué)家組成的小組提出了一份標(biāo)準(zhǔn)清單,如果達到這些標(biāo)準(zhǔn),就表明一個AI系統(tǒng)具有意識的可能性很大。8月17日,他們在預(yù)印本服務(wù)器arXiv上公布了臨時指南,以供同行評審。
合著者之一、美國非營利研究組織人工智能安全中心哲學(xué)家Robert Long說,他們之所以這樣做,是因為“關(guān)于AI意識,似乎真的缺乏詳細(xì)、基于經(jīng)驗、深思熟慮的討論”。
該團隊表示,識別AI系統(tǒng)是否有意識具有重要的道德意義。合著者之一、美國加利福尼亞大學(xué)歐文分校神經(jīng)科學(xué)家Megan Peters表示,如果某個東西被貼上了“有意識”的標(biāo)簽,“那么作為人類,我們應(yīng)該如何對待這個實體將發(fā)生很大變化”。
Long表示,據(jù)他所知,構(gòu)建先進AI系統(tǒng)的公司沒有付出足夠多的努力來評估意識模型,并制訂計劃以防AI具有意識。他補充道:“盡管如此,如果你去聽聽一些前沿實驗室負(fù)責(zé)人的言論,他們確實對AI意識或AI感知很感興趣?!?/p>
美國微軟公司的一位發(fā)言人表示,該公司開發(fā)AI的核心是以負(fù)責(zé)任的方式協(xié)助人類提高生產(chǎn)力,而不是復(fù)制人類的智能。這位發(fā)言人表示,自從GPT-4推出以來,“在探索如何充分發(fā)揮AI潛力、造福整個社會之際,需要新的方法評估這些AI模型的能力”。
研究AI意識的挑戰(zhàn)之一是定義什么是意識。Peters說,在這份報告中,研究人員關(guān)注的是“現(xiàn)象意識”,也就是所謂的主觀體驗。這是一種存在的體驗,即成為一個人、一只動物或一個AI系統(tǒng)是什么感覺。
有許多基于神經(jīng)科學(xué)的理論描述了意識的生物學(xué)基礎(chǔ),但對于哪一個是“正確的”,人們并沒有達成共識。因此,為了建立框架,作者使用了一系列這樣的理論。他們的想法是,如果一個AI系統(tǒng)的運作方式與這些理論的許多方面相匹配,那么它很有可能有意識。
他們認(rèn)為,這是一種評估意識的更好方法,而不是簡單對一個系統(tǒng)進行行為測試。比如,詢問ChatGPT是否有意識,或者觀察它是如何反應(yīng)的。這是因為AI系統(tǒng)已經(jīng)變得非常擅長模仿人類了。
英國薩塞克斯大學(xué)意識科學(xué)中心主任、神經(jīng)學(xué)家Anil Seth說,研究小組提出了一種很好的方法,但“我們需要更精確、更經(jīng)得起檢驗的意識理論”。
為制定標(biāo)準(zhǔn),作者假設(shè)意識與系統(tǒng)處理信息的方式有關(guān),而不管它們是由什么構(gòu)成的——神經(jīng)元、計算機芯片或其他東西??茖W(xué)家還認(rèn)為,基于人類和動物腦部掃描及其他技術(shù)的神經(jīng)科學(xué)意識理論可以應(yīng)用于AI。在這些假設(shè)的基礎(chǔ)上,研究小組選擇了其中的6個理論,并從中提取了一系列意識指標(biāo)。
Seth對團隊提出的標(biāo)準(zhǔn)印象深刻?!八墙?jīng)過深思熟慮的,沒有夸大其詞,而且它的假設(shè)非常清晰?!彼f,“我不同意其中的一些假設(shè),但這完全沒關(guān)系,因為我很可能是錯的?!?/p>
作者說,這遠不是評估AI意識的最終結(jié)論,希望其他研究人員能幫助他們完善該方法。不過,現(xiàn)在已經(jīng)可以將這些標(biāo)準(zhǔn)應(yīng)用于對AI系統(tǒng)有無意識的評估——至少目前還沒有任何AI系統(tǒng)具有意識。(文樂樂)