【資料圖】
中新網(wǎng)6月1日電據(jù)美國(guó)《紐約時(shí)報(bào)》報(bào)道,5月30日,超過350名人工智能領(lǐng)域的行業(yè)高管、研究人員和工程師簽署了一封公開信,他們?cè)谛胖芯娣Q,AI可能給人類帶來“滅絕風(fēng)險(xiǎn)”。
這封公開信只有一句話的聲明:“減輕人工智能帶來的滅絕風(fēng)險(xiǎn),應(yīng)該成為全球的優(yōu)先事項(xiàng),就像應(yīng)對(duì)其他社會(huì)規(guī)模的風(fēng)險(xiǎn)——如大流行病和核戰(zhàn)爭(zhēng)一樣?!?/p>
該公開信由非營(yíng)利組織人工智能安全中心(Center for AI Safety)發(fā)表,350多名簽署者中包括三家領(lǐng)先人工智能公司的高管:OpenAI首席執(zhí)行官山姆·阿爾特曼,谷歌DeepMind首席執(zhí)行官杰米斯·哈薩比斯,以及Anthropic首席執(zhí)行官達(dá)里奧·阿莫代伊。
《紐約時(shí)報(bào)》稱,最近,大型語言模型,即ChatGPT和其他聊天機(jī)器人使用的人工智能系統(tǒng)所取得的進(jìn)展,引發(fā)了人們的擔(dān)憂。人們擔(dān)心,人工智能有可能很快就會(huì)被大規(guī)模用于傳播錯(cuò)誤信息和宣傳,或者可能消除數(shù)百萬白領(lǐng)的工作。
5月,阿爾特曼、哈薩比斯和阿莫代伊曾與美國(guó)總統(tǒng)拜登和副總統(tǒng)哈里斯碰面,討論人工智能的監(jiān)管問題。在會(huì)后的參議院證詞中,阿爾特曼警告,先進(jìn)人工智能系統(tǒng)的風(fēng)險(xiǎn)已經(jīng)嚴(yán)重到需要政府干預(yù)的程度,同時(shí),他呼吁對(duì)人工智能的潛在危害進(jìn)行監(jiān)管。
此前,阿爾特曼和OpenAI的另外兩名高管提出了幾種負(fù)責(zé)任地管理強(qiáng)大人工智能系統(tǒng)的方法。他們呼吁領(lǐng)先的人工智能制造商進(jìn)行合作,對(duì)大型語言模型進(jìn)行更多技術(shù)研究,并成立一個(gè)類似于國(guó)際原子能機(jī)構(gòu)的國(guó)際人工智能安全組織。
阿爾特曼還表示,支持制定規(guī)則,要求大型尖端人工智能模型的制造者,注冊(cè)政府頒發(fā)的許可證。
“我認(rèn)為如果這項(xiàng)技術(shù)出了問題,它可能會(huì)大錯(cuò)特錯(cuò)?!卑柼芈嬖V參議院小組委員會(huì)?!拔覀兿Mc政府合作,防止這種情況發(fā)生?!?/p>
據(jù)報(bào)道,今年3月,包括埃隆·馬斯克在內(nèi)的1000多名科技領(lǐng)袖、技術(shù)人員和研究人員簽署了另一封公開信,呼吁暫停開發(fā)最大的人工智能模型六個(gè)月,理由是擔(dān)心“開發(fā)和部署更強(qiáng)大數(shù)字思維的競(jìng)賽失控”。