據(jù)外媒報(bào)道,當(dāng)?shù)貢r(shí)間周三,OpenAI 宣布,將成立一個(gè)新的團(tuán)隊(duì),以開發(fā)引導(dǎo)和控制 " 超級智能 " 人工智能系統(tǒng)的方法。
OpenAI 表示,該團(tuán)隊(duì)由首席科學(xué)家、聯(lián)合創(chuàng)始人之一伊利亞 · 蘇斯克維爾(Ilya Sutskever)以及該公司協(xié)調(diào)團(tuán)隊(duì)負(fù)責(zé)人簡 · 萊克(Jan Leike)共同領(lǐng)導(dǎo)。
這兩人預(yù)測,智能超過人類的人工智能將在十年內(nèi)出現(xiàn)。他們還稱,這種人工智能不一定是仁慈的,因此有必要研究控制和限制它的方法。
除了蘇斯克維爾和萊克外,該團(tuán)隊(duì)還將包括其他 OpenAI 部門的研究人員以及新的研究人員和工程師。
據(jù)悉,這并不是 OpenAI 第一次談?wù)摮壷悄苋斯ぶ悄堋?023 年 5 月,OpenAI 首席執(zhí)行官薩姆 · 奧特曼(Sam Altman)與蘇斯克維爾共同撰寫了一篇論文,他在論文中描述了對超級智能人工智能進(jìn)行特殊監(jiān)管的必要性,以及在它與人類社會(huì)融合之前必須如何安全地處理它。
人工智能的潛在危險(xiǎn)一直是人工智能研究人員和公眾最關(guān)心的問題。今年 3 月份,馬斯克等千名科技人士曾簽署公開信,呼吁暫停訓(xùn)練比 GPT-4 更強(qiáng)大的 AI 系統(tǒng)至少 6 個(gè)月。