6月16日消息,據(jù)外媒報道,在OpenAI訓(xùn)練的人工智能聊天機器人ChatGPT大火之后,多家公司在開發(fā)類似的產(chǎn)品,也有不少公司將ChatGPT等人工智能工具引入到了他們的服務(wù)或工作中。
ChatGPT等人工智能工具在為相關(guān)的服務(wù)或產(chǎn)品帶來全新功能、為工作帶來便利的同時,泄密也成了他們不得不重視的問題,三星電子半導(dǎo)體業(yè)務(wù)部門的員工在使用ChatGPT時就導(dǎo)致部分源代碼泄漏,三星隨后也禁止員工在工作場所使用ChatGPT等生成式人工智能聊天工具。
而從外媒最新的報道來看,作為ChatGPT競品的谷歌Bard,也有類似的泄密風(fēng)險。
外媒援引消息人士的透露報道稱,谷歌母公司Alphabet已告知員工,不要將機密信息輸入人工智能聊天機器人,并警告員工包括自家Bard在內(nèi)的人工智能工具的風(fēng)險。
除了不要將機密信息輸入人工智能聊天機器人,Alphabet還建議工程師不要直接使用人工智能聊天機器人生成的代碼。
此外,從外媒的報道來看,谷歌方面似乎很早就有信息泄密方面的擔(dān)憂,在今年2月份,也就是Bard人工智能聊天機器人還在內(nèi)部測試時,谷歌就已告知參與測試的員工,在正式發(fā)布之前不要輸入內(nèi)部信息。
作為在ChatGPT大火之后盡全力推出的競品,Bard對谷歌多項業(yè)務(wù)的未來發(fā)展至關(guān)重要,他們目前正在全球超過180個國家以40種語言推廣。
隨著ChatGPT、谷歌Bard等人工智能工具的不斷強大,使用這些工具的人群也在不斷壯大,也有大量的公司員工在工作時使用,這也就增加了公司信息泄露的風(fēng)險。相關(guān)機構(gòu)在1月份對12000人的調(diào)查就顯示,大約43%的專業(yè)人士在使用ChatGPT或其他人工智能工具時,通常不會告知他們的老板。