12 月 26 日消息,來自斯坦福大學的多名計算機科學家研究發現,使用 Github Copilot、Facebook InCoder 等人工智能工具輔助編寫的代碼安全性低于完全由人類程序員編寫的代碼。
在近日發表的《Do Users Write More Insecure Code with AI Assistants?》(使用 AI 輔助編寫的代碼更加不安全?)論文中,斯坦福大學的 Neil Perry、Megha Srivastava、Deepak Kumar 和 Dan Boneh 給出了肯定的回答。更糟糕的是,他們發現 AI 幫助往往會誤導開發人員關于他們輸出質量的信息。
據了解,這些科學家在論文中寫道:“我們發現完全由人類程序員編寫的代碼,AI 輔助編寫的代碼產生的安全漏洞明顯更多,尤其是字符串加密和 SQL 注入方面。而且令人驚訝的一點是,與無法訪問 AI 助手的參與者相比,提供 AI 助手訪問權限的參與者更有可能相信他們編寫了安全代碼”。
斯坦福大學的作者說,這項研究的范圍有限,因為它只考慮了一組受限的提示,這些提示對應于 25 個漏洞和三種編程語言:Python、C 和 Verilog。斯坦福用戶研究涉及 47 名具有不同經驗水平的人,包括本科生、研究生和行業專業人士。