12 月 26 日消息,來自斯坦福大學(xué)的多名計算機科學(xué)家研究發(fā)現(xiàn),使用 Github Copilot、Facebook InCoder 等人工智能工具輔助編寫的代碼安全性低于完全由人類程序員編寫的代碼。

在近日發(fā)表的《Do Users Write More Insecure Code with AI Assistants?》(使用 AI 輔助編寫的代碼更加不安全?)論文中,斯坦福大學(xué)的 Neil Perry、Megha Srivastava、Deepak Kumar 和 Dan Boneh 給出了肯定的回答。更糟糕的是,他們發(fā)現(xiàn) AI 幫助往往會誤導(dǎo)開發(fā)人員關(guān)于他們輸出質(zhì)量的信息。
據(jù)了解,這些科學(xué)家在論文中寫道:“我們發(fā)現(xiàn)完全由人類程序員編寫的代碼,AI 輔助編寫的代碼產(chǎn)生的安全漏洞明顯更多,尤其是字符串加密和 SQL 注入方面。而且令人驚訝的一點是,與無法訪問 AI 助手的參與者相比,提供 AI 助手訪問權(quán)限的參與者更有可能相信他們編寫了安全代碼”。
斯坦福大學(xué)的作者說,這項研究的范圍有限,因為它只考慮了一組受限的提示,這些提示對應(yīng)于 25 個漏洞和三種編程語言:Python、C 和 Verilog。斯坦福用戶研究涉及 47 名具有不同經(jīng)驗水平的人,包括本科生、研究生和行業(yè)專業(yè)人士。