研究发现使用Github Copilot等AI工具辅助编写的代码漏洞会更多

2022-12-31 0 1,057

IT爱家 12 月 26 日最新消息,源自麻省理工学院的数名计算机系统生物学家科学研究辨认出,采用 Github Copilot、Facebook InCoder 等人工智慧辅助工具远距撰写的标识符安全可靠性高于全然由人类文明开发者撰写的标识符。

研究发现使用Github Copilot等AI工具辅助编写的代码漏洞会更多

在日前刊登的《Do Users Write More Insecure Code with AI Assistants?》(采用 AI 远距撰写的标识符更为不安全可靠?)学术论文中,麻省理工学院的 Neil Perry、Megha Srivastava、Deepak Kumar 和 Dan Boneh 得出了的确的提问。更差劲的是,她们辨认出 AI 协助常常会欺骗开发者有关她们输入产品质量的重要信息。

IT爱家了解到,那些生物学家在学术论文中写到:“他们辨认出全然由人类文明开发者撰写的标识符,AI 远距撰写的标识符造成的安全可靠恶意软件显著更多,特别是数组身份验证和 SQL 转化成各方面。所以更让人吃惊的一点儿是,与封禁 AI 副手的参加者较之,提供更多 AI 副手出访职权的参加者更有可能坚信她们撰写了安全可靠标识符”。

麻省理工学院的译者说,此项科学研究的覆盖范围非常有限,即使它只考量了几组受到限制的提示重要信息,那些提示重要信息相关联于 25 个恶意软件和四种C语言:Python、C 和 Verilog。史丹福使用者科学研究牵涉 47 名具备相同实战经验水准的人,主要包括博士生、科学博士生和金融行业从业者。

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务