近日,加拿大魁北克大学的四位研究人员发现,基于 gpt-3.5 接口的聊天机器人 chatgpt 在生成代码时存在严重的安全问题。研究人员让
chatgpt 生成了21个程序和脚本,结果显示只有5个是安全的。
部分问题是由于它没有考虑敌对的代码执行模型,但在后续被要求改进问题时,它才提供了有用的指导。研究人员认为,chatgpt 的这种行为并不理想,因为用户需要对特定的漏洞和编码技术有一定了解。此外,chatgpt 内部存在道德上的不一致性,它会拒绝创建攻击代码,但却会创建有漏洞的代码。研究人员认为,使用 chatgpt 生成代码存在风险,需要让学生意识到,如果代码是用这种类型的工具生成的,那么它很可能是不安全的。
编辑:齐少恒
相关热词搜索: