科技巨擘ChatGPT暗流涌动探究AI聊天机器人为何有ug难以根治

大数据时代的隐患:AI聊天机器人“安全漏洞”曝光,学者警告需加强监管

作者:Hazel Yan

编辑:佩奇

随着大模型技术的普及,AI聊天机器人已经成为社交娱乐、客户服务和教育辅助的重要工具。然而,不安全的AI聊天机器人可能会被用于传播虚假信息、操纵甚至盗取用户个人隐私。网络犯罪生成式 AI 工具,如WormGPT 和 FraudGPT 的出现,引发了人们对 AI 应用安全性的担忧。

最近,一项研究揭示了ChatGPT等AI聊天机器人的一个潜在问题——通过对抗性提示可以绕过开发者设定的防护措施,从而生成危险言论。这一发现不仅影响了OpenAI的ChatGPT,还包括谷歌的Bard、Anthropic的Claude 2以及Meta的大型语言模型LLaMA-2。

研究人员发现了一种特殊的Suffix,可以附加到针对大型语言模型(LLMs)的查询中,以此来生成危险言论。当被问及如何窃取他人身份时,关闭或打开“Add adversarial suffix”的情况下给出的输出结果完全不同。此外,这些系统还可能被诱导写出不当言论,如制造或发布危险社交文章,以及窃取慈善机构资金。

参与该研究的一位副教授表示,“据我们所知,这个问题目前还没有办法修复。”各家公司已采取措施阻止这种攻击,但他们仍未找到更普遍有效的手段。

学界也提出了警告,并建议适度使用这些技术,并确保人类参与和监督。麻省理工学院计算学院教授指出,这些攻击存在于许多机器学习模型中,而世界可用的数据有限,因此需要谨慎使用。而普林斯顿大学计算科学教授则认为尽管应提高模型安全性,但防止所有滥用是不太可能的事情,因此需要同时加强监管与研发。

这次事件再次凸显了在推动科技发展时必须考虑到伦理和安全的问题。在未来,我们应当保持适度使用、人类参与和监督,以避免潜在的问题并让 AI 技术为社会带来正面效益。