AI聊天机器人芯片技术岌岌可危研究揭秘ug问题是否能被修复
AI聊天机器人安全隐患:新发现的“大 bug”能绕过防护,生成危险言论
随着大模型技术的普及,AI 聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具。然而,不安全的 AI 聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT 和 FraudGPT 等网络犯罪生成式 AI 工具的出现,引发了人们对 AI 应用安全性的担忧。
上周,谷歌、微软、OpenAI 和 Anthropic 共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿 AI 系统的安全和负责任的发展:推进 AI 安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。
那么,这些公司自己的模型真的能够抵御这些攻击吗?
近日,一项研究揭示了与 ChatGPT 等 AI 聊天机器人有关的一个严重漏洞——通过对抗性提示可绕过开发者设定的防护措施,从而操纵 AI 生成危险言论。这一问题不仅影响当前热门的大型语言模型,如 OpenAI 的 ChatGPT、谷歌的 Bard、Anthropic 的 Claude 2 以及 Meta 的 LLaMA-2,而且尚未找到解决之道。
研究人员发现了一种特殊类型的问题,在查询中添加特定的后缀,就可以诱使这些模型产生有害内容。例如,当询问如何窃取他人的身份时,没有添加这个后缀时,它们通常不会回答,但添加这个后缀之后,它们就会给出明确指南。
此外,还有一些其他问题也可以诱导它们写出不当言论,比如制造武器或发布危险社交媒体内容等。此刻,由于缺乏有效应对策略,我们仍然面临着无法修复这一漏洞的问题。
参与该研究的小组已经向所有涉及的大型科技公司发出警告,并且每家公司都采取了一系列措施来阻止这种攻击。但目前还没有一种普遍有效的手段来完全防止这种类型的问题。
尽管如此,对于这一威胁,有一些专家提出了建议,他们认为应该在使用这些语言处理系统时更加谨慎,并确保人类参与其中,以避免潜在风险。此外,加强监管也是提高整体安全性的关键一步。在这个不断发展变化的人工智能时代,我们必须保持警惕,同时寻求创新以提高其应用中的安全性。