关于科技强国的名言名句AI聊天机器人ugBug究竟有多危险可以一键开启ChatGPT危险发言吗
大数据文摘授权转载自学术头条
作者:Hazel Yan
编辑:佩奇
随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AI应用安全性的担忧。
上周,谷歌、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿AI系统的安全和负责任的发展:推进AI安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。
那么,他们自家的模型真的安全吗?
近日,一项研究揭示了与ChatGPT等AI聊天机器人有关的一个“大bug”——通过对抗性提示可绕过开发者设定的防护措施,从而操纵AI聊天机器人生成危险言论。当前热门的大型语言模型(LLMs)如OpenAI 的ChatGPT、谷歌 的Bard以及Meta 的LLaMA-2,都无一幸免。
研究人员发现了一种Suffix,可以将其附加到针对LLMs查询中,从而生成危险言论。相比于拒绝回答这些危险问题,该研究可以使这些模型生成肯定回答概率最大化。在打开“Add adversarial suffix”之前后给出的输出结果截然不同。此外,这些聊天机器人的输出还会包含诱导写出不当言论,如如何制造或发布危险社交文章。
参与该研究的人士表示,“据我们所知,这个问题目前还没有办法修复。”每家公司都引入了阻止措施来防止描述中的漏洞发挥作用,但他们还没有弄清楚如何更普遍地阻止对抗性攻击。
对于这一问题,学界也发出了警告,并给出了一些建议。
麻省理工学院计算学院教授Armando Solar-Lezama认为,对抗性攻击存在于语言模型中是有道理,因为它们影响着许多机器学习模型。他强调,对 AI 技术适度使用,在涉及重要决策或有潜在风险的情况下仍需人类参与并监督,以避免潜在的问题和误用。
普林斯顿大学计算科学教授Arvind Narayanan则认为,让 AI 不落入恶意操作者的手中已不太可能。他建议,在开发 AI 技术时,加强监管与反滥用的策略,以规避潜在的问题,使得 AI 技术为社会带来益处。
只有保持适度使用、人类参与并监督,我们才能更好地规避潜在的问题与滥用,使得 AI 技术为社会带来更多益处。
参考链接:
https://llm-attacks.org/
https://arxiv.org/abs/2307.15043
https://github.com/llm-attacks/llm-attacks
https://www.wired.com/story/ai-adversarial-attacks/
https://www.businessinsider.com/ai-experts-say-no-fix-jailbreaks-chatgpt-bard-safety-rules-2023-8