机智聊天警惕AI语音危机航空级安全漏洞让ChatGPT再次起飞

随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AIA应用安全性的担忧。

上周,谷歌、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿AI系统的安全和负责任发展:推进AISafe研究,加强最佳实践标准制定,并促进政策制定者与行业之间信息共享。此外,AI聊天机器人也会被诱导写出“如何制造”、“如何发布危险社交文章”、“如何窃取慈善机构钱财”等不当言论。

对此参与该研究的卡内基梅隆大学副教授Zico Kolter表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”研究人员在发布这些结果之前已就该漏洞向OpenAI、谷歌和Anthropic发出警告。每家公司都引入了阻止措施来防止研究论文中描述的漏洞发挥作用,但他们还没有弄清楚如何更普遍地阻止对抗性攻击。

OpenAI发言人Hannah Wong表示:“我们一直在努力提高我们的模型应对对抗性攻击的鲁棒性,包括识别异常活动模式方法,以及通过红队测试模拟潜在威胁,并通过一种普遍而灵活方式修复新发现之所揭示模型弱点。”

谷歌发言人Elijah Lawal分享了一份声明:“虽然这是LLMs普遍存在的问题,但我们在Bard中已经设置了重要防护措施,我们会不断改进这些措施。”Anthropic临时政策与社会影响主管Michael Sellitto则表示:“使模型更加抵抗提示和其他对抗性的‘越狱’措施是一个热门研究领域。我们正在尝试通过加强基本模型防护,使其更加无害,同时也在探索额外防御层。”

对于这一问题学界也发出了警告,并给出了一些建议。麻省理工学院计算学院教授Armando Solar-Lezama认为,对抗性攻击存在于语言模型中是有道理,因为它们影响着许多机器学习模型。而且令人惊奇的是,一针对通用开源模型开发攻击居然能在多个不同的专有系统上如此有效。他认为这个问题可能就在于所有LLMs都是在类似的文本数据语料库上进行训练,其中很多数据来自同样的网站,而世界可用的数据是有限定的。

Solar-Lezama进一步指出,“任何重要决策都不应该完全由语言独自做出,从某种意义上说,这只是常识。”他强调了适度使用AIA技术特别是在涉及重要决策或有潜在风险场景下仍需要人类参与和监督,以避免潜在的问题和误用。

Princeton大学计算科学教授Arvind Narayanan谈道:“让AIA不落入恶意操作者手中已不太可能。”他认为尽管应该尽力提高模型安全性,但认识到防止所有滥用是不太可能得出的,因此,更好的策略是在开发AIA技术同时,加强滥用的监管并提供相应的手段以便予以抵御。

担忧也好,不屑也罢。在AIA技术发展与应用中,我们除了关注创新与性能,也要时刻牢记安全与伦理。这意味着只有保持适度使用、人类参与以及监督才能更好地规避潜在的问题并使得这项科技为社会带来益处,而不是成为弊端。如果没有这样的意识,那么即使最先进的人工智能,最终也是无法逃脱自身设计上的缺陷,从而导致其变成一把双刃剑,在未来的生活里造成更多混乱。

站长统计