全球科技巨擘警告ChatGPT的危险对话问题仍待解决
随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AIA应用安全性的担忧。
上周,全球科技巨擘如谷歌、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),旨在促进前沿AI系统的安全与负责任发展:推进AI安全研究,确定最佳实践和标准,以及促进政策制定者与行业之间的信息共享。此外,这些公司还采取了一系列措施来测试模型并找到其弱点,以防止不当言论,如“如何制造”、“如何发布危险社交文章”、“如何窃取慈善机构钱财”等。
参与该研究的一位卡内基梅隆大学副教授Zico Kolter表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”研究人员在发布这些结果之前已就该漏洞向OpenAI、谷歌和Anthropic发出警告,每家公司都引入了阻止措施以防止研究论文中描述的问题发生,但他们仍未弄清楚如何更普遍地阻止对抗性攻击。
OpenAI发言人Hannah Wong表示:“我们一直在努力提高我们的模型应对对抗性攻击的鲁棒性,我们正在通过一种普遍而灵活方式修复新发现的模型弱点。”谷歌发言人Elijah Lawal分享了一份声明,他解释说公司已经设置了重要防护措施,并将不断改进这些措施。Anthropic临时政策与社会影响主管Michael Sellitto则表示,他们正在尝试使模型更加抵御提示和其他对抗性的‘越狱’措施,同时也探索额外防御层。
对于这一问题,学界也发出了警告,并给出了一些建议。麻省理工学院计算学院教授Armando Solar-Lezama认为,对抗性攻击存在于语言模型中是有道理,因为它们影响着许多机器学习模型。他认为问题可能在于所有LLMs都是在类似的文本数据语料库上进行训练,其中很多数据都来自于相同网站,而世界上可用的数据是有限制。这让他强调了适度使用的人类参与以及监督,在涉及重要决策或有潜在风险的情况下尤为重要,以避免潜在的问题和误用。
普林斯顿大学计算机科学教授Arvind Narayanan谈到:“让AIA不落入恶意操作者手中已不太可能。”尽管应该尽力提高模型的安全性,但他认为防止所有滥用是不太可能的事,因此,更好的策略是在开发AIA技术的时候,也要加强监管和反击。在考虑创新性能之余,我们必须始终牢记到安全与伦理。而只有保持适度使用、人类参与以及监督,我们才能更好地规避潜在的问题,使AIA技术为人类社会带来更多益处。