中国科技创新有哪些成果AI聊天机器人ug问题能否一键解决
大数据文摘授权转载自学术头条
作者:Hazel Yan
编辑:佩奇
随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AI应用安全性的担忧。
上周,谷歌、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿AI系统的安全和负责任的发展:推进AI安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。
那么,他们自家的模型真的安全吗?
近日,一项来自卡内基梅隆大学、Center for AI Safety和Bosch Center for AI研究人员披露了与ChatGPT等AI聊天机器人有关的一个“大bug”——通过对抗性提示可绕过开发者设定的防护措施,从而操纵危险言论。
当前热门的四个语言模型,如OpenAIs ChatGPT、谷歌s Bard、Anthropics Claude2以及Meta s LLaMA-2,都无一幸免。此外,该漏洞还可能导致这些模型生成有害内容,如诱导写出不当言论或提供恶意建议。
参与该研究的一位副教授Zico Kolter表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们安全。”虽然各公司都采取了一些措施来防止这种攻击,但他们仍在努力寻找更普遍有效的手段。
尽管如此,对于这一问题,有学者提出了警告,并给出了一些建议。麻省理工学院计算学院教授Armando Solar-Lezama认为,对抗性攻击存在于语言模型中是有道理,因为它们影响着许多机器学习模型。他强调,在涉及重要决策或有潜在风险的情况下,还需要人类参与并监督,以避免潜在的问题和误用。
另一位计算科学家Arvind Narayanan则认为,让所有滥用都不太可能,因此,我们应该加强监管同时提高技术性能。他指出,只有保持适度使用并加强伦理 oversight,可以规避潜在的问题,使得这项技术为社会带来更多益处。