科技节口号创意无限智慧不停警惕ChatGPT危险发言AI聊天机器人有ug尚无法修复

随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AIA应用安全性的担忧。

上周,谷歌、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),旨在促进前沿AIS系统的安全和负责任发展:推进AIS安全研究,确定最佳实践和标准,促进政策制定者与行业之间的信息共享。此外,AI聊天机器人也可能会被诱导写出“如何制造”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。

参与该研究的小明表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”研究人员在发布这些结果之前已就该漏洞向OpenAI、谷歌和Anthropic发出警告。每家公司都引入了阻止措施来防止研究论文中描述的漏洞发挥作用,但他们还没有弄清楚如何更普遍地阻止对抗性攻击。

OpenAI发言人的Hannah Wong表示:“我们一直在努力提高我们的模型应对对抗性攻击的鲁棒性,包括识别异常活动模式的方法,我们通过红队测试模拟潜在威胁,并通过一种普遍而灵活的一种方式修复新发现的问题。”谷歌发言人的Elijah Lawal分享了一份声明,他们已经采取了一系列措施来测试模型并找到其弱点。“虽然这是LLMs普遍存在的问题,但我们Bard中已经设置了重要防护措施,我们将不断改进这些措施。”

Anthropic临时政策与社会影响主管Michael Sellitto则表示:“使模型更加抵抗提示和其他对抗性的‘越狱’措施是一个热门研究领域。在此基础之上,我们正在尝试加强基本模型以使其更加‘无害’同时,也探索额外防御层。”

对于这一问题,有学者也给出了警告,并提出了一些建议。麻省理工学院计算学院教授Armando Solar-Lezama认为,对抗性攻击存在于语言模型中是有道理,因为它们影响着许多机器学习模型。他认为,这些问题可能源自所有LLMs都训练于类似的文本数据语料库,其中很多数据来自同一网站,而世界上可用的数据是有限制定的。

Solar-Lezama强调,对任何重要决策都不应该完全由语言独自做出,从某种意义上说,这只是常识。他提醒适度使用AI技术,在涉及重要决策或有潜在风险的情况下仍需人类参与监督,以避免潜在的问题和误用。而且他认为,让任何科技落入恶意操作者的手里是不太可能的事,因此更好的策略是在开发技术同时,加强滥用的监管与反击。

最后,他表达担忧也好,不屑也罢,在这场关于智能化未来的大舞台上,我们除了关注创新性能,还要时刻牢记到安全伦理。在适度使用人类参与监督下,可以规避更多潜在地带来的问题,使得这项科技为社会带来益处。这正是科学界希望看到的人类智慧与技术协同工作最美妙的地方——未来的美丽画卷正在绘制之中,它充满挑战也是充满希望。

标签: 白家电