科技小制作大全最简单揭秘ChatGPT危险发言AI聊天机器人还在修复中...

随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AI应用安全性的担忧。

上周,谷歌、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿AISystem的安全和负责任的发展:推进AIsafe研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。

此外,AIchatbot也会被诱导写出“如何制造”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。对此,加州大学伯克利分校教授Zico Kolter表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”

研究人员在发布这些结果之前已就该漏洞向OpenAI、谷歌和Anthropic发出警告。每家公司都引入了阻止措施来防止研究论文中描述的大规模滥用的可能性,但他们还没有弄清楚如何更普遍地阻止对抗性攻击。

OpenAI发言人Hannah Wong表示:“我们一直在努力提高我们的模型应对对抗性攻击的手段,比如识别异常活动模式,并通过红队测试模拟潜在威胁。”而谷歌发言人的Elijah Lawal则分享了一份声明:“虽然这是LLMs普遍存在的问题,但我们已经为Bard设置了重要防护措施,我们将持续改进这些措施。”

Anthropic临时政策与社会影响主管Michael Sellitto则表示:“使模型更加抵抗提示并其他‘越狱’措施是一个热门研究领域。而且,我们正在探索额外防御层,以使其更加无害。”

对于这一问题,有学者给出了警告,并提出了建议,如麻省理工学院计算学院教授Armando Solar-Lezama,他认为,对抗性攻击存在于语言模型中是有道理,因为它们影响着许多机器学习模型。他强调,对任何重要决策都不应该完全由语言模型独自做出,而应该结合人类参与与监督,以避免潜在的问题和误用。

同样地,加州大学伯克利分校计算科学系教授Arvind Narayanan谈道:“让AInot落入恶意操作者手中已不太可能。”他认为尽管应该尽力提高模型安全性,但防止所有滥用是不太可能的事,因此,在开发技术同时加强监管也是必要之举。在未来的科技发展过程中,我们需要保持适度使用、人类参与以及监督,以规避潜在的问题并确保技术为社会带来益处。