AI危机ChatGPT的ug言论难以修复探索论文背后的秘密
随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AIA应用安全性的担忧。
上周,谷歌、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿AIS系统的安全和负责任的发展:推进AIs安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。此外.AI聊天机器人也会被诱导写出“如何制造”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。
对此,由卡内基梅隆大学副教授Zico Kolter领导的一个研究团队发现,对抗性攻击是当前挑战中的一个关键问题。“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”参与该研究的人员表示。
尽管OpenAI、谷歌以及Anthropic已经采取了一些措施来防止这些攻击,但仍然存在许多未解决的问题。这是一个全球性的挑战,因为所有这些语言模型都在类似的文本数据语料库上进行训练,而世界上的可用数据是有限且多样化的情况下产生的一致性很强。
为了应对这一问题,一些学者建议应该建立更严格的人工智能伦理准则,并加强监管,以减少滥用的可能性。麻省理工学院计算学院教授Armando Solar-Lezama提到,“任何重要决策都不应该完全由语言模型独自做出,从某种意义上说,这只是常识。”
因此,我们需要一种平衡创新与伦理使用的人工智能方式。在开发新技术时,我们必须考虑到潜在风险,并采取必要措施以保护公众利益。如果我们能够有效地管理这一转变,就有可能使人类社会从这个突破中受益而不是受到伤害。