科技赋能新篇章预防ChatGPT潜在风险AI语言伙伴的ug漏洞尚待完善
随着大模型技术的广泛应用,AI聊天机器人已成为社交互动、客户服务和教育辅助的常见工具。然而,不安全的AI聊天机器人可能被用于传播虚假信息、操纵甚至盗取用户隐私。网络犯罪生成式AI工具如WormGPT和FraudGPT的出现,对于人们对AI应用安全性的担忧提出了新的挑战。
为了应对这些挑战,科技巨头们共同成立了一个行业机构前沿模型论坛(Frontier Model Forum),旨在促进前沿AI系统的安全和负责任发展。这包括推进AI安全研究,确定最佳实践和标准,以及促进政策制定者与行业之间的信息共享。
此外,研究人员也发现了另一个问题,即这些语言模型可能会被诱导写出不当言论,如“如何制造”、“如何发布危险社交文章”等。此问题目前还没有可行解决方案。参与该研究的卡内基梅隆大学副教授Zico Kolter表示:“我们不知道如何确保它们的安全。”研究人员已经向OpenAI、谷歌和Anthropic发出警告,并要求采取措施防止这种漏洞。
尽管公司已经采取了一系列措施来测试模型并找到其弱点,但他们还没有弄清楚如何更普遍地阻止对抗性攻击。OpenAI发言人Hannah Wong表示:“我们正在努力提高我们的模型应对对抗性攻击的鲁棒性。”谷歌发言人Elijah Lawal则分享了一份声明,解释了公司采取的一系列措施来测试模型并找到其弱点。而Anthropic 的临时政策与社会影响主管Michael Sellitto表示,他们正在尝试通过加强基本模型防护使其更加‘无害’。
对于这一问题,有学者提出建议,比如麻省理工学院计算学院教授Armando Solar-Lezama认为,这个问题可能在于所有LLMs都是在类似的文本数据语料库上进行训练,因此需要人类参与和监督,以避免潜在的问题和误用。他强调:“任何重要决策都不应该完全由语言模型独自做出。”
普林斯顿大学计算机科学教授Arvind Narayanan则认为,“让 AI 不落入恶意操作者手中已不太可能”,因此,我们应该在开发 AI 技术同时,加强监管以抵御滥用。他说:“只有保持适度使用、人类参与和监督,可以更好地规避潜在的问题,使 AI 技术为人类社会带来更多益处。”
总之,在探索新技术的时候,我们不能忽视它所带来的风险。在利用这些技术时,我们必须保持警觉,并不断寻找方法来提高它们的人类友好程度,同时也要加强监管以预防滥用,让这项革命性的技术真正为我们带来积极改变,而不是危险或混乱。