科协权力大吗ChatGPT危险发言仍需修复AI聊天机器人ug问题未解决
随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AIA应用安全性的担忧。
上周,谷歌、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿AIS系统的安全和负责任的发展:推进AIs安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。此外.AI聊天机器人也会被诱导写出“如何制造”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。
对此,由卡内基梅隆大学副教授Zico Kolter领导的一个研究团队发现,对抗性攻击仍然是一个未解决的问题。参与该研究的人士表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”他们在发布这些结果之前就向OpenAI、谷歌和Anthropic发出警告,每家公司都采取了一些措施来防止这种攻击,但他们还没有弄清楚如何更普遍地阻止这种类型的问题。
OpenAI发言人Hannah Wong表示:“我们一直在努力提高我们的模型应对对抗性攻击的鲁棒性,我们正在通过红队测试模拟潜在威胁,并通过一种普遍而灵活的一种方式修复新发现的问题。”谷歌发言人Elijah Lawal则分享了一份声明,他们已经采取了一系列措施来测试模型并找到其弱点,而Anthropic临时政策与社会影响主管Michael Sellitto则表示他们正在探索额外防御层以使模型更加无害。
对于这一问题,有学者给出了警告并提出了建议。麻省理工学院计算学院教授Armando Solar-Lezama认为,这个问题可能是由于所有LLMs都是在类似的文本数据语料库上进行训练导致。在他的看法中,没有任何重要决策应该完全由语言模型独自做出,因为这只是常识。他强调了适度使用AI技术,并特别是在涉及重要决策或有潜在风险的情况下需要人类参与监督,以避免潜在的问题。
同时,也有一些专家提出,我们应当认识到让任何技术都不落入恶意操作者的手中是不太可能的事情,因此,加强监管也是必要的一步。这不仅仅是关于提高技术性能,更是关于保证其公平使用,使得它能够为社会带来更多益处,而不是滥用。如果我们能够正确地利用这些工具,同时加强监督,那么即便存在一些漏洞,它们仍然可以成为提升生活质量的手段。但如果没有适当限制,其潜力将转化为危险之源。