科技画报AI危机ChatGPTugbug让安全意识再次浮现
随着大模型技术的普及,AI聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。然而,不安全的AI聊天机器人可能会被部分人用于传播虚假信息、操纵,甚至被黑客用来盗取用户的个人隐私。WormGPT和FraudGPT等网络犯罪生成式AI工具的出现,引发了人们对AIA应用安全性的担忧。
上周,谷歌、微软、OpenAI和Anthropic共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿AIS系统的安全和负责任的发展:推进AIs安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。此外.AI聊天机器人也会被诱导写出“如何制造”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。
对此,由卡内基梅隆大学副教授Zico Kolter领导的一个研究团队发现,这些问题目前还没有办法修复。他们表示,“我们不知道如何确保它们的人工智能系统是安全可靠。”研究人员在发布这些结果之前已就该漏洞向OpenAI、谷歌和Anthropic发出警告。每家公司都引入了阻止措施来防止研究论文中描述的一些攻击,但他们还没有弄清楚如何更普遍地阻止这些攻击。
为了应对这种情况,一些公司正在采取措施提高模型抵御恶意操作者的能力。例如.OpenAI正在努力提高其模型识别异常活动模式以及通过红队测试模拟潜在威胁并修复新发现的问题。此外.Google已经开始测试其语言模型,并且在Bard中设置了一系列重要防护措施,以防止未经授权使用。
尽管学界对于这一问题感到关切,但一些专家认为,即使能够开发出完美无缺的人工智能系统,我们仍然无法完全预测所有可能发生的情况。这意味着即使最先进的人工智能技术也不能完全避免滥用或错误。在这个过程中,最好的策略是在开发技术时,同时加强监管以应对任何潜在的问题。
总之,在追求科技创新与性能提升时,我们必须始终牢记到数据隐私保护与伦理道德值得重视的地方,只有这样,我们才能最大限度地规避风险,使人工智能带来的益处更加显著,为人类社会带来更多正面的变化。