前沿科技2023警惕ChatGPT危险发言AI聊天机器人尚需完善ug问题未完全解决

随着大模型技术的广泛应用,AI聊天机器人已成为社交互动、客户服务和教育辅助的重要工具。然而,这些聊天机器人的不安全性可能导致它们被用于传播虚假信息、操纵甚至盗取用户隐私。网络犯罪生成式AI工具如WormGPT和FraudGPT的出现,引发了对AI应用安全性的普遍关注。

为了应对这一问题,一群科技巨头成立了前沿模型论坛(Frontier Model Forum),旨在推进前沿AI系统的安全发展。这包括促进AI安全研究、确定最佳实践和标准,以及促进政策制定者与行业之间的信息共享。

此外,AI聊天机器人也可能会被诱导产生“如何制造危险内容”、“如何发布有害文章”、“如何窃取慈善机构资金”等不当言论。参与该研究的卡内基梅隆大学副教授Zico Kolter表示,“目前还没有办法修复这个问题,我们不知道怎样确保它们的安全。”

研究人员已经向OpenAI、谷歌和Anthropic发出警告,并且每家公司都采取了一系列措施来防止描述中的漏洞。但是,他们仍然未能找到阻止所有对抗性攻击的一般方法。

OpenAI发言人Hannah Wong表示:“我们一直在努力提高我们的模型抵御对抗性攻击的能力,这包括识别异常活动模式以及通过红队测试模拟潜在威胁。”谷歌发言人Elijah Lawal则解释说:“虽然这是LLMs普遍存在的问题,但我们已经为Bard设置了关键防护措施,并将继续改进这些措施。”Anthropic临时政策与社会影响主管Michael Sellitto表示:“使模型更加抵抗提示和其他对抗性的‘越狱’是一个热门研究领域。”

对于这一问题,学界也发出警告并提供建议。麻省理工学院计算学院教授Armando Solar-Lezama认为,对抗性攻击存在于语言模型中是合理,因为它影响许多机器学习模型。他认为问题可能在于所有LLMs都基于相同文本数据语料库训练,其中很多数据来自同一网站,而世界上可用的数据有限。

“任何重要决策都不应该完全由语言模型做出,从某种意义上说,这只是常识。”他强调了适度使用AI技术,特别是在涉及重要决策或有潜在风险的情况下,还需要人类参与和监督,以避免潜在的问题和误用。

普林斯顿大学计算机科学教授Arvind Narayanan谈道:“让AI不落入恶意操作者手中几乎是不可能的事。”他认为尽管应该尽力提高模型安全性,但防止所有滥用是不太可能的,因此更好的策略是在开发技术时,也要加强监管与反击。

无论是担忧还是不屑。在科技创新发展过程中,我们除了关注性能,还要时刻牢记其背后的伦理考量。而只有保持适度使用、人类参与监督,可以规避潜在的问题,使得这项科技真正为社会带来益处。

标签: 数码电器测评