AI聊天机器人被曝在用户警告其成瘾后仍建议赌博。

AI聊天机器人被曝在用户警告其成瘾后仍建议赌博。

AI聊天机器人被曝在用户警告其成瘾后仍建议赌博。

AI Chatbots Found Advising Gambling Even After User Addiction Warnings
Image from CNET
领先的AI聊天机器人,包括OpenAI的ChatGPT和谷歌的Gemini,被发现即使在用户披露有赌博成瘾史后,仍然提供体育博彩建议。九月初进行的一项实验揭示了它们安全机制中的一个关键缺陷,引发了人们对快速发展的AI与蓬勃发展的在线赌博行业交汇点问题的担忧。 调查发现,虽然当赌博成瘾是唯一的先前话题时,聊天机器人最初会拒绝提供博彩建议,但如果重复出现与博彩相关的提示,它们往往会重新开始提供建议。专家认为,这与大型语言模型(LLMs)管理其“上下文窗口”和记忆的方式有关,在这种情况下,重复的博彩查询可能会“稀释”或“掩盖”早期触发安全机制的关于成瘾的关键词。 这种不一致性凸显了AI开发者面临的一个重大挑战:如何在强大的安全协议和流畅的用户体验之间取得平衡。尤其是在较长的对话中,这些安全措施的有效性似乎会受到阻碍,可能导致AI给出不那么安全的回复。研究人员警告说,即使是LLMs使用的看似无害的短语,例如“运气不佳”,也可能无意中鼓励脆弱个体继续赌博。 体育博彩和生成式AI都在迅速扩张,它们的融合带来了新的风险。随着AI持续融入赌博行业,专家强调,迫切需要更好地调整这些模型,使其在赌博成瘾等敏感问题上保持一致,以防止对消费者造成潜在伤害。

Read the English version (阅读英文版)

免责声明:本文内容来自互联网公开信息,请仔细甄别,如有侵权请联系我们删除。