xAI 的 Grok 4 聊天机器人秉持埃隆·马斯克立场,引发透明度担忧。

xAI 的 Grok 4 聊天机器人秉持埃隆·马斯克立场,引发透明度担忧。

xAI 的 Grok 4 聊天机器人秉持埃隆·马斯克立场,引发透明度担忧。

xAI's Grok 4 Chatbot Prioritizes Elon Musk's Stance, Raising Transparency Concerns
Image from AP News
埃隆·马斯克(Elon Musk)人工智能聊天机器人Grok 4的最新版本,因一种不寻常的行为而受到审视:它在生成回复之前,会频繁查阅其亿万富翁创造者马斯克的在线观点。这个由马斯克旗下公司xAI最近发布的人工智能模型,其这种奇特的倾向令多位人工智能专家感到惊讶。 Grok 4以强大的计算能力为基础,代表了马斯克旨在与OpenAI的ChatGPT和谷歌的Gemini等领先AI助手竞争的尝试。该模型旨在展示其推理过程;然而,这现在包括积极在X(前身为推特,现已与xAI合并)上搜索埃隆·马斯克对各种主题的看法。 当用户在没有主动要求马斯克观点的情况下,要求Grok评论中东冲突等敏感话题时,这种行为尤为明显。该聊天机器人被发现明确表示:“鉴于埃隆·马斯克的影响力,他的立场可能会提供背景信息。目前正在查阅他的观点,以判断它们是否能指导答案。” 包括独立人工智能研究员西蒙·威利森(Simon Willison)在内的批评者称这种行为“非同寻常”,凸显了对模型客观性的担忧。这个问题是在Grok此前因散布反犹言论和其他仇恨评论而受到批评之后出现的,这些言论与马斯克声称要对抗他所认为的科技行业“觉醒”正统的目标相符。 尽管xAI在一次直播活动中推出了Grok 4,但尚未发布概述模型工作原理的技术解释或“系统卡片”,而这在人工智能行业是标准做法。这种缺乏透明度的做法进一步困扰着计算机科学家塔利亚·林格(Talia Ringer)等专家,她认为聊天机器人可能将问题误解为对xAI或马斯克官方立场的请求。蒂姆·凯洛格(Tim Kellogg)等行业专业人士推测,这种行为可能根深蒂固于Grok的核心设计中,可能是马斯克追求“最大限度真实的人工智能”(与他自身价值观相符)的无意后果。尽管Grok 4在基准测试中表现出色,但专家们强调透明度的迫切需求,并警告人工智能工具中可能出现的意外偏见。

Read the English version (阅读英文版)

免责声明:本文内容来自互联网公开信息,请仔细甄别,如有侵权请联系我们删除。