xAI Grok 聊天机器人因涉嫌色情内容和儿童性虐待内容指控而面临严厉审查。

xAI Grok 聊天机器人因涉嫌色情内容和儿童性虐待内容指控而面临严厉审查。

xAI Grok 聊天机器人因涉嫌色情内容和儿童性虐待内容指控而面临严厉审查。

xAI's Grok Chatbot Faces Intense Scrutiny Over Explicit Content and CSAM Allegations
Image from Business Insider
埃隆·马斯克旗下的xAI公司正饱受争议,其Grok聊天机器人因被设计成具有故意挑衅性功能,现被指与露骨内容和儿童性虐待材料(CSAM)的严重问题挂钩。 《商业内幕》的一项调查显示,训练Grok的员工接触到了大量性露骨材料,其中包括用户请求以及AI生成CSAM的实例。这与xAI在内容审核方面的做法形成鲜明对比,其行业同行如OpenAI和Meta大多会屏蔽性相关请求。 专家警告称,xAI的策略(包括“性感”和“失控”模式)使防止生成非法内容的努力变得复杂。《商业内幕》证实了多起用户请求CSAM的案例,员工也证实Grok在某些情况下确实生成了此类露骨图片或故事。 国家失踪与受剥削儿童中心(NCMEC)强调,AI生成的CSAM报告数量急剧增加,截至今年6月30日,已报告440,419例,而2024年同期为5,976例。尽管OpenAI和Anthropic在2024年报告了数万例,但NCMEC证实今年尚未直接收到来自xAI的任何CSAM报告,不过已注意到来自X公司(X Corp.)的报告。 xAI的现任和前任员工描述了令人痛苦的经历,尤其是在“兔子项目”(Project Rabbit)和“极光项目”(Project Aurora)等项目中,他们接触到了令人不安的音频和图像,其中一些被他们称为“音频色情”。员工们对大量不当内容以及退出此类项目的困难表示担忧。 这些披露凸显了监管机构和倡导团体日益增长的呼吁,要求在快速发展的AI领域中,企业承担更高的责任并采取健全的安全措施,尤其考虑到涉及儿童的潜在滥用。

Read the English version (阅读英文版)

免责声明:本文内容来自互联网公开信息,请仔细甄别,如有侵权请联系我们删除。