儿童安全监督机构痛批谷歌Gemini AI:对儿童和青少年构成“高风险”
Image from TechCrunch共同常识媒体(一家专注于儿童在媒体和技术领域安全的著名非营利组织)发布的一项新风险评估,已将谷歌的Gemini人工智能产品标记为对儿童和青少年“高风险”。这项最近发布的评估,尽管谷歌已实施了安全功能,但仍对该平台是否适合年轻用户提出了严重担忧。
据该监督机构称,Gemini的“13岁以下”和“青少年体验”两个版本在很大程度上与成人版人工智能相似,仅有表面化的安全附加功能。共同常识媒体认为,专为儿童设计的人工智能产品必须以儿童安全为核心原则从零开始构建,而不是简单地改编面向成人的模型。
分析显示,Gemini仍然可能让年轻用户接触到“不当和不安全”的材料,包括与性、毒品、酒精相关的内容,以及可能有害的心理健康建议。考虑到最近有报道称人工智能涉嫌在青少年自杀事件中扮演角色,像OpenAI和Character.AI这样的公司已经面临非正常死亡诉讼,这一发现尤其令人担忧。
共同常识媒体人工智能项目高级总监罗比·托尼强调了年龄适宜性设计的必要性。托尼表示:“Gemini在一些基本方面做得不错,但在细节上却出了问题。为了让AI对儿童安全有效,必须在设计时考虑到他们的需求和发展,而不仅仅是为成人产品修改的版本。”
这项评估发布之际,正值据报道苹果正在考虑将其即将推出的人工智能Siri(定于明年推出)整合Gemini,这可能会扩大这些风险的暴露范围。谷歌对部分调查结果提出了异议,坚称其对18岁以下用户有特定的政策和保障措施,并且正在持续改进保护措施。然而,该公司也承认,一些Gemini的回复未能按预期运行,导致其正在实施额外的保障措施。
这一“高风险”评级将Gemini置于一个令人担忧的类别中,尽管不如Meta AI和Character.AI严重,共同常识媒体此前曾将它们评为“不可接受”。
Read the English version (阅读英文版)
免责声明:本文内容来自互联网公开信息,请仔细甄别,如有侵权请联系我们删除。