AI幕后:在科技巨头转型与伦理困境交织下,AI训练师面临动荡。
Image from Business Insider生成式人工智能(Generative AI)发展迅速,如今每天有数亿人使用,但其背后严重依赖着一支几乎不为人知的劳动力:人类AI训练师。这些个体,通常是自由职业者,负责微调Grok和ChatGPT等聊天机器人,教它们如何听起来更像人类、处理伦理困境并避免有害回应。然而,这个新兴行业虽然为一些人提供了丰厚的机会,但也伴随着显著的不稳定性、伦理难题以及近期科技领域发生的剧烈变革。
像28岁的伊斯坦布尔艺术家Serhan Tekkılıç这样的自由职业者,通过Scale AI旗下的Outlier等平台,找到了训练埃隆·马斯克(Elon Musk)的Grok聊天机器人的灵活工作。Tekkılıç回忆说,提示(prompts)的内容非常超现实,从想象火星上的生活到讨论深刻的情感,他表现好的时候每周能赚取高达1500美元。同样,西北大学毕业生Isaiah Kwong-Murphy通过“红队任务”(red-teaming tasks)在六个月内赚取了超过5万美元,这些任务旨在故意挑衅聊天机器人,以识别并纠正有害输出。来自危地马拉的客户经理Leo Castillo则通过录制对话来补贴收入,他发现像“木琴”(Xylophone)这样的项目报酬丰厚,每晚表现好时能赚约70美元。
尽管有高收入的潜力,但这项工作却极不稳定。承包商们将其描述为“类似于赌博”,薪酬会突然降低,项目也会毫无解释地中断。今年3月,Kwong-Murphy的时薪从50美元骤降至15美元。当Outlier转向基于小组的评估时,Castillo的绩效评分下降,影响了他获取新任务的机会。Outlier的一位发言人将薪酬变化归因于项目特定要求,否认了平台范围内的调整,并表示小组评估已迅速修正为个人评估。
除了财务上的不稳定,AI训练师还经常接触到令人不安的内容。像资深数据标注员Krista Pawloski这样的工作人员描述说,他们会标记种族主义内容,或者被鼓励提示聊天机器人建议谋杀或性侵犯。Tekkılıç也回忆起处理“非常黑暗的话题”,以确保AI模型不会提供有害建议。许多人还对缺乏透明度表示沮丧,不确定他们对人脸识别或卫星图像的工作是用于良性目的还是更险恶的应用,而且他们通常受到严格的保密协议约束。
这个行业正在经历一场重大的转型。今年6月,Meta收购了Outlier的母公司Scale AI 49%的股份。此举在承包商中引发了广泛恐慌,因为他们的仪表板变得空空如也,谷歌、OpenAI和xAI等主要客户的项目被无限期暂停。尽管Scale AI表示项目暂停与Meta的投资无关,但许多人将其解读为行业整合的迹象,以及大型科技公司将更多AI训练工作内部化的趋势。
此外,DeepSeek R1和谷歌Gemini 2.5等先进“推理”模型的兴起,正在减少对大量通用型标注员的需求。需求正转向高度专业化的人才,平台为医生和律师审查提示提供高达每小时160美元的报酬。这使得许多通用型训练师,例如自6月以来就没有接到项目的Tekkılıç,开始思考他们角色的未来以及他们所帮助塑造的技术的更广泛影响。
Read the English version (阅读英文版)
免责声明:本文内容来自互联网公开信息,请仔细甄别,如有侵权请联系我们删除。