AI的私密渗透:ChatGPT在个人私信中的应用渐广
Image from ZDNET随着ChatGPT等AI聊天机器人日益成熟,一种新的社会现象正在浮现:人们开始使用人工智能来起草敏感的私人信息。这种趋势在提供便利的同时,也引发了关于真实性以及人类交流未来走向的疑问。
最近的轶事证据突显了这种微妙的转变。Reddit用户分享了收到亲人发来的信息,感觉不像他们本人,从而怀疑有AI参与的案例。一位用户回忆说,在母亲离婚期间收到她发来的一条信息,尽管语气是支持的,但却显得异常精炼和正式。甚至连GPTZero这样的AI检测工具也显示出高度的AI生成可能性。
在个人交流中使用AI并非没有情感上的复杂性。一些使用聊天机器人起草信息的人表示内疚,即使AI生成的回应受到了好评。这种情绪凸显了关于AI辅助表达的真诚性这一更广泛的争论。
甚至科技巨头也涉足了这片有争议的水域。谷歌此前曾播放一则广告,展示一位家长使用Gemini为孩子写粉丝信,结果却面临公众强烈反对,最终导致广告下架。这一事件反映了社会对AI介入深度个人互动的不适。
尽管AI生成的文本越来越难以察觉,但仍可能存在一些明显的迹象:例如,偏离了说话者平时的语气,缺乏具体的共同回忆,语言过于雕琢,甚至出现AI常用的标点符号,如破折号。随着AI的不断发展,我们日常交流中人类情感与机器生成情感之间的界限将进一步模糊,这促使我们重新审视究竟什么才构成一条“个人”信息。
Read the English version (阅读英文版)
免责声明:本文内容来自互联网公开信息,请仔细甄别,如有侵权请联系我们删除。