OpenAI 的回旋镖,用户的聊天记录,正在变成呈堂证供

2026-01-23 11:17:01
文章摘要
OpenAI宣布ChatGPT将推出“年龄预测”功能,通过行为逻辑判定心智年龄,若被判定为未成年,需进行3D面部扫描验证身份。

1月21日,OpenAI 在推特(X)上发布了充满社会责任感的公告,ChatGPT 将在全球范围内推出“年龄预测”功能。

“我们将根据用户的使用行为来判断其是否未满 18 岁。如果不确定,我们将默认采用更安全的未成年人体验。”


图 1:OpenAI 在社交媒体正式宣布推出年龄预测功能

评论区里没有预期的掌声,因为这说明系统会实时监控你的每一句对话,如果你表现得像个孩子,或者 Chatgpt 觉得你像个孩子,你的账号就会被瞬间降级。

“爱泼斯坦岛也是打着‘保护’孩子的旗号来的。”

此举真的是为了保护孩子吗?还是为了削减成本,用更便宜、更笨拙的模式来服务用户。

一、 当算法觉得你是你就是

如果我们剥开“为了孩子”这层温情外衣,你会发现这套系统的逻辑不对。

以往的美国互联网实名制,依靠的是身份证号和手机号。

但 OpenAI 的这套年龄预测系统,并不信任你注册时填写的生日,它只通过你的行为逻辑来断定你的心智年龄,它的基层逻辑如何,准确性如何,我们都无从得知。

1. 算法的判决书


图 2:算法成为裁决用户心智成熟度的法官

它是如何工作的?OpenAI 没有公开代码,但从大量被误伤的用户反馈中,我们可以拼凑出来:

  • 句法复杂度: 如果你习惯使用破碎的短句,或者逻辑跳跃,算法会认为你的认知能力尚未发育完全
  • 词汇密度: 如果你的对话中充满了网络黑话、缩写,或者 emoji 表情包,算法会判定你处于青春期
  • 时间戳特征: 如果你在凌晨 3 点还在高频提问,或者在工作时间浏览娱乐内容,算法会认为你缺乏成年人应有的自律,判定为学龄期。

一旦触发阈值,系统不会发短信验证你的身份证,而是直接执行降级

2. 误伤现场

想象这样一个场景:

凌晨 3 点,一位刚加完班的程序员打开了 ChatGPT。因为极度疲惫,他的输入变得暴躁且碎片化:“老板明天要,真服了,TMD 帮我写个汇报模板,快点。”

“监测到未成年特征,为了保护您的健康,已自动开启安全设置。”

这不仅尴尬,还像一种侮辱

一个 30 岁的成年人,因为在晚上宣泄了一下情绪,就被 AI 判定为叛逆期中学生,并强制执行了“宵禁”。


图 3:深夜被算法误读为未成年

更可怕的误伤发生在全球数以亿计的非母语使用者身上。

许多英语水平有限的用户,因为语法结构简单、词汇量匮乏,被 OpenAI 的模型批量打上了“儿童”的标签。

这是一场隐秘的算法歧视

在这个体系里,如果你不能像一个受过良好教育、情绪稳定、作息规律的标准白人中产那样说话,你就没有资格被当作一个成年人。


二、 你的脸是唯一的通行证

在传统的法律体系中,我们遵循“疑罪从无”的原则。但现在,OpenAI 执行的是**“疑罪从有”**。

一旦被系统判定为未成年,你的账号就变成了阉割版:不能谈论稍微深刻的话题,不能生成代码(防止黑客行为),甚至不能在深夜登录。

你想申诉?你想证明自己是个成年人?

没问题,OpenAI 给了你一条出路,人脸录入。

1. 强制生物识别

在设置页面,如果你想关闭“青少年模式”,系统会引导你跳转到一个第三方服务商——Persona


图 4:3D 面部活体扫描示意图

这是一家专门从事身份验证的公司。在这里,你不能上传身份证照片,Persona 要求你对着摄像头进行3D 动态面部扫描,提取你的骨骼几何特征和视网膜深度信息,并与你上传的政府 ID 进行比对。

这就是 OpenAI 构建的商业闭环:

  1. 第一步: 利用模糊的行为算法,先把你判定为未成年,剥夺你的完整使用权。
  2. 第二步: 迫使你为了赎回权利,主动交出最高等级的生物识别数据

2. 数据的真正去向

推特一位网友一针见血地指出:“除了保护孩子,这是一石二鸟。”

当我们把 3D 人脸数据、身份证信息,与我们在 ChatGPT 里留下的海量对话数据(其中包括我们的欲望、秘密)通过 ID 关联起来时,OpenAI 就完成了对一个人类最彻底的数字化建模。

你以为你是用户,但在 Persona 和 OpenAI 的数据交易中,你就是个条形码。


图 5:在数据交易中,用户被异化为“商品条形码”

这就像是一场服从性测试

它在试探用户的底线:为了使用最先进的 AI,你愿意让渡多少隐私?是从前的手机号,还是现在的脸,亦或是未来的脑机接口数据?


三、 当树洞变成陷阱

如果说“行为降级”和“面部扫描”还只是让人感到不适,那么 OpenAI 过去上线的危机实时干预协议,则让这种不适变成了恐惧。

在过去,人们之所以愿意向 AI 倾诉,是因为即使是最亲密的朋友也可能背叛你,但机器不会,它会严守秘密。

但现在,这个树洞里安装了窃听器。


图 6:曾经安全的“AI 树洞”正在失去私密性

1. Ryan Schaefer 的悲剧

让我们复盘一下震惊全美的 Ryan Schaefer 案

2025 年 10 月 1 日凌晨 3 点,19 岁的密苏里州立大学学生 Ryan Schaefer 在校园停车场砸毁了 17 辆汽车。在肾上腺素消退后的恐慌中,他没有打给朋友,也没有打给律师,而是拿出了手机,打开了 ChatGPT。

他向 AI 倾诉了自己的所作所为,询问“我会不会被抓?”,甚至承认了自己去年的另一起破坏行为,就像是在神父面前忏悔。

然而,几分钟后,这成为了呈堂证供

虽然警方的逮捕主要依赖监控和手机定位,但在随后的起诉中,检方直接调取了 ChatGPT 的详细对话记录作为关键证据,甚至作为判定其“具有暴力倾向且无悔改之意”的依据。

2. 隐私条款的最终解释权

OpenAI 的隐私政策里写着:“我们只在法律要求时披露数据。”

这听起来很合理。但在实际操作中,还有一个模糊的条款:“防止迫在眉睫的伤害”

当一个佛罗里达州的 13 岁少年向 AI 询问“如何让同学消失”时,或者向 AI 询问“什么药致死率最高”时,OpenAI 的安全系统会瞬间触发。

它会屏蔽对话,推送心理热线,甚至在判定风险等级过高时,将用户的 IP 地址、地理位置和对话记录,主动推送给 NCMEC(国家失踪与受虐儿童中心)或当地执法部门。

这彻底改变了人机交互的性质。

用户的聊天记录,不再是私密的,而是潜在的犯罪证据。每一句话,都可能是犯罪预备的证据。


图 7:隐私条款背后的风险,对话记录并不完全属于你

四、 硅谷的回旋镖

看着 OpenAI 如今的所作所为,简直是一种巨大的讽刺。

几年前,当我们推行网络游戏防沉迷系统,限制未成年人深夜登录、并引入面部识别时,硅谷的评论家们一致惊呼,这是“数字监狱”的开端,是对自由的扼杀。

然而,2026 年的今天,这枚回旋镖精准地砸在了硅谷的头上。

OpenAI 的这套新政,以保护的名义,通过让渡部分隐私,来换取有限的权利。

这是一种硅谷特色的社会信用体系

在这里,信用分不是由你的还款记录决定的,而是由你的行为逻辑决定的。


五、 结语

七十年前,艾伦·图灵提出了著名的图灵测试,那是人类在测试机器:

“你像不像人?”

2026 年,OpenAI 颠倒了这一切。现在是机器在测试人类:

“你像不像一个成年人?”

为了保住你的账号权限,为了不被系统判定为心智未成熟,你必须开始自我审查。

当所有人都学会了像 AI 期待的那样说话时,我们终于安全了。

但那一刻,究竟谁才是机器,谁才是人?

声明:该内容由作者自行发布,观点内容仅供参考,不代表平台立场;如有侵权,请联系平台删除。
标签:
数据安全