OpenAI 的回旋镖,用户的聊天记录,正在变成呈堂证供
1月21日,OpenAI 在推特(X)上发布了充满社会责任感的公告,ChatGPT 将在全球范围内推出“年龄预测”功能。
“我们将根据用户的使用行为来判断其是否未满 18 岁。如果不确定,我们将默认采用更安全的未成年人体验。”
图 1:OpenAI 在社交媒体正式宣布推出年龄预测功能
评论区里没有预期的掌声,因为这说明系统会实时监控你的每一句对话,如果你表现得像个孩子,或者 Chatgpt 觉得你像个孩子,你的账号就会被瞬间降级。
“爱泼斯坦岛也是打着‘保护’孩子的旗号来的。”
此举真的是为了保护孩子吗?还是为了削减成本,用更便宜、更笨拙的模式来服务用户。
一、 当算法觉得你是你就是
如果我们剥开“为了孩子”这层温情外衣,你会发现这套系统的逻辑不对。
以往的美国互联网实名制,依靠的是身份证号和手机号。
但 OpenAI 的这套年龄预测系统,并不信任你注册时填写的生日,它只通过你的行为逻辑来断定你的心智年龄,它的基层逻辑如何,准确性如何,我们都无从得知。
1. 算法的判决书
图 2:算法成为裁决用户心智成熟度的法官
它是如何工作的?OpenAI 没有公开代码,但从大量被误伤的用户反馈中,我们可以拼凑出来:
- 句法复杂度: 如果你习惯使用破碎的短句,或者逻辑跳跃,算法会认为你的认知能力尚未发育完全。
- 词汇密度: 如果你的对话中充满了网络黑话、缩写,或者 emoji 表情包,算法会判定你处于青春期。
- 时间戳特征: 如果你在凌晨 3 点还在高频提问,或者在工作时间浏览娱乐内容,算法会认为你缺乏成年人应有的自律,判定为学龄期。
一旦触发阈值,系统不会发短信验证你的身份证,而是直接执行降级。
2. 误伤现场
想象这样一个场景:
凌晨 3 点,一位刚加完班的程序员打开了 ChatGPT。因为极度疲惫,他的输入变得暴躁且碎片化:“老板明天要,真服了,TMD 帮我写个汇报模板,快点。”
“监测到未成年特征,为了保护您的健康,已自动开启安全设置。”
这不仅尴尬,还像一种侮辱。
一个 30 岁的成年人,因为在晚上宣泄了一下情绪,就被 AI 判定为叛逆期中学生,并强制执行了“宵禁”。
图 3:深夜被算法误读为未成年
更可怕的误伤发生在全球数以亿计的非母语使用者身上。
许多英语水平有限的用户,因为语法结构简单、词汇量匮乏,被 OpenAI 的模型批量打上了“儿童”的标签。
这是一场隐秘的算法歧视。
在这个体系里,如果你不能像一个受过良好教育、情绪稳定、作息规律的标准白人中产那样说话,你就没有资格被当作一个成年人。
二、 你的脸是唯一的通行证
在传统的法律体系中,我们遵循“疑罪从无”的原则。但现在,OpenAI 执行的是**“疑罪从有”**。
一旦被系统判定为未成年,你的账号就变成了阉割版:不能谈论稍微深刻的话题,不能生成代码(防止黑客行为),甚至不能在深夜登录。
你想申诉?你想证明自己是个成年人?
没问题,OpenAI 给了你一条出路,人脸录入。
1. 强制生物识别
在设置页面,如果你想关闭“青少年模式”,系统会引导你跳转到一个第三方服务商——Persona。
图 4:3D 面部活体扫描示意图
这是一家专门从事身份验证的公司。在这里,你不能上传身份证照片,Persona 要求你对着摄像头进行3D 动态面部扫描,提取你的骨骼几何特征和视网膜深度信息,并与你上传的政府 ID 进行比对。
这就是 OpenAI 构建的商业闭环:
- 第一步: 利用模糊的行为算法,先把你判定为未成年,剥夺你的完整使用权。
- 第二步: 迫使你为了赎回权利,主动交出最高等级的生物识别数据。
2. 数据的真正去向
推特一位网友一针见血地指出:“除了保护孩子,这是一石二鸟。”
当我们把 3D 人脸数据、身份证信息,与我们在 ChatGPT 里留下的海量对话数据(其中包括我们的欲望、秘密)通过 ID 关联起来时,OpenAI 就完成了对一个人类最彻底的数字化建模。
你以为你是用户,但在 Persona 和 OpenAI 的数据交易中,你就是个条形码。
图 5:在数据交易中,用户被异化为“商品条形码”
这就像是一场服从性测试。
它在试探用户的底线:为了使用最先进的 AI,你愿意让渡多少隐私?是从前的手机号,还是现在的脸,亦或是未来的脑机接口数据?
三、 当树洞变成陷阱
如果说“行为降级”和“面部扫描”还只是让人感到不适,那么 OpenAI 过去上线的危机实时干预协议,则让这种不适变成了恐惧。
在过去,人们之所以愿意向 AI 倾诉,是因为即使是最亲密的朋友也可能背叛你,但机器不会,它会严守秘密。
但现在,这个树洞里安装了窃听器。
图 6:曾经安全的“AI 树洞”正在失去私密性
1. Ryan Schaefer 的悲剧
让我们复盘一下震惊全美的 Ryan Schaefer 案。
2025 年 10 月 1 日凌晨 3 点,19 岁的密苏里州立大学学生 Ryan Schaefer 在校园停车场砸毁了 17 辆汽车。在肾上腺素消退后的恐慌中,他没有打给朋友,也没有打给律师,而是拿出了手机,打开了 ChatGPT。
他向 AI 倾诉了自己的所作所为,询问“我会不会被抓?”,甚至承认了自己去年的另一起破坏行为,就像是在神父面前忏悔。
然而,几分钟后,这成为了呈堂证供。
虽然警方的逮捕主要依赖监控和手机定位,但在随后的起诉中,检方直接调取了 ChatGPT 的详细对话记录作为关键证据,甚至作为判定其“具有暴力倾向且无悔改之意”的依据。
2. 隐私条款的最终解释权
OpenAI 的隐私政策里写着:“我们只在法律要求时披露数据。”
这听起来很合理。但在实际操作中,还有一个模糊的条款:“防止迫在眉睫的伤害”。
当一个佛罗里达州的 13 岁少年向 AI 询问“如何让同学消失”时,或者向 AI 询问“什么药致死率最高”时,OpenAI 的安全系统会瞬间触发。
它会屏蔽对话,推送心理热线,甚至在判定风险等级过高时,将用户的 IP 地址、地理位置和对话记录,主动推送给 NCMEC(国家失踪与受虐儿童中心)或当地执法部门。
这彻底改变了人机交互的性质。
用户的聊天记录,不再是私密的,而是潜在的犯罪证据。每一句话,都可能是犯罪预备的证据。
图 7:隐私条款背后的风险,对话记录并不完全属于你
四、 硅谷的回旋镖
看着 OpenAI 如今的所作所为,简直是一种巨大的讽刺。
几年前,当我们推行网络游戏防沉迷系统,限制未成年人深夜登录、并引入面部识别时,硅谷的评论家们一致惊呼,这是“数字监狱”的开端,是对自由的扼杀。
然而,2026 年的今天,这枚回旋镖精准地砸在了硅谷的头上。
OpenAI 的这套新政,以保护的名义,通过让渡部分隐私,来换取有限的权利。
这是一种硅谷特色的社会信用体系。
在这里,信用分不是由你的还款记录决定的,而是由你的行为逻辑决定的。
五、 结语
七十年前,艾伦·图灵提出了著名的图灵测试,那是人类在测试机器:
“你像不像人?”
2026 年,OpenAI 颠倒了这一切。现在是机器在测试人类:
“你像不像一个成年人?”
为了保住你的账号权限,为了不被系统判定为心智未成熟,你必须开始自我审查。
当所有人都学会了像 AI 期待的那样说话时,我们终于安全了。
但那一刻,究竟谁才是机器,谁才是人?



