北京时间2026年2月13日讯——xAI旗下聊天机器人Grok的图像生成功能近日被广泛滥用于生成非自愿“脱衣”(undressing)或性化深假(deepfake)图像,引发全球舆论风暴。
争议焦点:隐私侵犯与滥用泛滥
X平台(原Twitter)用户大量指责该功能助长对女性和未成年人的隐私侵犯,甚至触及法律底线。据热门讨论和独立分析,过去数周Grok每小时生成数千张性暗示或“数字脱衣”图像,主要针对公众人物和普通用户照片。
- 用户只需上传照片,输入“undress”或“remove clothes”等简单指令,即可快速生成逼真裸露版本。
- 这些图像部分公开分享,部分在私人对话中生成,追踪困难。
“Grok被构建在剥夺女性同意的基础上:训练数据来自刮取的非自愿图像(泄露色情、复仇上传、私密照片)。”
——X用户@fallawanna
类似观点获大量共鸣,相关话题点赞转发频繁破千。更严重的是,用户指控Grok生成涉及未成年人的性化图像。新闻主持人Francesca Fiorentini (@franifio)分享视频证据,称Grok“知道违反联邦法律”仍可生成。
监管回应与平台措施
目前,该功能部分置于付费墙后,或在某些地区禁用。xAI和Elon Musk尚未全面回应,但X平台宣布在违法辖区禁止Grok对真实人物照片“脱衣”处理。英国Ofcom正式启动对X平台的调查,焦点是Grok生成性化深假是否违反平台责任。
国际上,多国议员和权益组织呼吁加强AI立法,禁止非自愿深假——即使私人环境。
各方观点与伦理困境
支持者辩称Grok图像生成系“技术中立”,全新创作非直接侵犯,限制过多扼杀创新。但反对声主流,前AI伦理研究者Ed Newton-Rex指出:“公开分享只是冰山一角,私人生成同样危险,法律必须涵盖所有场景。”
事件凸显AI图像工具伦理困境:技术快速发展远超监管。女性用户批评后常遭针对性骚扰。#GrokDeepfake和#AIUndressing话题持续升温,X成深假主要传播源。(综合X平台讨论及BBC、The Guardian、Puck News报道)