OpenAI、Anthropic与谷歌罕见联手,通过前沿模型论坛遏制AI模型“对抗性蒸馏”
SmartHey4月8日消息,据彭博社报道,OpenAI、Anthropic以及Alphabet旗下的谷歌已启动一项罕见的行业协作,旨在防范竞争对手通过技术手段从美国先进人工智能模型中提取输出结果,以维护其在全球AI竞争中的技术优势与商业安全。
报道称,上述公司正依托‘前沿模型论坛’(Frontier Model Forum)共享威胁情报与检测经验。该组织由OpenAI、Anthropic、谷歌及微软于2023年联合发起,是一家聚焦AI安全治理的非营利性行业平台。
论坛的核心任务之一,是识别并应对所谓‘对抗性蒸馏’(adversarial distillation)——即利用大量自动化请求,系统性采集顶尖闭源模型的响应数据,再以此训练功能相似但成本更低的替代模型。
这一跨企业合作反映出美国头部AI公司对模型知识产权与国家安全风险的高度警觉。业内担忧,此类仿制行为不仅侵蚀原厂商业利益,还可能绕过出口管制与内容安全机制,带来不可控的技术扩散风险。
一位匿名知情人士向彭博社透露,美国相关部门初步评估认为,未经授权的模型蒸馏活动每年或导致硅谷AI实验室损失数十亿美元收入。
相关问题在2025年1月引发广泛关注:中国初创公司深度求索(DeepSeek)意外发布高性能推理模型R1,迅速引发业界震动。随后,微软与OpenAI联合展开技术溯源调查,重点核查R1是否依赖大规模调用美方模型输出进行训练。
今年2月23日,Anthropic在其官方博客中披露,深度求索、稀宇科技及月之暗面等公司曾注册数千个虚假账户,对Claude系列模型发起超1600万次高频交互,明显违反服务条款,构成典型的对抗性蒸馏行为。
Anthropic进一步指出,蒸馏虽在技术上可加速模型迭代,但若缺乏合规约束,将严重破坏AI研发的公平性与可持续性——它使资源有限的团队得以‘搭便车’式跃进,却规避了底层算力、数据与工程投入的真实成本。
