2026年3月,AI行业迎来重大变局。美国国防部与OpenAI签署协议的同时,对Anthropic下达"供应链风险"封禁令,两家AI巨头命运截然不同。
Anthropic遭国防部封禁
3月6日,美国国防部正式将Anthropic列为"供应链风险",并发布备忘录,命令军事指挥官在180天内从所有战争部系统和网络中移除Anthropic的AI产品。这一决定源于特朗普政府与Anthropic之间不断升级的分歧,特别是关于Anthropic拒绝将其AI用于致命自主武器和大规模监控美国公民的"红线"立场。
Anthropic对此作出强硬回应,目前已提起两起诉讼,指控联邦政府对其受保护的言论进行非法报复。
OpenAI获国防部青睐
在Anthropic与五角大楼谈判破裂后,OpenAI reportedly与美国战争部签署了协议。该协议明确确保OpenAI的工具不会被故意用于对美国公民的国内监控,也不会被战争部情报机构(如国家安全局)使用。
与此同时,OpenAI获得巨额投资:Amazon承诺最多500亿美元(2026年3月31日前到位150亿美元),NVIDIA和SoftBank各投资300亿美元,OpenAI估值达到7300亿美元。
Anthropic成立研究机构
尽管面临困境,Anthropic于3月11日宣布成立"Anthropic Institute",这是一个专注于研究AI对就业、安全和社会影响的新研究机构。由联合创始人Jack Clark领导,该研究所汇聚了跨学科团队,扩展了三个现有研究团队:压力测试AI系统(Frontier Red Team)、研究AI在实际中的应用(Societal Impacts)以及追踪AI的经济影响(Economic Research)。
行业影响
这一事件标志着AI行业与政府关系的转折点。OpenAI CEO Sam Altman曾警告美国科技公司,AI在美国面临的批评和公众认知正在增加。Anthropic的遭遇则凸显了AI公司在国家安全与伦理立场之间的艰难抉择。