当AI伦理遇上五角大楼:Anthropic拒绝将Claude用于军事监控的立场之争
今天刷到一条新闻,差点把嘴里的咖啡喷出来——Anthropic居然跟五角大楼杠上了。
事情的起因其实挺简单。五角大楼要求AI公司开放技术用于合法军事用途,这听起来像是官方的一贯话术,但Anthropic这次是真的硬刚,明确表示反对。更劲爆的是,五角大楼已经开始考虑终止与Anthropic价值2亿美元的合作合同。
说实话,看到这里我第一反应是:这公司是要断送自己的饭碗吗?毕竟2亿美元可不是小数目,对于一家创业公司来说,这几乎是一整年的研发预算了。
但仔细想想,又觉得这事没那么简单。
先说说背景。Anthropic从一开始就把自己定位成「AI安全公司」,他们的Slogan是「构建安全、有益、可解释的AI系统」。这跟OpenAI那种「更快更强」的风格完全不同。他们还搞了个Constitutional AI的理念,说白了就是给AI立规矩,让它知道什么能做什么不能做。
现在五角大楼想让Claude用在大规模国内监控和自主武器开发上,这跟Anthropic的企业理念完全是南辕北辙。你想想,一个标榜「安全、有益」的公司,突然发现自己的技术被用来制造杀人机器或者监控普通公民,这怎么圆得回来?
更有意思的是,根据《华尔街日报》的报道,Claude其实已经被美军用在了一次抓捕委内瑞拉前总统马杜罗的行动中。这次行动是通过Palantir实现的——这家公司本身就跟美国军方有深度合作。
这就尴尬了。一边是「我们已经用了」,一边是「我们不同意」,这种前后矛盾让人不得不怀疑:这到底是一场真正的立场之争,还是一场精心设计的公关秀?
但不管真相如何,这件事引发的讨论已经超出了商业层面。
首先是AI公司的底线在哪里。现在市面上几乎所有大模型公司都在跟政府或军方合作,OpenAI有美国国防部的合同,Google也有,Meta同样有。这种合作在技术上是双赢的——军方有钱有数据,公司有技术有人才。但从伦理角度看,这种合作总让人心里不踏实。
其次是AI监管的真空状态。到目前为止,全球范围内对AI军事应用的监管几乎为零。美国虽然搞了一些AI安全法案,但基本上都是空话,没有实际的约束力。欧盟的《AI法案》倒是相对严格,但也只能约束欧盟内部的公司。
最后,可能也是最重要的一点:我们到底需不需要一个「有道德」的AI?这个问题听起来很哲学,但实际上非常现实。如果AI可以用来杀人,那谁来为这种杀戮负责?是开发AI的工程师?是提供数据的公司?还是下达命令的指挥官?
说实话,我对这件事的看法挺矛盾。
从商业角度看,Anthropic的做法简直是在「自杀」。2亿美元的合作说没就没,这对任何公司来说都是巨大的损失。更麻烦的是,一旦被贴上「不爱国」或者「反军方」的标签,以后在美国的生存空间会越来越小。
但从另一个角度看,又不得不佩服他们的勇气。在当前这个AI军备竞赛的时代,能够坚持自己的原则,拒绝把技术用于可能危害人类的目的,这种选择本身就有它存在的价值。
可能有人会说,这不过是Anthropic的一场营销。但我宁愿相信,至少有一些人,在追求技术进步的同时,还在思考技术应该往哪个方向发展。
最后,我想说的是,这件事远没有结束。五角大楼还没正式宣布终止合作,Anthropic也在继续跟国防部沟通。但从现在的情况看,无论结果如何,这场争论都将对未来AI产业的发展产生深远影响。
作为普通人,我们或许无法直接参与这场博弈,但至少可以保持关注,保持思考。毕竟,AI技术的发展方向,最终会影响我们每一个人。
这事儿,值得继续围观。