文字|罗一航和他的经纪人作为 Anthropic 的 AI 模型和工具的忠实粉丝,以及 Anthropic 及其创始人 Dario Amodei 的忠实粉丝,我明白为什么我如此陷入困境。因为我找到了 Anthropic 和 Dario Amodei 之间最准确的类比。一家名为 Anthropic 的公司及其创始人兼首席执行官达里奥·阿莫迪 (Dario Amodei) 就像学校里最讨厌的优等生。他是一个如此“好学生”,以至于很多同学都想打败他,而老师也并不总是善待他。他有着出色的记录并且总是获得高分,尤其是在最困难的课程(人工智能安全)中。他的作业总是按时完成,甚至主动要求额外学分(针对人工智能的强有力的监管政策),以强调其优势并压制其他学生。他对同级竞争对手(OpenAI、xAI、Google 等)同样不屑一顾、持谨慎态度,甚至拒绝在公开场合表现出团结一致(他拒绝在印度人工智能峰会上与 Sam Altman 握手)。同时,他从远处将无尽的嫉妒和恶意投射到隔壁班的尖子生(Deepseek、Kimi等)身上。同学们暗地里称他为“告密者”(经常指责其他模特不爱国、没有安全感),基本不让他做什么,不和他搞好关系,一有机会就和他对抗。虽然前校长(拜登政府)认为他可以在课堂上充当强有力的纪律制定者和线人,但新校长(特朗普政府)从第一天起就感到沮丧。他忧郁、多话、敏感、傲慢、傲慢、想法太多,除了取得好成绩之外一无是处。人类和他的新任课老师之间很快就发生了冲突。 2 月 16 日,Axios 报道称,五角大楼曾向 Anthropic 发出警告,称其将承担“成本”和威胁,最终将其标记为“供应链风险”。这个标签通常是给外国对手的,意味着所有公司与国防部合作必须证明他们没有使用克劳德。这是冲突的核心。人类已经完成了克劳德。虽然五角大楼不希望它被用来开发完全自主的武器,但它要求所有人工智能模型无条件开放给“任何合法用途”。 Anthropic 是第一家在美国敏感军事网络上部署模型的人工智能公司。该公司与国防部签订了价值 2 亿美元的合同,该合同不允许其模型用于开发自主武器。我不明白这些滑稽的动作,国防部长皮特·赫格斯也不明白。 2 月 23 日,Axios 报道称,国防部长赫格塞斯将于次日召见达里奥·阿莫迪。五角大楼官员向媒体形容这是一次对抗性会议。那天,马斯克的 xAI 和五角大楼签署了一项协议,同意“所有使用合法”条款,给 Antropic 和达里奥·阿莫代 (Dario Amodei) 打了一巴掌。达里奥·阿莫代会见美国国防部长的那天正当防务部长之际,Anthropic 的官方博客突然对中国领先的建模公司堂吉诃德这样狂暴的假想敌发起了指责。 Anthropic 声称 Deep Seek、Mini Max 和 Kimi 对 Claude 进行了“工业规模的蒸馏攻击”。然后他仔细地列出了这些数字:2.4万个虚假账户、1600万次对话交互以及“系统性挖掘核心特征”。也许Anthropic官员也理解,“蒸馏”数据在模型训练过程中很常见,并指出所谓的国家安全问题,因为“蒸馏”“非法离子消除了安全障碍,并允许模型的功能用于军事、情报和监视系统”。不,你真的关心美国的国家安全,所以你可以袖手旁观,让五角大楼发号施令。舍近求远,让中国表现出我们爱美国吗?谁在美国的后院,Ve内苏埃拉还是中国?无论如何,这就是媒体报道的内容:五角大楼和达里奥·阿莫迪之间的会面最终没有得出完整的结果。五角大楼需要灵活的工具来应对网络战战术,达利奥准备了一本充满“道德审查”和“安全调整”的手册。对中国的人为指责仿佛不值一提(多次)。如果Anthropic与该公司所追求和批评的以中文为主的模式一起被列入美国军事供应链风险清单,那将是非常有趣的。在华盛顿感到沮丧的 Anthropic 对中国的指控在硅谷遭到了不请自来的嘲笑。埃隆·马斯克最具标志性的笑话是,他指责那些将“人工智能安全”和“负责任的创新”置于其品牌核心的公司“抄袭”其他公司,并为自己的版权侵权行为支付巨额罚款。 “当你在开放的互联网上训练并且其他人向你学习时ou,我们称之为蒸馏攻击。人工智能基础设施公司 IO.Net 的联合创始人托里·格林 (Tory Green) 写道:“喜欢宣扬开放研究的实验室突然要求开放获取。”一位 X 用户创建了一个病毒式表情包,上面写着:“当你提炼时,你就在提炼。 ” ”解释了人类操纵“术语政治”的双重标准。24小时内,从硅谷到华盛顿,从西海岸到东方,人类受到双重羞辱。他在华盛顿因“太道德”而被憎恨,在硅谷因“不道德”而被嘲笑。无论它的价值如何,它仍然值得接近。华盛顿的冷面:新老敌人皮特赫格斯并不是第一个对 Anthropic 提拔德郎的“安全之路”失去耐心的华盛顿官员,拜登时代,白宫需要 Anthropic 来“平衡”雄心勃勃的 OpenAI 和 Sam Altman,同时打压马斯克。还有他的xAI,一直对拜登内阁抱有深深的不满。此外,达里奥·阿莫迪倡导的RSP框架(负责任的规模政策)、存在风险的叙述和对出口管制的激进辩护,都符合民主党政府的“预防性监管”议程。它与da完全兼容。他经常参加人工智能安全峰会,是国会听证会的特色证人,也是“负责任创新”的发言人。由于Anthropic是一个活生生的标杆,硅谷的其他AI“大佬”对AI风险重视不够,缺乏社会责任,似乎也不那么热爱美国。 OpenAI 和 Sam Altman 长期以来一直被 Anthropic 和 Dario Amodei 污蔑为“不负责任的人工智能”。且不说与拜登政府不和、天天对中国说好话的马斯克,谷歌在安全防范问题上也与拜登内阁不同步。哦。值得一提的是,SB 1047于2024年2月提出,并于2024年8月获得参议院批准,旨在强调管理重于发展,被认为是拜登内阁在人工智能发展方面的基本政策。无论这些企业家和风险投资大亨是民主党还是共和党,他们在硅谷都面临着压倒性的反对和阻力。 Anthropic和Dario Amodei先生几乎是唯一支持和推动该法案存在的人。白宫的新主人不会忘记这一点,他们的硅谷同事也不会忘记这一点。 2025年1月特朗普政府上台后,游戏规则发生了变化。 SB 1047 很快被废除,并被视为人工智能创新和发展的障碍。新政府并没有警告人类可能会失败,而是想要一种美国获胜的叙事。他们想要的是随时可以部署的人工智能武器,而不是需要道德审查的道德领袖。我们需要敏捷的机会主义者,而不是顽固的原则捍卫者。达里奥·阿莫代无法跟上变化的步伐。 2月2-3日与赫格斯的会面中,他仍在努力推动“宪法AI”和“安全合作”,据报道:克劳德将拒绝回答敏感问题、过滤有害请求、自动停止道德限制、不为武器目的合作(尽管克劳德会拒绝回答敏感问题、过滤有害请求、不为武器目的合作(尽管克劳德表示他会拒绝回答敏感问题、过滤有害请求、不为武器目的合作)。安全栏也是如此吗?而五角大楼官员则以消极现实主义回应:“我们需要工具,也不需要意识形态传道者。”与OpenAI的萨姆·奥尔特曼从早期的“军事非接触”到“军事非接触”的灵活立场相比,这种“修正”正在成为商业的障碍。积极与五角大楼合作,提供定制版本的“士气低落”。奥特曼的“无原则的机会主义”正是达里奥所鄙视的那种策略,但它正在发挥作用。当特朗普政府宣布《星际之门》时,OpenAI 是核心参与者,而 Anthropic 则被排除在外。达里奥·阿莫代很快就嘲笑该项目是达沃斯的“混乱”,但这只会强化他在新政府眼中“麻烦制造者”的形象。作为白宫人工智能政策新主人另一边的人,你已经被写在小黑皮书中了。更致命的是达里奥·阿莫迪和马斯克之间长期的公开争执。在像华盛顿这样以人际关系为主导的城市,也存在自杀念头。作为 DOGE 前任负责人,马斯克曾经拥有直接影响 AI 政策制定的权力。尽管他和特朗普现在似乎已经分道扬镳,但他在制定人工智能政策方面的影响力仍然是达里奥·阿莫迪无法比拟的。据说马斯克曾建议特鲁国会议员的过渡团队不让人类人员参与政府人工智能项目。这不是商业竞争,而是政治放逐。唯一真正需要消除的是人择。毕竟,我们无法逃脱 SB 1047 长期支持者的标签。今天,在华盛顿,人们表现出对人性和达里奥·阿莫迪的不信任。此时,在五角大楼表明原则或在官方博客上表达仇恨中国和美国的爱已经没有什么用处了。硅谷的布尔拉:别再假装了。如果说华盛顿的蔑视是冷酷的现实主义,那么硅谷的嘲讽则是热情的道德判断。人类博客领带“精炼的指控”在五角大楼充满蔑视和不信任投票的一天,明很滑稽。达里奥·阿莫迪试图充当“受害者”来博取同情,但遭到了硅谷以及美国对 15 亿美元盗版书和解协议的集体记忆,即 SB 1047 的“惠斯特”反击。leblowing”记录,以及双重“只有国家雇员有权放火。”标准。马斯克的就职典礼是最令人震惊的。这位 xAI 创始人写道,著名地发布了破纪录的 15 亿美元版权交易的屏幕截图,标题为“MISANTHROPIC”。双关语很快成为 X 的热门标签,将人性变成了不人道。HeRidiculous 并没有以 Musk 结束。Tory Green,人工智能基础设施公司 IO.Net 的联合创始人,写道:“当你在开放的互联网上训练并且其他人向你学习时,我们称之为‘蒸馏攻击’。喜欢宣扬‘开放研究’的实验室突然开始要求开放访问。” “另一位 X 用户的讽刺更为直接。 “哦不不,这是我的私有IP,谁有勇气用它来训练AI模型?只有Anthropic才有权利使用别人的知识产权。不不不,这是不可接受的!”程序员 Gergely Orosz 的一条推文呼应了开发人员的普遍情绪。 “抱歉,但人类不能让我“不要忘记 Anthropic 是如何训练克劳德使用受版权保护的书籍,并且只有在被起诉后才向权利持有者付款的。” AI社区团体对Anthropic的嘲讽主要有三点:第一是数字夸大。 24000个账户、1600万条对话的“工业规模”在中国互联网背景下只是一个中等规模的数据集合。用户(当你这样做时进行蒸馏。我们进行培训),暴露了这种双重标准。二是历史解释。在SB 1047的开发过程中,Dario Amodei是唯一公开支持硅谷主要模型公司的人。就像一个阶级叛徒在谴责全班“作弊”。这是你不变的形象。但现在他本人也因“抄袭”而被抓:Reddit 起诉 Anthropic,要求其支付 15 亿美元和解金,指控其非法窃取 10 万个帖子和 700 万本盗版书籍。当我们年轻的时候,像这样的学生被告知他们脱掉了裤子在一个角落里攻击他们。三是逻辑上的突破。将自己对公共数据的使用定义为“合理”并谴责他人为“非法”的傲慢态度在开源文化盛行的硅谷尤其令人反感。 ThePrimeagen、Teknium、Suhail 等人工智能圈的 KOL 加入了“虚伪”话题的讨论,将这种嘲讽变成了行业共识。而AI银行业的反应与其说是令人反感,不如说是羞辱:集体沉默。没有其他人工智能公司公开支持 Anthropic 的指控,甚至一些通常对中国持鹰派态度的国家安全智库也保持沉默。这并不是异议,而是“不值得认真对待”的声明。你假装是什么?谁不知道你的想法?谁不知道华盛顿鄙视他?有谁不明白为什么突然有人批评中国模范运动员?谁不知道你做了什么?人择是po在华盛顿和硅谷很受欢迎,不是因为它干净,而是因为它好玩。 “好”并不是指产品的技术能力或稳健性。这个“人择”无论如何都算不上伟大,但也不错。指班上有一个学生,对课外活动偏执、热衷,尽管他除了学习之外显然不擅长课外活动。结果,其他人不喜欢他们。 Antropic,班上的好孩子,用学生的思维(作业)来应对成人世界的权力游戏。他们试图做一些事情,比如遵守规则,遵守规则,并得到老师的认可,但他们最终都失败了。我想积极参与政治,但我不知道规则。支持 SB 1047 是一个巨大的错误。在换班的关键时刻,他用前任老师的评分标准向同学提问。结果,新老师们对这个问题感到恼火。你看到了他,同学们看到了他,都避免与他同台。人择想要获得道德资本,但发现市场需要绩效,政府需要工具,公众需要一致性。这种“安全”品牌在三个方面都失败了。克劳德的“过度否认”损害了用户体验,他的“道德审查”阻止了国防合同,他的“盗窃指控”引发了黑历史的强烈反弹。更糟糕的是身份混乱。 Anthropic 希望成为现有人工智能规则的反叛者,并将 OpenAI 视为其语音最大的敌人,但它也想成为规则制定者。他们想享有技术精英的地位,但他们也想扮演具有道德权威的十二人角色。我想参与权力游戏,但又不愿意接受游戏的污点。这种将商业竞争视为道德警察、将政治议程视为安全考虑、将自身利益视为公共利益的“可耻的虚伪”才是根本。这就是为什么Anthropic无论产品和工具有多么好用,始终会被公众和舆论圈所憎恨的原因。不是因为它不好,而是因为大家都看穿了《我比你更有道德》的尴尬表演,而表演者自己似乎并没有注意到观众快要吐了。这位成绩优异的学生拿着一本过时的规则书,试图取悦他的新老师,同时欺负班上的其他学生。教师(特朗普政府)需要的是发动战争的工具,而不是道德义务。一位同学(硅谷)记得他被指控欺诈的历史,并发现他抄袭了。他站在操场中央,大喊“有人偷了我的作业”,得到的唯一回应是远处的嘲笑。当然。单击“爱”即可。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“NetE”用户上传发布ase账户”。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。
一唱春晚,“埃尔文”就要“燃烧”冬天!数百万人涌向中央大街,交出埃赫多利区新年“最受欢迎”文化旅游答卷。