黄仁勋警告,科技行业领袖在谈论AI风险时须谨慎拿捏尺度,切勿将合理的风险提示演变为无端恐慌。
3月19日,英伟达CEO黄仁勋在被问及AI初创公司Anthropic如何能更妥善处理其与美国国防部合同纠纷时,他表示:
我们很想提醒人们这项技术的潜在风险。提醒是好事,恐吓则不然,因为这项技术对我们来说太重要了。
在这场随后以播客形式发布的小组讨论中,黄仁勋对Anthropic的使命和安全理念表示认可,但同时直言行业在表述AI风险时存在过激倾向。
他指出,支撑其立场的核心逻辑是:对美国国家安全而言,最大的AI风险并非来自技术本身,而是来自美国社会因愤怒、恐惧或偏执而放缓AI采用速度。
黄仁勋说:
它不是生物体,不是外星物种,也没有意识,它是计算机软件,说出那些极端、灾难性的论断,而背后又没有任何证据支撑,造成的伤害可能比人们意识到的更深。
与此同时,黄仁勋对Anthropic的商业前景持乐观态度,预计该公司营收到2030年有望突破1万亿美元,并认为其CEO Dario Amodei的预测过于保守。
力挺Anthropic,2030年营收或达万亿美元
尽管Anthropic正深陷与政府的纠纷,黄仁勋并未因此看淡其商业潜力。
他在讨论中表示,相信Anthropic的年营收到2030年有望超过1万亿美元,并补充称Amodei在自身预测上一向偏于保守。
这意味着黄仁勋对Anthropic的核心业务价值保持高度信心,与当前围绕该公司的政治争议形成鲜明对比。
华尔街见闻提及,Anthropic正通过法律途径全力阻击美国国防部对其作出的“国家安全供应链风险”认定。
据悉,矛盾根源在于Amodei坚持要求合同中明确禁止其产品被用于对美国本土公民实施监控,以及开发全自主武器系统。
对于上述条款要求,特朗普政府的反应强硬:将Anthropic列为供应链风险,并着手推动将其从各政府项目中剥离。Anthropic目前已就此提起司法诉讼,双方对峙仍在持续。
Anthropic是英伟达的重要客户,也是Claude系列聊天机器人的开发商。





京公网安备 11011402013531号