AI时代,各位大牛分成了三个站队

为什么有很多名人让人们警惕人工智能?

Posted by Agent Eric on June 14, 2025

面对人工智能(AI)的迅猛发展,全球科技界、学术界和产业界形成了多个观点鲜明的派别,主要可分为​​警示派(风险优先)​​、​​加速派(发展优先)​​和​​平衡派(发展与治理并重)

他们并不是阻止人类发展人工智能。而且,同样有很多名人支持人工智能的发展。

让我们来做顶级思维的人:

能同时接纳两种截然不同的观点,并且能维持正常行事的能力。

我们不关心究竟哪一方是正确的,而只关心他们各自都说了什么,逻辑是否自洽。毕竟,面临这样一个可能带来巨大技术变迁的事物,即便是名人,也都是在盲人摸象。既然没人能摸全一头象,不如听听其他人摸到了什么。 ​

🔴 ​​1. 警示派(Risk-Centric)​​

认为AI可能对人类构成生存威胁,呼吁严格监管甚至暂停研发:

  • ​​杰弗里·辛顿(Geoffrey Hinton)​​:AI“教父”,辞去谷歌职务以自由讨论AI风险,警告AI可能通过自主决策威胁人类生存。 ​- ​约书亚·本吉奥(Yoshua Bengio)​​:联名呼吁制定国际条约,防范AI灾难性风险 ​- ​埃隆·马斯克(Elon Musk)​​:认为AI威胁超过核武器,呼吁政府立法监管 ​​- ​​斯蒂芬·霍金​​、​​比尔·盖茨​​,担忧AI失控导致人类灭绝或大规模失业 ​​核心主张​​: “有半数AI研究者认为,AI导致人类灭绝的可能性超10%” ,需通过强监管限制技术开放。

🟢 ​​2. 加速派(Development-Centric)​​

主张全力推进AI发展,反对过度监管阻碍创新:

  • ​​杨立昆(Yann LeCun)​​(Meta首席AI科学家):认为AI威胁论夸大其词,强监管会导致巨头垄断,扼杀开源创新 ​- ​吴恩达(Andrew Ng)​​(斯坦福教授):称监管派“阻碍技术进步”,开源才是安全解药 ​- ​马克·扎克伯格(Mark Zuckerberg)​​:批评末日论“不负责任”,AI将提升生活质量 ​- ​雷·库兹韦尔(Ray Kurzweil)​​(未来学家):预言“人机共存”是理想状态,AI将扩展人类能力 ​​核心主张​​: “开放是解药,而非毒药” ,开源社区可分散技术权力,避免巨头控制。

⚖️ ​​3. 平衡派(Governance-Oriented)​​

主张在发展中动态治理,兼顾创新与安全:

  • ​​里德·霍夫曼(Reid Hoffman)​​(LinkedIn创始人):自认“绽放派”,认为AI需用于解决癌症、环保等重大问题 ​- ​中国政府与学者​​:如​​谭铁牛​​(中科院院士)强调“规避鸿沟,收获红利”,推动《新一代人工智能发展规划》 ​- ​赫伯特·西蒙(Herbert A. Simon)​​:提出“人机共存”路径,技术需与社会伦理结合。 ​​核心主张​​: “用得好,AI就是社会发展的助推器” ,需通过法规(如中国《生成式AI服务暂行办法》)引导技术向善。

这些人都是当今最顶尖的人物,每一个人的声音都能振聋发聩。我列了他们的观点,大家可以体会一下。

即便是反对派(严格来讲,他们不是反对,而是警示),也只是呼吁加强监管。而且,他们的理由也非常充分——现在,AI诈骗已经不是新闻。

而且,他们的共同点是:

  • 技术发展非常重要
  • 监管必不可少
  • 必须加强国际合作
  • 以人为本

简单来讲,他们的区别就在于,AI这条路应该如何走,是快点走,还是慢点走,以及风险如何把控。因此,我认为,这些大牛的看法并不冲突,也不矛盾。

每个人都能够,而且应该有自己的看法。我的看法是,带着警惕走着瞧。毕竟,复杂的事情,没有人能精准预测。