快来看(硅谷的诞生地)硅谷有了自己的鲁迅!AI大佬LeCun连续暴走,从马斯克到OpenAI,全被怼了个遍,乐享资源网,

新闻稿:责任编辑源自于QQ社会公众号硅星人Pro(ID:Si-Planet),译者:周三笑,许可值班员之家转发正式发布。

当地时间 5 月 26 日,特斯拉旗下的人工智慧孵化器公司xAI宣布完成B轮 60 亿美元股权融资。主要的投资者包括 Valor Equity Partners、Vy Capital、Andreessen Horowitz、Z200资本等。

xAI2023 年 7 月份成立,不到一年时间估值已达 240 千万美元,是OpenAI( 800 千万美元)三分之一。股权融资总额也仅次于OpenAI和Anthropic,正式迈入大数学模型第一八一队。xAI目前已经正式发布了Grok1(已开放源码),Grok-1.5(长语句认知和高级推理能力)Grok-1.5V(xAI第一款多逻辑系统大数学模型)。

另外,特斯拉还计划在 2025 年秋季建成一座“INS13ZD超级工厂”为xAI提供INS13ZD支持,预计将使用 10 万多块英伟达H100 GPU。

但特斯拉的风头却很快被一个人“抢走了”。这人就是机器学习之父、诺贝尔奖得主、Meta首席人工智慧生物学家Yann LeCun。

在xAI股权融资消息披露之后,特斯拉顺势在X上正式发布了一条xAI招工控制技术人员的贴文:“假如你相信我们的使命是认知宇宙,并且需要最严苛地知行合一,不顾及受欢迎度或政治精确性,那么请重新加入xAI。”

然后Yann LeCun就出来唱反调了,语气毫不留情:

他果不其然迅速回应了特斯拉的招工帖子:“假如你能忍受这样的老板娘,请重新加入xAI:宣称你已经开始研究的小东西下月就能解决(毫无压力)。宣称你已经开始研究的小东西会毁灭所有人,必须停止或中止(哇, 6 个月的假期!)。宣称要‘最严苛地知行合一’,但在他他们的SNS网络平台上散布疯狂的论调。”

LeCun的文章是在嘲讽特斯拉此前的论调。今年三月份,特斯拉宣称通用人工智慧将在下月到来,以及特斯拉上周在“欧洲科技创新展览会”上重申的这一预测,并认为AI有10-20%的可能性会炸毁人类的论调。

而“六个月的加班”指的是特斯拉等人曾在去年 3 月正式发布要求中止AI开发 6 个月的请愿书说。Lecun在当时就对此表示抵制:“今年是 1440 年,天主教呼吁中止使用铅字和活字印刷机 6 个月。想象一下,假如平民获得书籍,会发生什么?他们可以他们阅读圣经,社会就会被炸毁。”

最后,这位“AI传奇人物”还嘲讽了特斯拉在X网络平台上撷取未经证实的论调行为。

在文章区特斯拉和LeCun继续“ED500”,双方言词都相当激烈:

果不其然网友问LeCun为什么不创办他们的AI公司,而要留在Meta还喷别人。

LeCun回复说我是生物学家,不是商业或产品应用领域的人士。

特斯拉灵魂拷打:那过去五年你在“自然科学应用领域”都做了啥?

LeCun说他们“发了 80 篇Paper”还带上Scholar网页。

特斯拉继续回怼:“这算啥,你太懈怠了,你得临津江起来啊。”

LeCun也不退让:“说的你好像是我老板娘。”

LeCun还反驳了那些轻视自然科学论文看法,作为“传递函数网络之父”,他譬如说传递函数数学模型(ConvNets)这一在 1989 年由自然科学论文引入的控制技术,已经成为当今几乎所有驾驶辅助系统的核心组成部分。

他进一步强调,控制技术奇迹并不是尚佩县的,而要建立在多年甚至数十年的学术研究基础之上的。学术研究的想法和成果通过控制技术论文的形式被撷取出来。没有这种自然科学信息的共享,控制技术进步将会大幅放缓。

在AI市场监管问题上,LeCun和特斯拉的看法也不一致,前者一直抵制过分市场监管AI,主张AI的发展性和creates,抵制过分的市场监管限制,两人这次也在这个话题上再次交锋。

LeCun在X上表示目前无需过分担忧AI风险问题,进行市场监管也为时过早。

特斯拉回复:准备好被市场监管吧。还配上了一个笑哭的表情。LeCun则阴阳了特斯拉一句:你对“不要训练超过10^26flops的数学模型”感到高兴吗?

这是指拜登去年 10 月签署的关于人工智慧的行政命令,要求使用具有10^26 FLOPS能力的数学模型的公司向美国政府报告基础数学模型训练运行和部署的计划,而特斯拉一直在积极呼吁要立法人工智慧市场监管。

句句扎心,LeCun简直成了矽谷他们的鲁迅。

1

Lecun:AI末日论者都别跑

而这也不是这位矽谷鲁迅第一次在互联网上和人针锋相对。

他时常因其直言不讳的风格在网上引发了讨论和争议,尤其是关于AI安全。LeCun对AI末日论持有明确的抵制态度,并且对开放源码和人工智慧的未来持乐观态度。

LeCun多次在公开场合和访谈中表示,AI毁灭人类的概率为零,认为 AI 末日论是无稽之谈。并且LeCun似乎会主动找机会,“喷”任何持AI末日论看法的人。

在Geoffrey Hinton携手一众大神关于AGI风险治理的新闻稿,Lecun没有署名,并且直接在X上点名了Sam Altman和DeepMind的Hassabis等人,认为他们试图通过游说市场监管来巩固他们的行业地位,阻碍开放AI推进。

最近一段时间热议的OpenAI超级对齐团队人员离职,引发对AGI安全问题的隐忧的事件中,LeCun也没有缺席。

果不其然OpenAI首席生物学家兼联合创始人Ilya Sutskever在宣布离职,同一天,“超级对齐”团队的另一名负责人Jan Leike也宣布离开了OpenAI,并表示OpenAI在过去的几年里安全文化和流程被抛到了一边,让位于打造产品,OpenAI必须成为一家安全第一的AGI公司。

特斯拉随后进补了一刀:言外之意就是说安全并不是OpenAI的首要任务。

LeCun也再次出来唱反调,表明了他对AI安全问题的立场:

在LeCun对Jan Leike对回复中,他表示当前对AI安全担忧的紧迫感是过分夸张的,类似于在涡轮喷气发动机发明之前,急于解决跨洋飞行的安全问题。所以也难怪OpenAI会边缘化对齐团队。

在他看来,当前的AI还不如猫智能,我们首先需要设计出比家更聪明的系统。并提到,就像飞机控制技术的发展一样,智能系统的进化需要多年时间,应该通过反复的工程改进逐步提高其智能和安全性,而不是过分担忧未来可能的风险。

关于AI安全和治理问题,Yann LeCun此前与另一位人工智慧先驱Yoshua Bengio在网上也进行过激烈辩论。LeCun呼吁信任人工智慧可靠性的AI生物学家和工程师发声,而Bengio强调开放源AI网络平台的潜在风险,以及安全和治理的重要性。两人的辩论反映了AI研究者之间对AI潜在风险、现有安全措施的有效性和未来发展路径的重大分歧。

LeCun认为,与其想象灾难性的场景,不如专注于设计安全的AI系统。他相信,通过正确的设计和工程方法,AI系统可以变得安全和可靠。他认为已经有大量的资金投入到确保AI系统安全和可靠的工作中,这表明行业内对AI安全的重视和努力。LeCun强调,AI的设计初衷是为了增强人类智能,而不是造成伤害。他不同意将AI系统比作武器的看法,认为这样的类比是不恰当的。

1

大语言数学模型无法通向AGI,不要浪费时间

虽然Meta推出了开放源码大型语言数学模型Llama,但Yann LeCun作为Meta的首席人工智慧生物学家及FAIR(Facebook AI Research)负责人,对LLM的不看好却是尽人皆知。

他最近还直接对学生喊话:假如你对下一代人工智慧系统感兴趣,不要研究大型语言数学模型。

在近日与英国《金融时报》的一次访谈中,他抵制依赖不断发展的 LLMs 来追求人类级别的智能,因为这些数学模型只有在被输入正确的训练数据时才能准确回答问题,因此“本质上是不安全的”。

谷歌DeepMind还花了几年时间寻找构建AGI的替代方法,包括强化学习等方法,其中人工智慧代理在类似游戏的虚拟环境中从周围环境中学习。

所以他转而专注于一种根本性的替代方法,已经开始努力开发一个全新的AI系统,希望这些系统能够为机器提供人类级别的智能,尽管他表示这一愿景可能需要 10 年才能实现。

LeCun认为,LLM的自回归性质(根据之前的单词预测下一个单词)从根本上限制了它们实现真正智能的能力。他主张联合嵌入预测架构 (JEPA) 作为一种更有前景的AGI方法。LeCun还批评了当前对基于文本的学习的关注,认为需要观察物理世界并与物理世界互动,以建立对规划和推理至关重要的全面世界数学模型。

他强调感官输入以及与物理世界的互动对于发展真正的智力的重要性。他指出,接受过大量文本数据训练的LLM缺乏像人类和动物那样推理、计划和认知世界的能力。LeCun建议未来的人工智慧系统需要:

1、结合感官输入以更深入地了解世界。

2、与基于文本的学习相比,以更高的带宽处理信息(例如,人脑以每秒约 20 兆字节的速度处理视觉信息)。

3、立足现实,拥有经验知识,展现常识推理。

李飞飞近日和斯坦福哲学教授Etchemendy在《时代(Time)》上刊载文章,指出当前控制技术路线无法制造有感知能力的AI,该文章也得到了LeCun的转发支持。

尽管Llama最初是由LeCun领导的FAIR开发的,但现在已经转交给了专注于控制技术和产品开发的GenAI部门,FAIR则专注于更长远的目标:开发能够达到人类智能水平的新AI架构和方法。

许多人认为Yann LeCun喜欢发表一些争议论调,但更重要的背景是目前AI未来发展中产生的问题。作为人工智慧应用领域最知名的人士之一,Yann LeCun在某种程度上有义务站出来,为这个充满争议的应用领域提供一些清晰的见解。

LeCun说,实现AGI不是一个产品设计问题,甚至不是一个控制技术开发问题,在很大程度上是一个自然科学问题。

假如这个说法是成立的,那么在通往探索AGI的道路上,显然我们需要更多他这样的“鲁迅”。

(举报)

© 版权声明
喜欢就支持一下吧
点赞10赞赏 分享