不断发布优秀产品和创新,同时让每个人都可以使用它们。以用户为中心,通过优质产品和服务,让用户的生活更为精彩! 坚持”利他”文化,做对用户和社会有价值、有长期利益的事情。在产品开发过程中,保持开放的心态
<黄鳝直播官网:聚焦真实互动探索垂钓世界与自然奇观之旅>
萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
>"><火车三个人> <火车三个人>{随机干扰码}{随机干扰码}
萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
">这几天最轰动AI界的消息,莫过于强化学习之父理查德·萨顿的最新论断:大语言模型只是"世界的一时痴迷"。这位2024年图灵奖得主在新加坡国立大学的演讲中直言,当前火热的ChatGPT、Gemini等AI系统,本质上是在玩"预测游戏",而非真正的智能。这一论断无异于给LLM狂热泼下一盆冷水,也让我们不禁思考:为什么这些能写诗编程的AI,在科学家眼中却与真正的智能相距甚远?
萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
2026-03-20 20:26:29萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
">这几天最轰动AI界的消息,莫过于强化学习之父理查德·萨顿的最新论断:大语言模型只是"世界的一时痴迷"。这位2024年图灵奖得主在新加坡国立大学的演讲中直言,当前火热的ChatGPT、Gemini等AI系统,本质上是在玩"预测游戏",而非真正的智能。这一论断无异于给LLM狂热泼下一盆冷水,也让我们不禁思考:为什么这些能写诗编程的AI,在科学家眼中却与真正的智能相距甚远?
萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
2026-03-20 20:26:29萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
">这几天最轰动AI界的消息,莫过于强化学习之父理查德·萨顿的最新论断:大语言模型只是"世界的一时痴迷"。这位2024年图灵奖得主在新加坡国立大学的演讲中直言,当前火热的ChatGPT、Gemini等AI系统,本质上是在玩"预测游戏",而非真正的智能。这一论断无异于给LLM狂热泼下一盆冷水,也让我们不禁思考:为什么这些能写诗编程的AI,在科学家眼中却与真正的智能相距甚远?
萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
2026-03-20 20:26:29萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
">这几天最轰动AI界的消息,莫过于强化学习之父理查德·萨顿的最新论断:大语言模型只是"世界的一时痴迷"。这位2024年图灵奖得主在新加坡国立大学的演讲中直言,当前火热的ChatGPT、Gemini等AI系统,本质上是在玩"预测游戏",而非真正的智能。这一论断无异于给LLM狂热泼下一盆冷水,也让我们不禁思考:为什么这些能写诗编程的AI,在科学家眼中却与真正的智能相距甚远?
萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
2026-03-20 20:26:29萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
">这几天最轰动AI界的消息,莫过于强化学习之父理查德·萨顿的最新论断:大语言模型只是"世界的一时痴迷"。这位2024年图灵奖得主在新加坡国立大学的演讲中直言,当前火热的ChatGPT、Gemini等AI系统,本质上是在玩"预测游戏",而非真正的智能。这一论断无异于给LLM狂热泼下一盆冷水,也让我们不禁思考:为什么这些能写诗编程的AI,在科学家眼中却与真正的智能相距甚远?
萨顿的核心观点直指LLM的先天缺陷:它们缺乏目标导向的持续学习能力。就像鹦鹉学舌,大模型通过海量数据学会了模仿人类语言,却永远不理解语言背后的因果逻辑。当被问及"如何用微波炉加热冰淇淋"时,ChatGPT能生成语法完美的答案,却意识不到这个操作的荒谬性。这种对物理世界基本常识的缺失,暴露了纯文本训练的致命短板。
在具身认知方面,LLM的局限性更为明显。AlphaGo通过数百万次自我对弈掌握围棋策略,波士顿动力的机器人能在摔倒后自主调整姿态——这些基于环境交互的学习案例,恰恰印证了萨顿"智能源于经验"的论断。相比之下,LLM就像被囚禁在文字牢笼里的天才,即便读遍天下书籍,也无法获得婴儿通过抓握积木就能理解的力学原理。
灾难性遗忘问题更是LLM难以逾越的鸿沟。人类学习骑自行车后,这项技能终身难忘;但大模型在微调新任务时,常会"忘记"之前掌握的知识。萨顿团队开发的持续反向传播算法(Continual Backprop)通过动态重置部分神经元,在机器人控制任务中展现出持续学习优势。这种生物学启发的机制,与LLM依赖静态数据集的训练范式形成鲜明对比。
萨顿与Yann LeCun共同倡导的"世界模型"理论,或许指明了破局方向。在他们的构想中,真正的智能体应该像幼儿一样,通过感官输入建立世界的内在表征,并据此规划行动。当LLM还在纠结"天空为什么是蓝色"的文本解释时,一个具身AI可能已经通过调整棱镜角度,自己发现了光的散射现象。这种主动探索的能力,正是当前大模型最欠缺的智能基石。
业界对LLM的反思已悄然兴起。OpenAI被曝新一代GPT遇到瓶颈,谷歌DeepMind开始转向多模态具身智能研究。萨顿参与的阿尔伯塔计划正尝试打造能自主探索虚拟厨房的AI体,其最新论文显示,这种结合了强化学习的系统,在开放式问题解决上的表现远超纯语言模型。这验证了他的预言:未来AI的主战场将从文本预测转向环境交互。
站在技术演进的十字路口,我们或许该听进去这位深耕AI45年的科学家的忠告。当科技巨头们沉迷于千亿参数的军备竞赛时,萨顿提醒我们关注更本质的问题:没有目标驱动的学习只是精致的统计学,无法与世界互动的智能终将是空中楼阁。就像他获得图灵奖时说的那句箴言——真正的智能时代,要从放弃对人类数据的模仿开始。
2026-03-20 20:26:29申鹤流眼泪翻白眼流口水应用:探讨角色情感表达的深度游戏设计案例分析