约翰Schulman曝底!AI终结炼金术,创业者迎黄金期

发布时间:2026-01-11 19:18  浏览量:2

最近AI圈热议不断,OpenAI联合创始人JohnSchulman在斯坦福大学的演讲中,分享了ChatGPT开发的核心经验,其观点颠覆了行业对算力竞赛的固有认知。

这位主导ChatGPT强化学习架构、曾任OpenAI后训练联合负责人的专家提到,后训练技术的成熟度对模型落地至关重要,若以当下对后训练的认知回溯行业发展,模型的实用化进程或可加速。

行业认知迭代

John的观点并非主观判断,而是基于ChatGPT的开发实践。

2015至2020年,AI行业确实存在“参数崇拜”倾向,大厂纷纷比拼训练数据量与模型参数规模,认为算力堆砌能直接驱动智能提升。

但John作为RLHF技术在ChatGPT应用中的核心推动者,明确指出:真正决定模型“智能感”与实用性的,是被忽视的“后训练”环节——即SFT与RLHF强化学习的精细化操作。

这就像做菜,之前行业更专注于比拼食材数量与锅具档次,却忽略了火候把控与调味技巧的核心价值。

值得注意的是,低成本模型研发实践也印证了这一逻辑:斯坦福大学等团队通过高质量微调数据集与优化训练方法,在现有基座模型上实现了推理能力的大幅提升。

虽整体性能仍难比肩顶级大模型,但证明了后训练对算力的补充价值。

不过需明确,此类尝试并未否定基座模型预训练的算力需求,仅说明后训练能提升算力利用效率,而非完全替代算力投入。

可见,此前的算力竞赛并非“无意义军备竞赛”,

但单纯堆算力确实存在局限——部分企业投入巨额成本打造的大模型,因缺乏精细化后训练,出现“空有体量、实用不足”的问题。

如今行业竞争核心已升级,从“谁有更多显卡”转向“谁能精准结合算力与数据工程、后训练技术”。

告别“黑盒训练”!

或许是洞察到行业对训练效率的需求,

John在职业选择上持续聚焦模型优化领域。需纠正的是,John离开OpenAI后,并未创办名为ThinkingMachines的公司,也未推出Tinker项目。

其职业路径为:2024年8月离开任职9年的OpenAI后,加入Anthropic负责大模型对齐工作,六个月后再次离职,加入Murati的创业项目担任首席科学家,始终深耕大模型优化与落地技术研究。

当前AI训练的“黑盒痛点”确实存在:

开发者需编写冗长脚本整合数据,投入数十万美元算力启动训练,结果却受模型复杂性影响难以预判,故障排查更是困难,类似“炼金师碰运气”的困境普遍存在。

John及行业研究者的解决方案,核心是“训练流程标准化”——将复杂的后训练流程拆分为可拆解、可调控的模块,如同把做菜步骤拆解为切菜、焯水、调味,让开发者能精准调整训练环节的关键参数,降低对顶级ML专家的依赖。

这种技术路径已在低成本模型研发中得到应用,例如通过“测试时扩展”等方法动态调控推理过程,让中小企业也能基于自身业务场景,在可控成本内开发垂直领域模型,打破大厂在算力资源上的垄断优势,激活行业创新活力。

抓准技术趋势,深耕垂直领域

未来一年,AI行业两大核心趋势逐渐清晰

:一是强化学习向“自主迭代”升级,当前人类标注数据存在成本高、效率低、认知局限等问题,下一代技术将推动AI实现自我对练、自我评估,类似AlphaZero摆脱人类棋谱的进化路径,突破数据获取天花板。

二是多模态技术走向“深度推理”,当前“图像进、文字出”的模式仅停留在表层融合,

2025年原生多模态模型持续迭代,已能结合视频、传感器数据理解物理世界,实现跨模态推理与决策。

基于这些趋势,创业者需避开三大误区

其一,不盲目卷大模型参数规模

,缩放定律虽未失效,但边际效益递减明显,重点应转向推理规模优化与数据精炼,提升算力利用效率。

二,重点布局AI工程工具赛道,

这类“铲子型产品”能解决开发者训练效率、成本控制等痛点,商业落地性强于单纯的模型研发。

其三,避开通用模型红海,

垂直领域是现金流核心——医疗、工业等场景中,依托高质量私有数据进行精细化微调,即便无需GPT-3级别的算力,也能解决实际业务痛点,实现快速盈利。