
成功走向世界的,为什么
原文来源:光锥智能
作者:刘雨琦
图片来源:由无界AI生成
大风始于青萍之末,命运的偶然和必然经常会纵横交织在一起。
2019年,是整个人工智能历史上,最为晦暗的一年。继2016年AlphaGo打败李世石,2017年Tansformer架构横空出世使得技术大规模爆发,2018年的创业热潮之后。2019年,资本退潮、技术瓶颈期、场景难落地,开启了人工智能史上的“乱纪元”。
没有人知道通用人工智能何时到来,就像三体人不知道太阳会在何时升起。
那一年,大批AI公司陷入裁员风波、资金链断裂、产品难产,能坚持至今的,所剩寥寥。
但也正是在2019年,AI新的希望开始孕育:OpenAI在7月接受了微软的投资并与其深度合作,如今让世人震惊的GPT-3正是从那一年开始研发;国内最早树立AI战略的百度,从年初就开始进行了一次长达半年的人事调整,如今看来,重新排兵布阵,似乎是开启了长达4年的坚守期。
2019年,王海峰晋升为集团CTO,继续担任AI技术平台体系(AIG)和基础技术体系(TG)总负责人,两者是百度最重要的技术底座;沈抖晋升为高级副总裁,全面负责移动生态事业群,随后在2022年又调任至百度智能云,成为百度第二增长曲线的开拓者;而在2019年引进的一批新生力量中,何俊杰是唯一一名80后百度副总裁,先是负责投资并购和战略投资,后又被重用,负责沈抖空缺出来的移动生态事业群,实权更加在握。
时间来到了2023年,Transformer的能力在这一年终于由OpenAI打破了天花板,进阶到一个新的层次,技术的突破让OpenAI一举成为全世界最受瞩目的公司。微软盖过了谷歌的科技光辉。
在过去四年里,百度的核心业务形成了由沈抖领军智能云,何俊杰负责移动生态,王海峰压阵技术的三角结构,百度也终于结束了静默期,开始转守为攻,动作不断。
“重新把每个应用都做一遍”,是经历了半年蓄力后的第一次亮剑,如今的百度像一颗行星,即将遇到巨大的“技术引力场”,而彻底改变轨道。
2017年,谷歌在一篇名为《Attention Is All You Need》的论文中,提出了Transformer架构,以替代传统的RNN和CNN循环模型,论文中展示了Transformer的训练准确性高于之前所有模型,训练时间明显低于之前的模型,在训练集内容较少时训练效果也很好。
这之后,Transformer架构迅速被接受并应用在了NLP和CV领域,尤其在NLP领域,注意力机制让机器能够更准确地理解语义并生成,以及减少信息重复。
作为最早一批发现并跟进Transformer技术路线的公司,百度已经在NLP领域研究超过十年之久,并已经组成了一支由王海峰、吴甜、吴华等顶尖专家组建起来的精悍的NLP队伍。
王海峰
彼时,NLP团队成立的第一个重要任务,是打造百度翻译。王海峰将深度学习和神经网络大胆应用在翻译中,加强机器对上下文的理解,形成更流畅的译文。这一勇敢尝试也让百度翻译成为第一个支持200多种语种的翻译系统,甚至比Google还早了一年零3个月。
这也是大模型四大核心能力“理解、生成、逻辑、记忆”中,理解能力的雏形。
但王海峰觉得,NLP还不够。他专门跑到李彦宏办公室去做汇报,提出了下个“登陆的诺曼底”——语音识别。他的理由是,语音识别技术马上要到产业化的临界点,一旦突破很快就会大规模商用。
李彦宏凭借着自己对技术的判断,决定再次支持王海峰,陆续建立了与NLP部门平行的“语音识别部门”、“图像识别部门”和“知识图谱部门”。
王海峰的一通操作让很多百度的同学不解,“这些技术和百度现在的产品也没关系啊,一股脑创建这么多部门,是攒着过年么?”
彼时的王海峰,正是看到了搜索数据对于大模型形成逻辑有着非常强大的支撑。“百度有世界上最大的搜索引擎,搜索引擎不仅信息时效性很强,也有很高的准确率,可以构建最全的知识图谱”,王海峰曾在公开采访中解释道。
在打造文心一言之前,百度沉淀了拥有超过50亿实体、550亿事实的多元异构超大规模的知识图谱,能够通过语言、听觉、视觉等获得对世界的统一认知。其在2021年发布的知识增强大模型——ERNIE(文心)3.0,正是文心一言的前身,该项目由吴甜主要负责。
吴甜
免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

和全球数字资产投资者交流讨论
扫码加入OKEx社群
industry-frontier