在第五届字节跳动奖学金颁奖典礼上,字节跳动技术副总裁杨震原分享了公司自2014年以来在技术领域的探索历程。作为一位资深技术爱好者,杨震原自2014年加入字节跳动后,从搭建推荐系统起步,至今已参与公司多项重大技术突破,带领团队在多个前沿领域取得显著成果。
2014年,字节跳动在推荐系统领域设定了一个极具挑战性的目标:实现万亿级特征规模。当时,工业界最大规模的机器学习系统主要用于搜索广告,而将这套技术应用于推荐系统面临诸多难题。团队不仅需要攻克系统建模和算法优化等工程难题,还要处理存储和计算等基础设施问题。通过引入FM类算法并构建streaming training系统,团队最终实现了目标,并发现浅层神经网络在推荐场景中仍具有显著优势。
2020年,字节跳动将目光投向科学计算领域。团队认为,除了线上应用,现实世界和科学计算能够产生大量有价值的数据。在第一性原理计算方面,公司持续投入研发神经网络量子蒙特卡洛方法(NNQMC),通过神经网络表示波函数并优化计算过程,在仿真精度上达到行业领先水平。最新成果Scaling Laws with LAVA显示,增加参数数量可持续提升仿真精度,为实用化突破带来可能。
在分子动力学领域,团队通过GPU加速密度泛函分析(DFT)计算,实现1个GPU相当于500至1000个CPU核心的加速效果,大幅降低算力成本。开发的Bamboo-MLFF和ByteFF力场模型在预测分子和固体体系性质方面表现优异,其中ByteFF-Pol在无实验数据条件下预测电解液性质达到行业最高精度。这些技术已与比亚迪合作,推动AI for Science在电池材料领域的工业应用。
2021年,字节跳动收购Pico团队后,在XR领域展开双路线探索:一方面优化现有产品形态并加强内容运营,另一方面投入基础技术研发以提升核心体验。2023年,公司决定减少内容投入,转而加大技术研发投入。在显示技术方面,团队与供应商定制MicroOLED屏幕,结合微透镜技术实现单眼4K分辨率,同时保持设备轻便性。针对MR技术的眩晕问题,全链路自研专用芯片,将系统延迟控制在12毫秒左右,达到行业领先水平。
大模型领域,字节跳动自2022年开始重点布局,推出豆包AI对话助手和火山引擎大模型服务。技术层面,公司建设的大规模稳定训练系统MegaSacle使浮点运算利用率超过55%,显著优于主流开源框架。通过优化模型结构和自研服务器,公司成功降低大模型应用成本,火山引擎在中国MaaS市场占据领先地位。当前研究重点包括提升模型持续学习能力,使其能够像人类一样通过交互不断优化,以及增强模型与物理世界的交互能力,缩小在内容理解和界面操作等方面与人类的差距。



















