在人工智能领域,一种鲜明的对比正日益凸显:在虚拟的对话框内,AI仿佛无所不能,三秒成诗、五秒成文,无论是天文地理还是法律医学,都显得游刃有余;然而,一旦踏入现实世界,AI的表现却常常令人失望,无论是AI玩具的答非所问,还是AI眼镜的场景识别偏差,甚至是基础的实时翻译功能,也时常不尽如人意。
如果将大模型比作AI的“大脑”,那么要让这个“大脑”真正应对现实中的复杂挑战,还需一套完整的“感知器官”和“神经系统”协同工作。这不仅仅依赖于麦克风、摄像头等传感器的可靠性,更关乎背后的数据传输效率、多模态模型的识别与生成能力、跨模态的理解与联动,以及整个端到端系统的稳定与高效。
换言之,现实世界的AI应用绝非仅凭一个“聪明大脑”就能搞定。其效能不仅取决于大模型本身,更依赖于承载它的整个系统。这标志着我们正步入一个与传统云计算截然不同的新时代,AI基础设施不再仅仅提供存储、计算和API接口,而是需要具备多模态感知、上下文理解、跨端部署等系统级能力。
当前,大型云计算厂商正加速向AI时代的基础设施转型,火山引擎便是这一趋势的先行者之一。在7月30日的厦门AI创新巡展上,相较于一个多月前的春季Force大会,火山引擎的AI基础设施能力再次实现飞跃。
此次火山引擎推出了三款全新模型,涵盖图像生成、同声传译和通用语言理解三大领域,分别是豆包·图像编辑模型3.0、豆包·同声传译模型2.0,以及全面升级的豆包大模型1.6系列。这些模型的更新,如同为AI的“神经系统”注入了新的活力。
以图像编辑模型3.0为例,图像生成与编辑是当前应用最广泛的AI场景之一,在电商广告、内容创作等领域发挥着重要作用,但也是AI最易“出错”的环节。用户期望AI能像设计师一样理解需求,如“去掉背景人群”或“将照片中的冬天换成春天”,但往往遭遇AI听不懂、改不对的问题。而新版本在指令遵循、图像保持和美感生成方面实现了显著提升,能在保持原图人物结构的同时,精准调整光影、风格、材质等细节,已能支持专业P图场景。比如,当要求AI将照片场景转换为冬天时,旧版AI可能会将整个照片覆盖上白雪,显得不真实,而新版则能呈现出更符合现实的冬景。
图像编辑模型的美感提升,不仅意味着在专业人士手中更加顺手,也意味着AI修图可以解锁更多应用场景。例如,在热门的AI眼镜/AR眼镜领域,可以开发一款基于语音交互的AI修图工具,拍摄后即可直接上传至社交软件,在眼镜端侧完成从拍摄到修图、发布的完整流程。
同声传译模型2.0则解决了多语言会议与跨境沟通中的“延迟”与“音色错位”问题。传统AI同传依赖模块级联,延迟长达8-10秒,且使用统一的机械女声输出,既慢又“出戏”。而新一代模型基于全双工实时语音框架,将延迟缩短至2-3秒,并实现“0样本声音复刻”,即AI在听用户说话的同时就能捕捉音色并生成同步译文,用“用户的声音”说出外语。这一创新使得跨语言直播、远程多人会议,以及在AI眼镜、AI耳机中的实时同传等应用场景拥有了更大的想象空间。
如果说前两款模型是“感知系统”的升级部件,那么第三款模型——豆包1.6系列的极速版Seed-1.6-flash,则是一块能够大规模部署的“神经中枢”。它兼顾低延迟、强通用能力和超低成本,特别适用于对性能要求极高的场景,如智能巡检、手机助手、家用安防等。在智能监控企业萤石的落地案例中,引入该模型后,系统时延降低了50%,成本下降了92%。
火山引擎还发布了新一代全模态向量模型Seed1.6-Embedding。该模型能将文本、图像、视频转化为统一的语义向量,实现模态间的“互相理解”。这意味着文本可以精确检索图像,视频可以被语义性标注,图文信息能共同参与知识构建与推理。同时,新模型还支持混合模态检索,使企业能够构建真正统一的多模态知识库,提升AI系统的内容理解深度和响应准确度。
这些模型的迭代升级,不仅仅是“点状功能”的提升,更像是为AI基础设施配备了更加灵敏、更加协调的“神经系统”。这使得大模型不再仅仅是一个“聪明大脑”,而是能够真实理解用户意图、快速响应场景挑战,并以可部署的方式持续工作的一整套闭环系统。
在强调模型升级的同时,火山引擎也在此次活动上提出了另一条主线:构建更加底层、更加工程化的基础设施,以支撑这些“器官”的长期稳定运行。这不仅仅是“让模型更强”,更是“让模型更可用”,真正成为企业构建AI应用的坚实底座。
火山引擎宣布开源旗下的Agent开发平台扣子,此次开源涵盖了扣子开发平台Coze Studio与全链路管理工具扣子罗盘Coze Loop,并采用Apache 2.0协议。这意味着开发者无需复杂配置即可快速搭建Agent,并完成从模型调用到逻辑编排、从部署上线到后续监控运维的全过程。同时,火山引擎的企业级Agent平台HiAgent也同步支持与扣子开源版对接,通过共享Agent标准,支持扣子开源版智能体的纳管。
在基础设施层面,AI部署过去面临的一大痛点是“算力贵且不灵活”。尤其是经过微调的企业自有专用模型,在托管至云计算平台时,大多只能以租用GPU的方式计费,相比按Tokens计费的方式缺乏灵活性,容易造成资源浪费。火山此次发布的企业自有模型托管方案解决了这一问题。企业可将自训练模型托管至火山方舟,无需自行管理GPU调度等复杂操作,甚至能按需选择部署机型与推理性能指标。在业务低峰期,系统能自动释放资源,避免为闲置资源买单,从而实现更高的资源利用效率。
火山引擎还升级了Responses API,具备原生上下文管理能力,支持多轮对话的链式管理,可以无缝衔接文本、图像、混合模态数据。结合缓存能力后,能大幅降低延迟和成本,整体成本下降幅度可达80%。