近日,一则关于苹果公司CEO库克将加入小米汽车的“假官宣图”在网络上广泛传播,引发了公众对AI生成图片真实性的关注。这张看似真实的“微博截图”实际上是由最新升级的文生图模型生成,几乎无法辨别其AI痕迹,凸显了当前AI技术在图像生成领域的飞速进步。
4月21日,OpenAI发布了GPT-Image-2,标志着图像生成技术进入了一个全新阶段。此次升级重点提升了文字渲染、多语言支持和视觉推理能力,使得AI生成的图像不再局限于简单的素材拼贴,而是能够直接生成包含复杂文字的海报、菜单,甚至将真实人物融入虚拟环境,创造出以假乱真的“照片效果”。
过去,文生图模型主要依赖“理解指令后拼贴素材”的方式生成图像,在文字和图像推理方面存在明显不足,用户往往能轻易识别出“一眼假”的图片。然而,随着技术的升级,AI开始具备更强的推理能力,能够直接生成结构完整、信息丰富的图像作品,甚至可以模拟专业设计师的创作风格。
从生产力角度看,这一技术进步无疑具有重要意义。它降低了图像创作的门槛,使得不会排版或设计的人也能快速制作出菜单、海报、科普图等活动物料。对于教育、设计、商业传播等领域而言,这无疑是一次产业性的生产力提升机会。
然而,技术的进步也带来了新的挑战。AI生成图片的真实性和版权问题逐渐凸显,虚假信息的传播风险被同步放大。过去,AI造假需要一定的技能门槛,且生成的图片往往存在明显瑕疵。但如今,借助大模型的全套工具,AI可以批量生成毫无“PS痕迹”的图片,从聊天截图到广告海报,甚至文案内容,都可以“整套生成”。
当图片不仅逼真,还主动植入信息元素来诱导读者相信时,普通用户更容易放下警惕。此次“库克加入小米汽车”的乌龙事件,正是文生图工具在信息、伦理层面深度影响的初露端倪。它提醒我们,在享受技术便利的同时,也必须警惕其可能带来的负面影响。
面对这一挑战,平台应当承担起责任,将AI标识作为默认设置,而非可有可无的装饰。对于热点传播图片、名人相关图片和突发事件图片,应强化溯源和风险提示机制。同时,各方也应建立起基本的图片核验流程,避免盲目转发未经核实的图片。
技术让图片越来越“会说话”,但世界的真实性不应因此受到冲击。新的技术降低了视觉表达的门槛,这是大模型能力升级的关键进步,但也对虚假信息等问题提出了更高的要求。在AI图片泛滥的当下,重建公众的图像真实信任,比更快地将图片交付给用户更加重要。




















