摘要:2026年4月22日,OpenAI正式发布了新一代图像生成模型GPT-Image-2(官方名称ChatGPT Images 2.0)。此次升级被业界视为一次跨越,模型不仅在图像质量上登顶评测榜单,更关键的是其文字渲染准确率大幅提升至约99%,并能生成包含复杂UI界面、多语言文字、风格一致的多张图像。这意味着AI生成的图片首次从“可看”变得“可用”甚至“可信”,可直接用于设计、营销等生产环节。然而,这种强大的“以假乱真”能力,也让人们开始担忧其在制造虚假信息方面的潜在风险。
GPT-Image-2是OpenAI推出的最新图像生成模型,它被定位为从“渲染工具”到“视觉系统”的进化。与以往模型不同,它首次将推理能力融入图像生成过程,能够理解复杂指令,并输出可直接使用的视觉内容。
对于普通用户,可以通过以下方式体验或使用:
gpt-image-2
GPT-Image-2的突破并非单纯提升画质,而是在多个长期困扰AI生图的痛点问题上取得了质的飞跃。
这种能力的跃迁,正在打开全新的应用场景,同时也引发了新的社会思考。
主要应用场景包括:
潜在风险与挑战: 然而,让图片变得“可信”的能力是一把双刃剑。业界专家尖锐地指出,模型最擅长的——将精确文字嵌入可信的视觉场景——恰恰也是制造虚假信息的完美工具。它可以轻易生成:
尽管OpenAI为生成的图片加入了C2PA元数据水印以供溯源,但官方也承认,一旦图片被截图、裁剪或经过平台压缩,这类水印很容易失效,并非万全之策。这迫使社会必须开始严肃思考,在AI能够“以假乱真”的时代,如何建立新的信息验证机制和公众媒介素养。
文章来源: