8B 参数,24GB 显存能跑,文字渲染开源第一,官方说"媲美商用模型"……
听起来很猛,对吧?
但我仔细看了看官方公告和各方资料,发现有几个地方不太对劲。
第一:谁是裁判?
官方说自己在 LongText-Bench 等 benchmark 上"全面超越同类开源模型",文字渲染能力开源第一。
但问题来了——
这些 benchmark 是谁出的?
自己测试自己,然后自己宣布自己是第一,这事儿在 AI 圈太常见了。
没有第三方独立测评机构背书的"开源第一",你信几分?
第二:24GB 显存,你认真的吗?
官方说"24GB 显存消费级显卡即可运行"。
听着很低门槛对吧?
但现在一张 RTX 4090 是 24GB,一块 4060 Ti 只有 16GB。
换句话说——
你得有一张顶级显卡,才能跑得动这个"消费级"模型。
对于很多普通用户来说,这其实一点都不"消费级"。
而且,官方只说了"能跑",没说跑多快。是 10 秒一张图,还是 10 分钟一张图?这个很关键,但官方只字未提。
第三:内测数据能信几分?
官方说他们找了"30 多家企业、社区和创作平台,20 位艺术创作设计师"内测了两周。
听起来阵容豪华。
但问题是——这是定向邀请的内测,不是公开盲测。
这种条件下的用户反馈,往往比真实公开使用的数据要好看得多。
就像相亲对象给你看的照片,永远是他最好看的那张。
第四:时机有点微妙
就在前两天,Google 刚发布 Chrome Skills,Claude 也更新了 Skills 功能。
然后百度突然就在 4月15日"毫无预兆"地开源了一个模型。
没有发布会,没有预热,直接扔 Hugging Face。
这种突然袭击式的开源,要么是真的牛,要么是……需要在某个时间节点制造一个大新闻。
4月15日,刚好是季度中期。一个开源重磅炸弹,对股价和品牌曝光的拉动效果,你懂的。
第五:国产开源图的牌桌,其实已经很卷了
文生图开源这一块,FLUX、Stable Diffusion、MiniMax 的模型都挺能打。
阿里 Qwen-Image 2.0 也刚发布不久,Wan2.7 的图片模型在业内口碑也不错。
百度 ERNIE-Image 此时入局,能不能站稳脚跟,还是只是昙花一现?
真实用户说了算,而不是官方公告说了算。
写在最后
我不是要说 ERNIE-Image 不好。8B 参数、能跑在消费级显卡上、还开源——这本身是一件好事。
但现在 AI 圈的风气是:发模型靠 PR,出评测靠自测,讲故事靠情怀。
真正上手用的人怎么说,能不能在真实项目里解决问题,这些反而被淹没在铺天盖地的"重磅发布""炸裂登场"里。
所以——
别急着喊"百度牛",也别急着骂"又来骗人"。
自己下个跑一跑,比看十篇通稿都有用。