
比“把假的当真”更可怕的,或许还有“哪怕看到真的,也会怀疑是假的”。(图由AI生成)
文| 邵楚芮
出品 | Vista天下有钱花
2026年上半年最热闹的“全网打假现场”,居然是由AI掀起的。
4月27日,多张《歌手2026》的“首发歌手”海报在社交媒体上疯传。海报上,湖南卫视、芒果TV的双台标整整齐齐地摆在左上角,节目logo、字体排版和往年官方物料如出一辙,嘉宾阵容更是集结了包括刘惜君、张韶涵在内的多位歌手,堪称“梦幻配置”。
不少网友截图转发,直呼“这季阵容稳了”,粉丝们提前蹲守话题,刷起了“期待舞台”的词条。连一些经过认证的娱乐媒体账号都跟着发了一波,默认这是官方提前泄露的物料。
图源:网络(AI生成)
但热闹没持续多久,反转就来了。湖南卫视官方微博和《歌手2026》节目组账号,当天从头到尾没有发布任何阵容官宣的物料,全网疯传的海报都是AI生成的。
而歌手们还没等到节目组通知,先在网上等到了AI给自己发的邀请。“画风确实好看,差点连我自己都信了。”歌手美依礼芽看到自己的AI海报后,在社交媒体上回应。
官方急得下场辟谣,确认这些海报“均为网友自由创作,并非官方版本”。
图源:湖南卫视歌手及美依礼芽官方微博
明星们被“假官宣”之后还能笑着回应,但网友们却嗅到了危险的苗头。就在《歌手2026》海报刷屏的前几天,整个互联网刚刚被一波又一波的“AI假截图”轰炸过。4月22日,OpenAI发布AI图像生成模型GPT-Image-2。当天,各大科技公司CEO又被“玩坏”了。
马斯克穿着外卖服,官宣加入“拼好饭”,罗永浩“发微博,表示锤子科技将收购苹果”。“以为库克真加入小米汽车了”登顶微博热搜,配的是一张高度仿真的“小米官方公告”,气得小米董事长特别助理徐洁云发了一句“乱P图不可取,可不兴这么乱开玩笑的”。
左图为AI生成(图源:网络)
荒谬的是,AI生成的图片不仅人类肉眼无法分辨,连AI自己都可能被骗。4月27日,有网友表示,自己用GPT-Image-2生成了一张中国香港身份证,并成功绕过了ChatGPT的实名验证。
一时间,社交平台上全是玩梗式调侃,有人评论“豆包,帮我做一份签证”,有人起哄“求个提示词”,还有人晒出自己用AI生成的各类证件。
图源:微博@蟑螂机长在线代驾
尽管事后有网友认为,那张“成功通过验证”的图片大概率是网友用AI生成,相关帖子也已被删除,但围观群众的担忧已经蔓延开来。不少网友提到,互联网正在变成一片巨大的“黑暗森林”,以后,每一张图可能都要先打个问号,判断是否为AI生成。
AI生图,到底进化到了什么程度?这场以假乱真的AI狂欢背后,藏着多少隐患?
01
假作真时真亦假
这段时间,不少名为“猜猜哪张图是AI生成的”帖子,出现在各大社交平台。不少人闲来无事,想着“这还不简单”,结果点进帖子才傻了眼。
一群名人开始在各种你想不到的场合“串门”。社交媒体的截图中,他们要么在某场直播里热情带货,要么发了条让人摸不着头脑的推文。像是OpenAI的CEO山姆·奥尔特曼,被编排进了抖音,“直播宣传”字节跳动旗下的AI App豆包。点进截图之前,你可能还半信半疑,点进去之后才意识到这些内容根本不存在。
AI生成
另一边,一些怀旧风照片也在刷屏。照片一般带着老式胶片机开闪光灯后出现的过曝,还有泛黄的复古滤镜,右下角还显示着拍摄日期。图中的背景,都像是直接从“80后”“90后”的童年记忆里扒下来的。
AI生成
分享日常生活的照片也数不胜数,不少看着像是手机没摆正就拍下来的。如果不是系统自带的“内容可能使用AI技术生成”标识,乍一看根本无法分辨真假。
AI生成
不过,这些照片都不是真的,而是由GPT-Image-2生成的。有些人本来只是抱着猎奇、消遣的心态,随便在ChatGPT上输入一句话试试效果。可当成品跳出来的那一刻,大多数人的第一反应都是愣住。“太像了,逼真到离谱”“彻底模糊了虚拟和现实”……在网友展示成品之后,跟着的评价大多为“震撼”“恐怖”。
不仅如此,用户在使用这款AI生图工具后发现,AI终于学会写字了,而且写得又快又准。
此前,中文一直是AI生图的致命软肋。随便找一张过去AI生成的图片,只要上面有中文,大部分都是字不成形,或是乱码连篇,像AI自创的语言。
但现在,GPT-Image-2已经能拿捏中文的各种形态了。它能生成一篇完整的书法作品,字迹工整规范,笔画流畅,甚至能模仿不同字体的风格,几乎零错漏。
图片均为AI生成,右图为GPT-Image-2生成
它也能生成各种风格的商品海报,大字主标题、小字卖点、价格促销标签、品牌logo一应俱全。海报里的宣传语排版工整、艺术字体清晰,乍一看根本不像AI生成的样图。
AI生成
而生成这些高度逼真的图片,并不需要复杂的提示词。以前用AI生图,用户得绞尽脑汁写下一大段提示词,比如“一张手机抓拍的街头照片,比例要求是4:3,人物表情自然,光线偏暗,有轻微颗粒感,背景有杂物,画面轻微倾斜”,稍微写得不够详细,生成的图片就会不及预期。
但现在,用户只要随口说一句,GPT-Image-2就能精准理解。比如我生成的“马斯克带货”图,提示词只有一句“帮我生成一张马斯克抖音直播推荐看天下杂志,和Vista看天下公众号的截图”。像是微博截图、书法作品等,如果不需要特定的场景,都只需要写一句话,GPT-Image-2就能在几分钟内生成与预期类似的较高质量图片。
AI生成
为什么AI这次能这么聪明?据官方介绍,GPT-Image-2是OpenAI首个具备“思考”能力的图像模型。在生成图像前,AI会先拆解任务,联网搜索相关信息,比如抖音直播界面,明确要生成的内容和风格。生成图片后,它还会进行自我复核,检查有没有漏洞,比如文字是否正确、细节是否逼真,确保生成的图片符合用户需求。
一套操作下来,AI已经被训练成了被甲方调教成熟的设计师。目前,ChatGPT每周图像产出已超过10亿张。
但GPT-Image-2的飞速进步也让我们意识到,“看见”不再等于“发生”,每一个像素都可以被无中生有。而当造假的门槛低到只需要一句话,倒霉的就不只是“被P图”的人了。
02
“有图有真相”的时代
已经过去
一张截图,让一家公司的股价应声下跌,资本市场开始动荡。这种在霸总短剧里才会出现的事,如今在现实生活中也发生了。
4月22日,一张冒充财联社的新闻截图在社交媒体疯传,声称金山软件旗下游戏工作室西山居将于6月31日正式解散,并整体出售给网易。
西山居互动娱乐旗下有《剑网3》等游戏,而这则新闻不仅让玩家集体破防,金山软件的股价也出现了下滑。
AI制作的假图
但这张图一开始就是假的,不仅是因为财联社并未发布新闻,还因为截图上写的解散日期,写的是不存在的“6月31日”。但能够以假乱真的文字、图片排版,依旧引发了大量讨论。
第二天,西山居关联企业珠海西山居互动娱乐科技有限公司发布《公告声明》,强调相关图片系网络谣言,西山居不存在所谓“解散”或“出售”的情况,日常经营一切正常,并将依法追究造谣、传谣主体的法律责任。截至目前,没有公开报道或官方调查指出这张图的来源。
李瑾娟律师对九派新闻表示,伪造截图中涉及的网易雷火、金山软件和财联社,若因谣言遭受利益、声誉受损,也可主张侵权损害赔偿。
一句话生成的AI图片,能让4家公司同时受伤。这并不再是“图一乐”,而是真金白银的市场损失。
图源:西山居游戏官方微博
当AI生图彻底告别“AI味”,变得和真实图片别无二致时,玩梗就渐渐变成了隐患。比如开头提及的“GPT生成假身份证,绕过GPT自身KYC验证”事件,无论事实的真假,这都表明,AI生图的水平已经达到了“非常逼真”的程度。
如果这件事是真的,说明现有的AI风控、证件核验体系存在致命漏洞,AI能轻松绕过监管。如果这件事是假的,说明AI造梗、造谣的传播能力,足以制造大范围的虚假舆论,让不明真相的人信以为真。
类似事件早在去年10月就已发生。根据媒体报道,一个犯罪集团利用AI伪造身份证,开设网上银行户口,共计诈骗金额接近两亿港币。这意味着,AI造假早已不是社交平台上的段子,而是可以出现在真实犯罪现场的工具。
图源:中国香港港岛总区刑事部
而更让人恐慌的,是AI已经把“造假”的代价直接下放到了每一个普通人身上。根据澎湃新闻报道,记者将自己的身份证上传到ChatGPT,要求用GPT-Image-2把身份证上的人脸换成库克。AI不仅成功换脸,让库克“获得上海户口”,还自动同步替换了人名、出生年月日,甚至连身份证号码中对应的出生日期编码都做了修改,整张证件肉眼几乎看不出破绽。
这让所有图片信息的真实性大打折扣。银行转账截图、聊天记录、不在场证明……这些理论上都能被一句话生成。骗家长说自己在埋头苦学?现在连“我桌上的试卷、草稿纸”的图片都能用AI配齐。
“造假”从一项“专业技术”,变成了所有人都可以一键完成的日常操作。并且,GPT-Image-2的图片均没有标注“AI生成”的水印,这进一步加大了核实和甄别的难度。而面对这些问题,OpenAI不管吗?
03
“在杂讯之中,我们仍选择听见真实”
OpenAI并非没有作为。它在每张AI生成的图里都偷偷盖了一个“出厂章”,叫C2PA。
根据OpenAI官方,通过网页版ChatGPT生成的图像,都会包含C2PA元数据,相当于一个隐形的水印。人们可以使用网站来检查图像是否由ChatGPT生成。
但官方还在后面补充了一句:“这并非万能解药。”用户只要随手截个图截屏、二次剪辑,或者修改图片尺寸,就能轻松去掉水印。也就是说,只要有人刻意造假,这种水印根本起不到任何作用。
OpenAI演示的检查C2PA元数据方法(图源:OpenAI官方)
模型本身对涉及个人隐私、版权问题的要求,也会表示拒绝。但实测发现,对于说法模糊的、不针对具体任务的伪造场景,约束较弱。
不过,目前GPT-Image-2依然有缺陷。比如,在一些小字上,它还是会生成乱码。澎湃新闻记者在实测中发现,GPT-Image-2生成的信息图会存在错误和幻觉,比如将手机官方的3种颜色加到了6种。GPT-Image-2能够检索的信息只更新到了2025年12月,所以它生成的图片在时间、具体事件上可能会有偏差。
目前,监管的完善速度无法跟上技术的进步速度。从GPT-Image-1.5更新到GPT-Image-2,OpenAI只花了4个月的时间,但AI监管规则的制定,比如中国《人工智能生成合成内容标识办法》,需要花一年及以上的时间才能正式施行。
技术与法律之间的真空地带,就是普通人要承受的代价。它可能是家里老人收到一张“孙子出车祸”的AI伪造照片,是父母转账给“医院病危通知单”上的陌生账户。只要AI生成的图片足够真,或许“总有一天,AI能骗到你”。而每一个被AI波及的普通人,都要独自承担辨别和维权的成本。
AI生成
比“把假的当真”更可怕的,或许还有“哪怕看到真的,也会怀疑是假的”。一张孩子在学校的合影、一段亲人发来的视频,或者是一份正规的政府公告……当我们的第一反应都变成“这会不会是AI做的?”,AI摧毁的就不只是某一张图的可信度,而是普通人对整个信息世界的信任。
对于普通用户,目前最有效的辨别方式,或许只有“多花时间”。天融信科技集团网络安全专家潘季明在接受央视采访时表示,需对来源不明,如过于“完美”或耸人听闻的图片保持警惕,优先信任官方信息。同时,可以使用反向搜索,初步验证图片来源的可靠性。
图源:央视新闻
AI造假只需要一秒,普通人辨别却要花10秒,甚至更久。但这或许也是这个时代留给我们的主动权,在被信息洪流裹挟之前,先停一停。
林俊杰工作室在4月24日发布的声明里,表示有人用AI合成他的巡演海报获取利益。但声明中的一句话,像是写给整个互联网的:“在杂讯之中,我们仍选择听见真实。”
联合证券提示:文章来自网络,不代表本站观点。