伟德bv1946官网-这张骗惨半个互联网的图让“眼见为实”成了一句笑话
栏目:公司动态 发布时间:2026-04-30
分享到:
  伟德国际(bevictor·1946)源自英国官方网站-   4月27日,多张《歌手2026》的“首发歌手”海报在社交媒体上疯传。海报上,湖南卫视、芒果TV的双台标整整齐齐地摆在左上角,节目logo、字体排版和往年官方物料如出一辙,嘉宾阵容更是集结了包括刘惜君、张韶涵在内的多位歌手,堪称“梦幻配置”。

  伟德国际(bevictor·1946)源自英国官方网站-

伟德bv1946官网-这张骗惨半个互联网的图让“眼见为实”成了一句笑话

  4月27日,多张《歌手2026》的“首发歌手”海报在社交媒体上疯传。海报上,湖南卫视、芒果TV的双台标整整齐齐地摆在左上角,节目logo、字体排版和往年官方物料如出一辙,嘉宾阵容更是集结了包括刘惜君、张韶涵在内的多位歌手,堪称“梦幻配置”。

  不少网友截图转发,直呼“这季阵容稳了”,粉丝们提前蹲守话题,刷起了“期待舞台”的词条。连一些经过认证的娱乐媒体账号都跟着发了一波,默认这是官方提前泄露的物料。

  但热闹没持续多久,反转就来了。湖南卫视官方微博和《歌手2026》节目组账号,当天从头到尾没有发布任何阵容官宣的物料,全网疯传的海报都是AI生成的。

  而歌手们还没等到节目组通知,先在网上等到了AI给自己发的邀请。“画风确实好看,差点连我自己都信了。”歌手美依礼芽看到自己的AI海报后,在社交媒体上回应。

  明星们被“假官宣”之后还能笑着回应,但网友们却嗅到了危险的苗头。就在《歌手2026》海报刷屏的前几天,整个互联网刚刚被一波又一波的“AI假截图”轰炸过。4月22日,OpenAI发布AI图像生成模型GPT-Image-2。当天,各大科技公司CEO又被“玩坏”了。

  马斯克穿着外卖服,官宣加入“拼好饭”,罗永浩“发微博,表示锤子科技将收购苹果”。“以为库克真加入小米汽车了”登顶微博热搜,配的是一张高度仿真的“小米官方公告”,气得小米董事长特别助理徐洁云发了一句“乱P图不可取,可不兴这么乱开玩笑的”。

  荒谬的是,AI生成的图片不仅人类肉眼无法分辨,连AI自己都可能被骗。4月27日,有网友表示,自己用GPT-Image-2生成了一张中国香港身份证,并成功绕过了ChatGPT的实名验证。

  一时间,社交平台上全是玩梗式调侃,有人评论“豆包,帮我做一份签证”,有人起哄“求个提示词”,还有人晒出自己用AI生成的各类证件。

  尽管事后有网友认为,那张“成功通过验证”的图片大概率是网友用AI生成,相关帖子也已被删除,但围观群众的担忧已经蔓延开来。

  不少网友提到,互联网正在变成一片巨大的“黑暗森林”,以后,每一张图可能都要先打个问号,判断是否为AI生成。AI生图,到底进化到了什么程度?这场以假乱真的AI狂欢背后,藏着多少隐患?

  不少名为“猜猜哪张图是AI生成的”帖子,出现在各大社交平台。不少人闲来无事,想着“这还不简单”,结果点进帖子才傻了眼。一群名人开始在各种你想不到的场合“串门”。社交媒体的截图中,他们要么在某场直播里热情带货,要么发了条让人摸不着头脑的推文。像是OpenAI的CEO山姆·奥尔特曼,被编排进了抖音,“直播宣传”字节跳动旗下的AI App豆包。点进截图之前,你可能还半信半疑,点进去之后才意识到这些内容根本不存在。

  另一边,一些怀旧风照片也在刷屏。照片一般带着老式胶片机开闪光灯后出现的过曝,还有泛黄的复古滤镜,右下角还显示着拍摄日期。图中的背景,都像是直接从“80后”“90后”的童年记忆里扒下来的。

  分享日常生活的照片也数不胜数,不少看着像是手机没摆正就拍下来的。如果不是系统自带的“内容可能使用AI技术生成”标识,乍一看根本无法分辨真假。

  不过,这些照片都不是真的,而是由GPT-Image-2生成的。有些人本来只是抱着猎奇、消遣的心态,随便在ChatGPT上输入一句话试试效果。可当成品跳出来的那一刻,大多数人的第一反应都是愣住。“太像了,逼真到离谱”“彻底模糊了虚拟和现实”……在网友展示成品之后,跟着的评价大多为“震撼”“恐怖”。

  不仅如此,用户在使用这款AI生图工具后发现,AI终于学会写字了,而且写得又快又准。

  此前,中文一直是AI生图的致命软肋。随便找一张过去AI生成的图片,只要上面有中文,大部分都是字不成形,或是乱码连篇,像AI自创的语言。

  但现在,GPT-Image-2已经能拿捏中文的各种形态了。它能生成一篇完整的书法作品,字迹工整规范,笔画流畅,甚至能模仿不同字体的风格,几乎零错漏。

  它也能生成各种风格的商品海报,大字主标题、小字卖点、价格促销标签、品牌logo一应俱全。海报里的宣传语排版工整、艺术字体清晰,乍一看根本不像AI生成的样图。

  而生成这些高度逼真的图片,并不需要复杂的提示词。以前用AI生图,用户得绞尽脑汁写下一大段提示词,比如“一张手机抓拍的街头照片,比例要求是4:3,人物表情自然,光线偏暗,有轻微颗粒感,背景有杂物,画面轻微倾斜”,稍微写得不够详细,生成的图片就会不及预期。

  用户只要随口说一句,GPT-Image-2就能精准理解。比如我生成的“马斯克带货”图,提示词只有一句“帮我生成一张马斯克抖音直播推荐看天下杂志,和Vista看天下公众号的截图”。像是微博截图、书法作品等,如果不需要特定的场景,都只需要写一句话,GPT-Image-2就能在几分钟内生成与预期类似的较高质量图片。

  为什么AI这次能这么聪明?据官方介绍,GPT-Image-2是OpenAI首个具备“思考”能力的图像模型。在生成图像前,AI会先拆解任务,联网搜索相关信息,比如抖音直播界面,明确要生成的内容和风格。生成图片后,它还会进行自我复核,检查有没有漏洞,比如文字是否正确、细节是否逼真,确保生成的图片符合用户需求。

  一套操作下来,AI已经被训练成了被甲方成熟的设计师。目前,ChatGPT每周图像产出已超过10亿张。

  但GPT-Image-2的飞速进步也让我们意识到,“看见”不再等于“发生”,每一个

  像素都可以被无中生有。而当造假的门槛低到只需要一句话,倒霉的就不只是“被P图”的人了。02

  一张截图,让一家公司的股价应声下跌,资本市场开始动荡。这种在霸总短剧里才会出现的事,如今在现实生活中也发生了。

  4月22日,一张冒充财联社的新闻截图在社交媒体疯传,声称金山软件旗下游戏工作室西山居将于6月31日正式解散,并整体出售给网易。

  西山居互动娱乐旗下有《剑网3》等游戏,而这则新闻不仅让玩家集体破防,金山软件的股价也出现了下滑。

  但这张图一开始就是假的,不仅是因为财联社并未发布新闻,还因为截图上写的解散日期,写的是不存在的“6月31日”。但能够以假乱真的文字、图片排版,依旧引发了大量讨论。

  第二天,西山居关联企业珠海西山居互动娱乐科技有限公司发布《公告声明》,强调相关图片系网络谣言,西山居不存在所谓“解散”或“出售”的情况,日常经营一切正常,并将依法追究造谣、传谣主体的法律责任。截至目前,没有公开报道或官方调查指出这张图的来源。

  李瑾娟律师对九派新闻表示,伪造截图中涉及的网易雷火、金山软件和财联社,若因谣言遭受利益、声誉受损,也可主张侵权损害赔偿。

  当AI生图彻底告别“AI味”,变得和真实图片别无二致时,玩梗就渐渐变成了隐患。比如开头提及的“GPT生成假身份证,绕过GPT自身KYC验证”事件,无论事实的真假,这都表明,AI生图的水平已经达到了“非常逼真”的程度。

  如果这件事是真的,说明现有的AI风控、证件核验体系存在致命漏洞,AI能轻松绕过监管。如果这件事是假的,说明AI造梗、造谣的传播能力,足以制造大范围的虚假舆论,让不明真相的人信以为真。

  类似事件早在去年10月就已发生。根据媒体报道,一个犯罪集团利用AI伪造身份证,开设网上银行户口,共计诈骗金额接近两亿港币。这意味着,AI造假早已不是社交平台上的段子,而是可以出现在真实犯罪现场的工具。

  而更让人恐慌的,是AI已经把“造假”的代价直接下放到了每一个普通人身上。

  根据澎湃新闻报道,记者将自己的身份证上传到ChatGPT,要求用GPT-Image-2把身份证上的人脸换成库克。AI不仅成功换脸,让库克“获得上海户口”,还自动同步替换了人名、出生年月日,甚至连身份证号码中对应的出生日期编码都做了修改,整张证件肉眼几乎看不出破绽。这让所有图片信息的真实性大打折扣。银行转账截图、聊天记录、不在场证明……这些理论上都能被一句话生成。骗家长说自己在埋头苦学?现在连“我桌上的试卷、草稿纸”的图片都能用AI配齐。

  “造假”从一项“专业技术”,变成了所有人都可以一键完成的日常操作。并且,GPT-Image-2的图片均没有标注“AI生成”的水印,这进一步加大了核实和甄别的难度。而面对这些问题,OpenAI不管吗?

  OpenAI并非没有作为。它在每张AI生成的图里都偷偷盖了一个“出厂章”,叫C2PA。

  根据OpenAI官方,通过网页版ChatGPT生成的图像,都会包含C2PA元数据,相当于一个隐形的水印。人们可以使用网站来检查图像是否由ChatGPT生成。

  但官方还在后面补充了一句:“这并非万能解药。”用户只要随手截个图截屏、二次剪辑,或者修改图片尺寸,就能轻松去掉水印。也就是说,只要有人刻意造假,这种水印根本起不到任何作用。

  但实测发现,对于说法模糊的、不针对具体任务的伪造场景,约束较弱。不过,目前GPT-Image-2依然有缺陷。比如,在一些小字上,它还是会生成乱码。澎湃新闻记者在实测中发现,GPT-Image-2生成的信息图会存在错误和幻觉,比如将手机官方的3种颜色加到了6种。GPT-Image-2能够检索的信息只更新到了2025年12月,所以它生成的图片在时间、具体事件上可能会有偏差。

  目前,监管的完善速度无法跟上技术的进步速度。从GPT-Image-1.5更新到GPT-Image-2,OpenAI只花了4个月的时间,但AI监管规则的制定,比如中国《人工智能生成合成内容标识办法》,需要花一年及以上的时间才能正式施行。

  技术与法律之间的真空地带,就是普通人要承受的代价。它可能是家里老人收到一张“孙子出车祸”的AI伪造照片,是父母转账给“医院病危通知单”上的陌生账户。只要AI生成的图片足够真,或许“总有一天,AI能骗到你”。而每一个被AI波及的普通人,都要独自承担辨别和维权的成本。

  一张孩子在学校的合影、一段亲人发来的视频,或者是一份正规的政府公告……当我们的第一反应都变成“这会不会是AI做的?”,AI摧毁的就不只是某一张图的可信度,而是普通人对整个信息世界的信任。对于普通用户,目前最有效的辨别方式,或许只有“多花时间”。天融信科技集团网络安全专家潘季明在接受央视采访时表示,需对来源不明,如过于“完美”或耸人听闻的图片保持警惕,优先信任官方信息。同时,可以使用反向搜索,初步验证图片来源的可靠性。

  AI造假只需要一秒,普通人辨别却要花10秒,甚至更久。但这或许也是这个时代留给我们的主动权,在被信息洪流裹挟之前,先停一停。

  林俊杰工作室在4月24日发布的声明里,表示有人用AI合成他的巡演海报获取利益。但声明中的一句话,像是写给整个互联网的:“在杂讯之中,我们仍选择听见真实。”