被AI带货,张文宏回应:假消息像蝗灾一次次害人

2024-12-12 20:57   北京青年报微信公号

  最近,有网友发消息称,“张文宏是不是带货了?”

  视频中,张文宏在卖一种蛋白棒,家里的老人信以为真,已经开始下单了。

  据媒体报道,在名为“般画234”的账号视频中,“张文宏”反复介绍着一种产品,口型是他的,声音也是他的,但稍微懂点AI的小伙伴们,一眼就能分辨出,这是AI合成的视频!此外,该账号的商品橱窗截图显示,这款蛋白棒已售出1266件。

  12日晚,记者已无法在平台搜索到该账号。

  针对此事,记者联系到了张文宏医生,他表示:“这样的卖货账号不止一个,且一直在变,我多次向平台投诉但屡禁不绝。很多不明真相的老百姓、特别是有些对AI不是很熟悉的、年纪较大的市民,就很容易相信。我看购买量在不同的地方好像都有不少。我在发现这个事情后立即投诉过那个AI合成的视频,但他的账号一直在换,我最后也没有精力了。这些假的AI合成信息就像蝗灾一样,一次又一次发生,像漫天飞过来的蝗虫一样害人。事实上,从平台投诉结果来看,我觉得最终也难以解决问题。”

  除了向平台方投诉,张文宏称自己也曾考虑过报警,但对方看不见摸不到,就像幽灵一般难以描述,只能寄希望于相关部门加强监管。“报警总要有个对象对吧,现在报警报谁呢?他一天换一个账号,而且全是虚拟的,我向谁报警?所以我认为,他侵犯的是消费者的利益,我觉得相关部门应该处理。”张文宏说。

  记者注意到,12日,上海市消保委针对该事件严厉发声,表示未经当事人授权的AI合成带货行为已经构成了对消费者的欺诈,呼吁监管部门严厉处罚。

  【多知道点儿】

  学会三招识别AI“换脸换声”

  在进行视频对话时,我们可以要求对方在脸部面前,通过挥手的方式去识别实时伪造的视频。在挥手的过程中会造成面部的数据干扰,他所伪造的人脸会产生一定的抖动或闪现,或是一些其他异常的情况。

  在点对点的沟通过程中,可以问一些只有对方知道的问题,以此来验证对方的真实性。

  此外,我们还可以让对方通过按鼻子按脸的方式,观察其面部变化,真人的鼻子按下去会变形,但AI生成的鼻子不会,同样脸部也是一样的。

  值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。所以,防范AI诈骗,还是要从自身出发,做好信息保护,提高警惕。

  例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”就会更真实。

  此外,在涉及资金交易等场景下,要多留心眼,不要轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。

  来源:北京青年报微信公号(综合中国青年报、新闻坊、侬好上海、“新闻透视”微信公众号)

责编:石慧

热点新闻