035|假新闻逼顶尖学者辟谣,视频会议换脸被骗巨资,请小心这四类AI骗局

伙伴们,快刀广播站又开始广播了。

首先插播一条重磅消息,咱们AI学习圈又上线了一门教程课,是邱娜老师主讲的《如何用Kimichat快速写教案》。邱娜老师有13年英语教学经验,近半年一直在研究用AI怎么辅助教学。如果你是老师,我特别推荐你去看一下,只要花上20分钟,就能轻松提高备课效率。其他感兴趣的朋友也可以关注下,邱老师给的写作指令有很强的参考性,千万别错过。

好,开始今天正式的广播内容。

最近一段时间,AI领域的进展很快,无论是机器人、大模型,还是文生视频,都有很多新消息。但有白就有黑,AI消息漫天飞,也出现了不少让人瞠目结舌甚至是愤怒的负面新闻。

今天我就带大家看几个近期引人注目的AI骗局,也借这个机会给大家提个醒。AI真正影响到我们的工作和生活,还有很长的一段路要走,我们积极关注和学习就可以了,千万不要因此而焦虑,更不要因此掉入别人的陷阱。

第一类AI骗局:传播虚假消息

AI发展涉及各个层面,比如技术、投资、落地应用等等,所以各个群里或者是公众号上的AI内容也越来越多。但是阅读这些内容,需要我们具备基本的技术“鉴别”能力。一大批浑水摸鱼的标题党为了争抢流量,现在已经毫无底线了。

最新的案例就是AI科学家谢赛宁,他之前在Facebook人工智能研究院担任科学家,现在在纽约大学担任助理教授。他的一大代表作是跟前同事何恺明一起提出了ResNeXt网络。但就是这样一位科学家,前段时间也被迫出来发朋友圈辟谣。

原因是某无良自媒体发了一篇文章,题目叫《震惊世界的Sora发明者之一,是毕业于上海交大的天才少年谢赛宁》。就这篇文章,让谢赛宁“人在家中坐,王冠天上来”。谢赛宁不得不紧急辟谣说,Sora和自己没有一点关系。自己莫名其妙成为了自媒体争抢流量的工具。

谢赛宁在辟谣时也说,现在的信息传播技术让每个人都有了超能力,做到了信息平权,但是如何能不被人恶意利用,不变成某些人、某些组织牟利和操纵的工具,是需要一整套监管方案的。

这类骗局其实还比较好辨别。大家以后在看新闻时,不要只信一个人或者一个账号说的话,可以进行多方印证。如果消息牵涉到工作或者是财务决策,那就更要多方寻找靠谱的信息来源。现在的搜索引擎和翻译工具如此方便快捷,不可能出现了一个重大突破,其他媒体都不报道,只有一个不知名的公众号发文章,那这背后肯定存在猫腻。

第二类AI骗局:无良卖课

我这几天看到最离谱的新闻就是,Sora发布当天,已经有人开卖相关的培训课程了。但要知道,现在全世界有权限体验Sora功能的人,都不会太多。99%的人估计都跟你我一样,属于路边的看客,只是看了一些发布的精选视频而已。既然大家都没有用上,那这些所谓的培训课程能教什么东西呢?

当然,我也在一些群里看到,有人狡辩说,Sora培训课其实是从视频的指令词里总结经验,会教如何写出优美的指令,并不是骗人。看到这里的时候,我就想起那个电梯的段子,说一个人在电梯里做俯卧撑,一个人在电梯里用头撞墙,然后别人问他们怎么上来的,一个人说是靠自己努力做俯卧撑上来的,一个说是靠自己努力撞墙上来的。其实呢?跟他们努力没有半毛钱关系。

而在这个案例里,这种没有经过验证的经验就好像电梯里的俯卧撑一样,也许看起来很努力,其实没有什么用。至少在短时间内,Sora还不会开放申请,除非你相信一个OpenAI年薪百万美金的科学家,或者全球顶尖视频艺术家,会为了你的99块钱学费,花时间教大家写指令。

对于这种骗局,我建议大家关注掌握技能本身,而不是夸大的效果宣传语。例如我们看到两个课程标题,A是《教你如何用AI写出生动的小红书文案》,B是《教你如何用AI写出月入十万的小红书文案》,后者大概率不靠谱。

第三类骗局:深度伪造色情图或者暴力图

今年1月底,一大批由AI合成的著名歌手泰勒·斯威夫特的照片在网络上疯狂传播,被冠以“霉霉色情图片集合”“霉霉劲爆照”的标题,预估浏览量超过了千万次。其实在这次霉霉事件之前,深度伪造技术就已经在色情及周边产业被使用,很多色情网站也会用大批量的伪造图片来吸引付费会员。

去年美国新泽西州一所中学几十名女学生的照片,就被篡改称色情图片大肆传播。西班牙也有同样的例子,中学生发现被合成的“自己的裸照”在流传。国内也有人利用一些社交媒体上别人晒出的自拍等图片,生成一些露骨的色情图片,用来牟利。

现在,这类事件发生的频率之所以更高,很大一个原因就是AI技术的快速发展。前几年还需要非常专业的技术人员才能掌握的“换脸”技术,现在只要下载相关的应用,就可以做到一键换脸了。

这类事件一方面需要监管机制的完善,另一方面,如果我们身边出现了这种事情,最基本的底线是做到“不信谣不传谣”,不传播任何可能对他人造成伤害的照片或者视频,必要时要第一时间寻求警方帮助。

第四类AI骗局:AI诈骗

现在AI语音技术发展飞快,只要一句话就可以生成几乎和真人混淆的声音。也不仅仅是声音,现在从图像到语音到视频都可以在AI的帮助下以假乱真。

最近这段时间,中国香港就发生了一起涉案金额巨大的诈骗案件。一名跨国公司的香港分公司职员,收到了公司英国总部CFO发来的信息,说要进行机密会议,然后邀请几名财务人员进行多人视频会议。因为在视频会议里,其他人都露脸了,而且就是和现实中的同事一样的容貌,这个职员一共被骗转账两亿港币。后来调查发现,诈骗者其实是通过公司在各个地方的公开视频,成功仿照了英国总部高层的形象和声音,再加上视频,营造了大家一起开视频会的假象。其实整场会议里,只有那个职员自己是真人。

视频会议造假都这么逼真了,那语音、电话这种只靠音色辨认的方式,再加上一个比较惊悚的消息,例如撞车了、心脏病犯了、送急救室了、被绑架了,让人很难去花精力辨认这个声音是不是真实的。前几年流传过一句话叫“无图无真相”,而现在呢,就是有视频了,你也不能百分之百保证有真相。

对于这类AI诈骗,我们需要时刻保持警惕,因为坏人最终还是要诱骗我们把钱转到某个账户上去,只要牢记任何时候都不给陌生人转账,大部分骗局都可以识破。

对于年龄稍大的我们的父母长辈,特别容易被这种诈骗消息忽悠,因为他们关心则乱,担心孩子的情况,所以就会在骗子的引导下一步步转账。

我们可以提前做一些事情,例如平时经常给他们普及这种诈骗和防骗新闻,提高老人的警惕性。另外还可以约定几个接头“暗号”,例如骗子打电话说你被车撞了人事不省,老人可以反问“你看看他右耳朵后面有没有痣”。如果骗子就用你的音色编小故事来骗钱,老人就可以追问你的小学语文老师叫啥,或者之前家里养的猫叫什么名字。反正就是可以用一些只有你们俩才知道的相处细节来确认消息的真实性。

当然,解决老人被AI诈骗的最根本的方法,还是我们自己多跟家人联系和沟通,让骗子没有可乘之机。

今天我给大家分享这四类AI骗局,也是想告诉大家,AI技术就是工具。在我看来,世界上不存在正义的或者邪恶的技术,最重要的还是这技术掌握在谁的手里,用来做什么事情。如果你平时也关注到了一些跟AI有关的骗局,欢迎你分享出来,告诉更多的人,让大家都提高警惕性。

今天的快刀广播站就到这里了,明天咱们接着聊AI。

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top