《我们与恶的距离》引发媒体反思:假新闻抢热点,机器学习能做些什么?

  除了假新闻,AI合成的视频和照片也越来越多,利用算法实现AI换脸技术已经很成熟。针对此种情况,成立于2017年的旧金山初创企业人工智能基金会(AI Foundation),他们正在开发的Reality Defender将帮助人们识别由人工智能算法生成的内容,以检测潜在的虚假媒体

  AI谣言粉碎机

  英国有一家体育媒体GiveMeSport,是一个主要基Faceboook发布体育相关的新闻,最后被人工智能公司Breaking Data 收购,目前在新闻频道的两个终端应用了AI技术,可以分析和反应片段及重大新闻报道。

  影片一开始,我们就目睹了一起抢热点的假新闻事件。多家媒体同一时间播报了一条泰国发生爆炸的消息,令宋乔安和同事感到措手不及。这条消息没有得到前方记者的证实,也缺乏官方认证,用媒体术语来说,就是不具有权威信源。但是,该爆炸性新闻自带流量,若证实有中国游客身亡,更会让它成为一条名副其实的爆款新闻。

  竞争对手们争相播报,宋乔安压力颇大,尽管没有拿到真的信源,依然硬着头皮播了这条新闻,但最终,它被证实是一条假消息。

  模型方面的研究:这方面的工作可分为特征之间的组合、预测目标的变化、对内容源、内容反馈和文章风格的限制,组合这些模型,也可通过空间变换,把特征变换到另外的latent语义空间尝试解决。

  数据方面的研究:目前还没有标准的测评数据集,需要去建立的。可以通过传播特性提前检测假新闻。

  Breaking Data

  虚假、合成的照片和视频在网络的传播,也会造成品牌和个人造成不可挽回的名誉损毁。但试图监管全球媒体数据将是一项艰巨的任务,使用AI技术任何人都可以炮制出数百万张看起来逼真的假照片。鉴于虚假图像和视频的改善速度之快,或许验证“什么是真实的”的商业模式可能更有效,也许媒体和个人很快应该拥有自己的数字指纹,可AI合成的底线又在哪?

  SemEval语义测试大赛中,根据主办方提供的过去两年社交媒体Twitter和Reddit上的近500个真实言论和1万多条相关反馈数据,阿里巴巴的人工智能技术对假新闻识别的准确率创造了新的纪录。达摩院语言技术实验室首席科学家司罗表示,“AI谣言粉碎机”未来有望帮助社交媒体的审核机构承担60%的工作量。

  与病毒防护类似,他们的工具扫描每一幅图像、视频和其他媒体,寻找已知的假象,允许你报告可疑的假新闻,并使用各种人工智能驱动的分析技术,以检测变化或人为生成的迹象。

《我们与恶的距离》引发媒体反思:假新闻抢热点,机器学习能做些什么?

  模型特征方面的研究:通过使用用户的画像特征,内容特征(NLP、CV)结合深度学习,还有传播网络特征,比如用户和内容之间的关系构造出来的网络特征,网络本身的embedding表现。