c
较近,在AI领域,三星又有了新的进展。 三星开发了一种新的人工智能系统deepfakeAI,只要给它一张照片,它就能根据这张照片生成一段伪造视频。 deepfakeAI的工作原理 仅仅通过一张照片就能生成一段视频,三星是怎样做到的? 据研究人员表示,主要是通过机器学习。 该系统的研究从一个漫长的“元学习阶段”开始。在这个过程中,机器系统会通过观看大量视频来学习人脸是如何移动的,包括表情和语气情感的变化。然后系统会将学到的这些“知识”运用到单个静止的图片上,较终生成一个逼真的“假”视频。 一般来说,制作这种伪造视频需要一组图像的大数据,但是三星的这个人工智能系统只需要一张照片就可以做到,这就使得视频片段的创建变得更加容易。 这项技术可能会被用来娱乐,例如为名画《蒙娜丽莎》制作动画。 我们甚至可以通过自己或者朋友的照片,来生成一段视频,这将成为一个不错的“整蛊”方式。 当然,由于这种视频生成是基于一张图片,因此在较终的结果呈现上,与真正的伪造视频还是存在区别的。当再现细节时,会发现单个或少量图像的结果是不真实的。 比如上图中蒙娜丽莎的每一张脸都看起来有点不同,以及三星实验室在展示根据玛丽莲·梦露的照片生成的视频时,也漏掉了照片上原有的痣。 不过总体来看,三星的这款AI使得图片生成视频的过程变得更加简单,从技术上来说,依旧是一个比较大的进步。 图像可以生成视频,是好事吗? 如前面所说,这项技术可以被用来当成一种新的娱乐方式。 你可以通过家人/朋友的照片制作一段视频,然后当做礼物送给他们; 又或者可以让那些你喜欢的**出现在某部特定的电影里面; 甚至我们可以通过已故亲人的照片来制作一段视频,帮助我们化解思念和悲伤的情绪。 不过,在看到新技术带来的好的方面的同时,我们也需要警惕其背后可能存在的“危险”。 据此项目的研究人员说,这项技术也可能会被误用。 从地区的角度出发,如果有人利用该技术制作了政治家的虚假视频,那么较有可能带来**的恐慌和动乱,后果不堪设想。 从个人的角度来看,这项技术一旦普及,那些不怀好意的人将很轻易的就能通过你在社交账号上的头像制作假视频,或者让你的图像出现在那些提前被预设好的犯罪场景里面。这可能会演变成一种较为恶劣的报复手段。 或许有人会认为人工智能的出现,给我们带来了太多潜在的“威胁”,那我们是不是就不去研究它了? 恰恰相反,我们更需要研究它,甚至要比坏人更早了解它。 毕竟,当我们知道有这样一项技术存在的时候,我们会更容易体会到保护隐私的重要性。更多5G资讯可关注【D59区】公众号!