被同事AI换脸造黄谣(被换脸可以报警吗)

原创
ithorizon 3小时前 阅读数 375 #财经信息

大家好,今天小编关注到一个比较有意思的话题,就是关于被同事AI换脸造黄谣的问题,于是小编就整理了3个相关介绍被同事AI换脸造黄谣的解答,让我们一起看看吧。

  1. ai换脸属于什么标签?
  2. 声音合成、AI换脸……骗子用上AI技术,我们该如何“反套路”?
  3. 网红用AI技术换脸明星,是否构成违法?

ai换脸属于什么标签?

AI换脸可以被归类为计算机视觉和深度学习标签。具体来说,它包括如图像处理、图像识别、面部识别、神经网络等技术。这些技术结合在一起,使得计算机能够学习和理解图像,然后通过算法进行图像处理和操作,例如将一个人的脸替换成另一个人的脸。

声音合成、AI换脸……骗子用上AI技术,我们该如何“反套路”?

换脸是通过AI进行人脸识别做成的一个APP,所有的实现其实都依赖于人脸识别这个过程,首先需要一个可以清晰识别的人脸,这个其实很简单,让对方遮挡一半的面部,或者把脸转过去一半,此时面部状态缺失,面部识别失效,换脸无从谈起,肯定就露出了本来的样子。

最近,2019防范治理电信网络诈骗论坛在中国互联网大会期间举行。花样翻新的诈骗手段令人防不胜防,那么AI诈骗主要有哪些形式呢?

图片来源网络

这四种“花式”AI诈骗形式要看清!

第一种:转发微信语音

骗子在盗取微信号后,向该微信号的好友提出转账要求。为取得信任,骗子会转发之前的语音,进而获得钱款。虽然目前微信语音是不能转发的,但骗子可以通过提取语音文件或安装增强版微信(插件),实现语音转发。

中国传媒大学政法学院法律系副主任郑宁:

对于这种诈骗形式,群众只需提高警惕,直接电话联系确认。此外,在要求对方语音回复时可提出具体的要求,比如要求对方提供身份信息、说明转账原因等。

第二种:声音合成

骗子通过骚扰电话等方式,录音提取某人的声音,并对素材进行合成,用伪造的声音实施诈骗。

第三种:AI换脸

视频通话的可信度明显高于语音和电话,但利用AI换脸,骗子可以伪装成任何人。

第四种:通过AI技术筛选受骗人群

通过分析公众发布在网上的各类信息,骗子会根据所要实施的骗术对人群进行筛选,从而选出目标人群。

例如实施情感诈骗时,可以筛选出经常发布感情信息的人群;实施金融诈骗时,可以筛选出经常搜集投资信息的人群。

随着科技的进步,诈骗手法不断翻新,广大群众又该如何预防呢?

加强个人信息保护 提高警惕防范诈骗

一、多重验证

在涉及钱款时,群众要提高安全意识,通过电话、视频等方式确认对方是否为本人。在不能确定真实身份时,可将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。

此外,可以选择向对方银行汇款,避免通过微信等社交工具转账。这样做,一方面便于核实对方信息,确认钱款去向;另一方面,对方能通过短信通知得知转账信息。

二、保护个人信息

社交平台的发展加大了保护个人信息的难度,民众将越多的个人信息暴露在网络上,致使受骗的概率升高。

为避免骗子借用个人信息实施诈骗,民众应当加强个人信息保护意识,以防止骗子利用AI技术掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。

三、相互提示,共同预防

青年人要及时做好家中老人的宣传防范工作。提醒、告诫老年人在接到电话、收到短信时,只要是不认识、不熟悉的人和事,均不要理睬,以免被诱被骗。

四、拒绝诱惑

民众应当避免占便宜心理,警惕陌生人提供的好处。

那么,对于这种利用新技术的诈骗,该如何整治?

图片来源网络

充分利用人工智能 提升反诈骗精准度

专家建议:

即时通信、网络社交等平台企业应当加强账户管理,防止他人盗用用户账号及密码,建立风险提示制度,出现账号异常登录等情况时对用户进行风险提示。

利用以大数据分析和智能预警算法为基础的AI技术进行反网络诈骗。在工信部等部门的主导下,利用大数据优势,将相关数据通过反诈骗机制进行共享,进而提高反诈骗的精准度。

建立专门人工智能安全机构,制定人工智能标准,对AI技术进行管理和监督,监督AI技术在不同领域内的应用。

采取措施保证人工智能系统使用的数据被合理限制、管理和控制,以此来保护隐私权,在保护数据安全的情况下,不禁止利用AI技术造福公众。

中国传媒大学政法学院法律系副主任郑宁:

正如AI技术可以被用于诈骗,也可以被用于反诈骗。利用技术的方式不同,带来的影响也不同。因此,在面对一项技术时,不仅要关注技术本身,更要关注技术的用途,将技术用于提高生活质量。

答:人工智能在计算机领域内,得到了愈加广泛的重视。并在机器人,经济政治决策,控制系统,仿真系统中得到应用,AI人工智能现在这么火,谷歌、微软、苹果以及国内的腾讯、阿里、百度纷纷投身AI领域。

网红用AI技术换脸明星,是否构成违法?

最近AI技术成为了我们热议的话题,很多人都可以把自己的脸变成明星,特别是很多网红把自己的脸变成明星,这种行为让很多明星的粉丝感觉到不快。很多粉丝认为这种行为已经违法了,但是真的违法了吗?我个人觉得这种行为违法了,接下来我们就来讨论讨论。

AI技术造成了欺骗。很多网红通过AI技术把自己变成了当红的女明星,比如让我印象深刻的是有一段视频里面,杨幂小姐姐的脸变成了“紫霞仙子”朱茵,完全没有违和,虽然开发者再三强调这个只是为了证明科学的进步,但是这样的行为对很多大众,特别是这两个女明星的粉丝来说这是一种欺骗,对她们的感情是一种伤害。

AI技术造成虚假买卖。最近有记者在茅台镇实地调查,原来网上很火的网红酒“洞藏酒”,其实就是通过AI技术实行了“换脸”。只需要一点时间三无酒就变成了人人追捧的“网红酒”。所以AI技术造成了虚假买卖,人们的身体造成了伤害。

AI技术触犯了明星的隐私权。AI技术让人可以随便的变成明星,虽然明星是公众人物,但是明星也有隐私权和肖像权,没有经过明星本人的同意就把他们的照片什么的传到网上并且成为了谋求利益的行为,这样子是完全不可取的。很多人会说发几张明星的照片怎么呢?其实最主要的是他们的行为是有利可图,真的很不恰当。

希望AI技术可以越来越强大,越来越光明。

到此,以上就是小编对于被同事AI换脸造黄谣的问题就介绍到这了,希望介绍关于被同事AI换脸造黄谣的3点解答对大家有用。

文章标签: 被同事AI换脸造黄谣


热门