实测!AI诈骗生成露脸说话视频仅需数十元 声音也能克隆 天天最新


【资料图】

近期,包头警方就公布一起利用人工智能(AI)实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。此事引起网友热议,关于AI诈骗的话题,也不得不令人重视。

而据媒体报道,当前使用AI诈骗的成本相当低,制作一套“露脸且说话”视频成本低至数十元,只需提供正面照就能生成视频,不仅眼睛、嘴巴、头会动,如果提供文字口型也能对上,一个晚上就能完工。

有商家称用照片生成一段1分钟时长的视频仅需30元左右。如果视频时间短,质量要求不高几块钱一段都可以。

其提供的宣传视频来看,AI生成的男子,不仅合成了真人语音,发声时的口型也能与其完全对应,如果用于诈骗活动,很难令屏幕面前的网友发现端倪。

对此,有律师表示,未经他人许可使用其肖像,即使不以营利为目的也侵犯肖像权。

此外,不法分子还能轻易获得诈骗受害者的个人声音信息,例如,通过盗取受害者好友的社交账号,就能从这里获取受害者的个人信息。或许之前的骚扰电话,也会暴露个人声音信息。

后续,不法分子通过AI软件合成拟真度极高的声音,甚至能通过文字输入与受害者进行语音聊天,此类新型诈骗方式,着实令人防不胜防。

关键词:

来源:快科技
编辑:GY653

免责声明:本网站内容主要来自原创、合作媒体供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

  • 相关推荐

相关词