人工智能有可能让我们的生活变得更容易,让我们可以多任务节省时间。但它的复杂也可以用来对付我们——被其他人。
在一个越来越普遍的骗局中,坏演员是克隆的声音用人工智能拯救人们所爱的人;他们给受害者打电话,然后用这个声音以虚假的借口向他们要钱,NBC晚间新闻报道。
该媒体采访的一位父亲透露,他接到了一个他以为是女儿打来的电话,说她被绑架了,要赎金。他非常确信,在他妻子打电话给他真正的女儿之前,他拿了现金,开车去了一个聚会地点,然后发现这是一个骗局。
去年,据报道欺诈数据显示,损失同比增长30%,达到近88亿美元,有3.6万多份报告称,有人被那些假装是朋友和家人的人诈骗联邦贸易委员会。
电话诈骗犯可以从社交媒体-然后用它们来大肆破坏。
加州大学伯克利分校数字取证教授汉尼·法里德表示,人工智能语音生成软件可以破译一个人的声音不同之处——包括年龄、性别和口音——然后从庞大的声音数据库中筛选出相似的声音并找到模式华盛顿邮报。
的联邦贸易委员会敦促人们小心使用语音克隆的电话;如果你所爱的人打来的电话看起来可疑,那就挂掉电话,自己给对方打电话核实一下。