他们以为他们听到了他们所爱的人的声音。 他们认为这是一个人工智能骗局
Card 的经历表明,假冒诈骗在美国呈上升趋势,令人担忧。 坏演员现在可以更容易、更便宜地模仿声音,让他们说服人们,通常是老年人,他们处于危险之中。 根据联邦贸易委员会的数据,2022 年冒名顶替者诈骗在美国诈骗中排名第二,受骗人数超过 36,000 人。 FTC 官员报告说,其中超过 5,100 起事件是通过电话发生的,造成超过 11,000,000 美元的损失。
人工智能增加了新的恐怖程度,允许犯罪分子仅使用少量音频样本来模仿声音。 许多由 AI 提供支持的在线工具可以将音频文件转换为语音副本,从而使诈骗者可以“说出”他们键入的任何内容。
专家声称,联邦监管机构、执法机构和法院缺乏打击日益增长的骗局的工具。 大多数受害者无法确定肇事者,警方也难以追查其他国家诈骗者拨打的电话或资金。 法院没有法律先例要求公司对使用这些工具负责。
来源和详细信息:
https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/