2 月 19 日消息,随着深度伪造技术(deepfake)的不断发展,人们对虚假信息、诈骗和身份盗窃的担忧日益加剧。一项最新研究显示,人们对AI工具的认知水平极低,难以有效识别深度伪造内容。根据 iProov 的一项最新研究,大多数人在区分深度伪造内容与真实内容时存在困难。该研究邀请了来自英国和美国的 2000 名参与者,向他们展示了一系列真实和 AI 生成的图像及视频。结果显示,仅有 0.1% 的参与者 —— 也就是两个人,能够准确区分真实内容与深度伪造内容。研究还发现,老年人更容易受到人工智能生成的虚假内容的欺骗。大约 30% 的 55 至 64 岁人群和 39% 的 65 岁以上人群此前从未听说过深度伪造。尽管年轻参与者对自己的深度伪造检测能力更有信心,但他们在测试中的实际表现并未优于其他年龄段。研究发现,深度伪造视频比图像更难被识别,参与者正确识别假视频的可能性比识别假图像低 36%。1AI注意到,社交媒体平台被认为是深度伪造内容的主要传播渠道。近半数参与者(49%)认为 Meta 旗下的平台,包括 Facebook 和 Instagram,是深度伪造内容最常见的来源,而 47% 的人则指向 TikTok。即使人们怀疑某个内容是深度伪造,大多数人也不会采取行动。只有 20% 的受访者表示,如果在网上遇到疑似深度伪造内容,他们会进行举报。随着深度伪造技术愈发逼真,iProov 认为仅靠人类感知已无法可靠地识别深度伪造内容,需要采用带有活体检测功能的生物识别安全解决方案来应对日益逼真的深度伪造威胁。相关内容:斯坦福大学研究:AI 在与人类对话仅 2 小时后即可“再现”其个性特征微软起诉一组织非法入侵其 AI 服务,绕过安全防护生成有害内容国家 AI 产业投资基金成立,出资额 600.6 亿元法国 AI 初创企业 Mistral 首席执行官称该公司不会出售,计划 IPO声明:内容来源公开的各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。


常见问题