人工智能生成工具日益被滥用制作深度伪造(deepfake)内容,由此引发公众安全的新一轮担忧。
随着这项技术不断进步并广泛普及,相关技术也对中心化交易所视觉身份验证系统的可靠性提出了新的质疑。
大量欺诈性视频正在社交媒体平台上传播,令社会对于新一轮虚假信息与伪造内容浪潮倍感警惕。该技术的不断滥用,正日益威胁公众安全与个人权益。
这一问题愈发严峻,全球多国政府已开始立法,认定深度伪造内容为非法行为。
本周,马来西亚与印尼率先限制公众访问由埃隆·马斯克(Elon Musk)旗下 xAI 开发的人工智能聊天机器人 Grok。相关部门表示,采取该措施的原因是担忧该工具被滥用于生成涉性及未获授权的图片。详情
加利福尼亚州总检察长 Rob Bonta 也宣布采取类似举措。他于本周三表示,相关部门正调查多起涉及真实人物的非自愿性、涉性图片案件。
“这类素材涉及女性和儿童的裸照及其他涉性内容,并被用于互联网骚扰。”Bonta 在一份声明中表示,“我呼吁 xAI 立即采取措施,防止事件进一步恶化。”
相比早期深度伪造,现有工具可根据指令动态生成内容,且可高度还原自然面部表情与同步语音。
因此,眨眼、微笑或头部运动等基础动作检验,如今已难以可靠地验证用户身份。
这项进展对依靠视觉认证流程进行用户准入的中心化交易所提出直接挑战。
基于深度伪造技术的欺诈案件已不再停留在理论阶段,金融领域内的影响愈发明显。
业界人士和科技研究者不断预警,人工智能生成的图像与视频正频繁出现在保险理赔、法律纠纷等多种现实场景中。
全球加密平台普遍采用自动化用户注册流程,若安全防护措施未能与技术同步发展,极易成为此类攻击的理想目标。(相关阅读:Web3 安全,深度伪造与技术应对)
随着 AI 生成内容日益普及,单纯依赖视觉验证的信任机制已难以满足安全需求。(延伸阅读:Pi Network 用户身份验证与交易所出金问题)
对于加密货币平台而言,最大挑战在于能否在技术不断演进的同时,及时调整防护措施,守护用户及系统的安全。