AI 智能体成为 ETHDenver 2026 的焦点,从自主金融到链上机器人,相关话题热度持续攀升。然而,随着“智能体经济”概念受到越来越多关注,一个更为棘手的问题也浮出水面:机构能否证明其 AI 系统训练所用的数据来源合规?
在众多聚焦这一难题的初创企业中,Perle Labs 认为,AI 系统的训练数据必须具备可验证的溯源链,尤其是在受到监管和高风险的环境中。Perle 致力于为机构打造可审计、具备凭证的数据基础设施,目前已累计融资 1 750 万美元。其最新一轮融资由 Framework Ventures 领投,其他投资方包括 CoinFund、Protagonist、HashKey 以及 Peer VC。官方披露,截至目前,已有超 100 万名标注者在其平台上贡献了逾 10 亿条经评分的数据。
BeInCrypto 记者在 ETHDenver 2026 期间专访了 Perle Labs CEO Ahmed Rashad。Rashad 曾在 Scale AI 高速成长期间担任核心管理岗位。本次访谈中,他就数据溯源、模型塌缩、对抗性风险等话题进行了深入解析,并阐述了为何“主权智能”将成为 AI 应用于关键系统的前提条件。
BeInCrypto:您将 Perle Labs 定位为“AI 主权智能层”。对于不太了解数据基础设施领域的读者,能否用更通俗的方式解释这意味着什么?
Ahmed Rashad:“‘主权’这个词是我们刻意选择的,背后有多重含义。
最直接的含义是掌控权。如果你是一家政府机构、医院、防务承包商,或是在高风险场景中部署 AI 的大型企业,你必须牢牢掌握支撑该 AI 系统的智能本身,而不是外包给一个无法审查、不可透明的黑盒子。‘主权’意味着你明确了解 AI 的训练数据来源、校验者是谁,并且能够给出有力证明。而现实中,大多数行业参与者目前做不到这一点。
第二层含义是自主性,即不受外界干扰。这正是美国国防部(DoD)等机构或企业在敏感环境下部署 AI 时的核心诉求。你的关键 AI 基础设施不能依赖那些你无法掌控、也无法验证以及防范篡改的数据管道。这绝不是纸上谈兵,美国国家安全局(NSA)和网络安全与基础设施安全局(CISA)都已将数据供应链风险上升为国家安全议题,并给出了操作层面的指导。
第三重含义是问责。当 AI 从内容生成扩展到实际决策领域(如医疗、金融、军事),就必须有人明确回答:智能来源于哪里?由谁验证?记录是否永久可查?在 Perle 平台上,我们的目标是确保每一位专家标注者的每一次贡献都上链留痕,无法被篡改。正是这种不可篡改性,让‘主权’二字成为现实,而非仅仅是理想。
在实际应用中,我们致力于构建一个验证与凭证层。如果医院上线 AI 诊断系统,就应能够追溯训练集中每一条数据,明确标注及验证人员都是具备资质的专业人士。这,就是我们所说的主权智能。”
BeInCrypto:您曾参与 Scale AI 的高速发展阶段,亲历重大国防合同和 Meta 投资。您从中发现,传统 AI 数据管道最容易出现哪些关键短板?
Ahmed Rashad:“Scale 是极具创造力的公司。在我任职期间,公司规模从 9 000 万美元暴增至如今的 290 亿美元。我亲眼目睹了这一切,也深入观察到数据基础设施中裂痕是如何逐步显现的。
根本性的问题在于,数据质量与数据规模往往彼此矛盾。当你正以 100 倍的速度扩张时,始终面临的压力就是追求更快、更大量的数据,更快的标注,以及更低的单标签成本。而这样做的结果就是牺牲了精准度和责任感。最终我们得到的是一个不透明的数据流程:你大致知道输入了哪些内容,也能看到部分产出的质量指标,但中间的过程却完全成了黑箱。谁负责审核的?他们真的拥有相应资质吗?标注过程是否保持了一致性?对于传统模型而言,在大规模下,这些问题几乎无解。
我还深刻体会到,人工环节几乎总是被视为成本压缩项,而很少被视为能力建设。所谓的“按件付费—优化吞吐量”模式,实际上会让数据质量持续下降,也很快消耗掉最优质的贡献者。能够为你带来真正高质量、专家级数据标注的专业人才,绝不会愿意为几分钱去参与所谓“游戏化小任务”系统。如果你想要这种级别的输入,就必须用完全不一样的方式来建设数据平台。
Perle 的核心正是基于这样的认识。数据难题并不能靠“更多人力”砸出来,而在于将贡献者视为专业人士,在系统中嵌入可验证的准入资质机制,并实现全流程端到端可审计。
BeInCrypto:你们目前已吸引了 100 万名标注员,累计标注超过 10 亿条数据。市面上大多数数据标注平台都依赖“匿名众包”模式,而你们的声誉机制到底结构上有何不同?
Ahmed Rashad:“最核心的区别在于,在 Perle,每个人的工作历史都是自己的,也是永久性的。当你完成一项任务时,你的贡献纪录、对应质量等级、以及与专家共识的对比情况,都会被写入链上,无法篡改、无法删除,更不会被他人挪用。时间积累下来,这就是一份不断增值的专业资质证明。
而在“匿名众包”模式下,个体几乎就是可互换的。他们不会在意标注质量,因为根本不存在个人声誉,每项任务之间相互割裂。这样的激励结构只会推动“最低可行”水准的完成度。
我们的模型正好相反。贡献者可以长期累积可验证的履历,平台也会认可他们的领域专长。比如,一位放射科医生能够持续产出高质量医学影像标注,他的个人档案将完整体现这一切。这种声誉不仅能够带来更高价值的任务机会、更优待遇,也能让工作本身更有意义——整体质量就此螺旋提升,因为激励机制不断反馈驱动。
我们的标注网络累计已突破 10 亿数据点。这里的“10 亿”,不只是体量数字,而是指 10 亿条都可溯源、归属明确、由真实认证用户贡献的数据。这才是真正值得信赖的 AI 训练数据基石,而单纯依赖“匿名众包”结构根本无法实现。”
BeInCrypto:模型崩塌(model collapse)在学术界讨论很多,可却很少出现在主流 AI 话题中。你认为原因是什么?我们又该对此感到担忧吗?
Ahmed Rashad:“它之所以难以成为主流话题,是因为这种危机是缓慢演变的,而非突发性的。模型崩塌指的是,AI 系统越来越多地用 AI 生成的数据进行训练,最终逐步丧失细微差别,模型变得平庸和收缩。这并不会带来某个轰动头条,而是质量长期缓慢下滑,直到严重失控才明显被察觉。
其原理其实很清晰:如今网络内容被 AI 生成内容大量占据。大量模型训练用的其实是“自己的产物”,而非真正的人类知识和经验。每一次训练循环都在放大上一轮的偏差,这形成了一个没有自然修正机制的反馈闭环。
我们应当更警惕吗?答案是肯定的,尤其是在高风险领域。当内容推荐算法出现模型崩塌,只是体验变差;但一旦发生在医疗诊断、法律推理、国防情报等场景,其后果就完全不是一个量级,原本还有一定的容错空间,也将被严重侵蚀殆尽。
这也是为什么,随着 AI 渗透关键基础设施,人类验证的数据层变得不可或缺。你必须持续引入真实、多元的人类智慧,为模型训练提供根本保障,而不能仅依赖由 AI 自动生成、再经其他模型“洗白”的数据。我们已经拥有超过 100 万名注释员,覆盖数十个领域的真实行业专家。正是这种多样性的参与,才能有效防止模型崩溃。你没法靠合成数据或单纯增加算力来解决这个问题。
BeInCrypto:当 AI 从数字环境进一步拓展到物理系统,围绕风险、责任以及开发标准方面,哪些实质性的变化将会发生?
Ahmed Rashad:最大变化就是不可逆性。语言模型生成错误答案,最多是出错、被纠正或者被举报,然后继续前进。但如果是手术机器人系统基于错误推理操作、自动驾驶汽车误判场景、无人机对误识目标发动攻击,这种错误是没有“撤销键”的。失误的代价也将从尴尬上升为灾难性后果。
这对所需标准提出了全新要求。在数字环境中,AI 通常可以“边跑边改”,允许快速进化与自我纠错。而在物理系统里,这一套根本行不通。相关系统背后的训练数据必须在部署前就经过严格验证,而不能等到事故发生后再来审计。
这同样改变了问责逻辑。在数字场景下,责任常常被稀释——模型问题?数据问题?还是部署环节?但在涉及人员伤害的物理系统领域,监管机构和法院必然会追问清楚:是谁训练的模型?用的什么数据?由谁、按什么标准完成数据验证?只有那些能给出清晰答案的企业和机构,才能获得运营许可。失去可追溯性的公司,将面临无法预料的法律责任。
我们打造 Perle,就是为了应对这一变革。所有数据都经过专家人工验证,来源真实,并可链上审计。未来 AI 将进入仓库、手术室乃至战场,底层智能必须达到全新标准。而我们的目标,就是构建这样的新标准。
BeInCrypto:目前数据投毒或对抗性攻击,对 AI 系统,尤其国家层面来说,威胁到底有多现实?
Ahmed Rashad:“这一威胁已经确凿存在,而且受到了有权获取相关机密信息的国家安全机构的高度重视。
美国国防高级研究计划局(DARPA)的 GARD 计划(AI 对抗欺骗稳健性保障)已经投入多年,专门研发 AI 系统对抗攻击防御措施,包括数据投毒。美国国家安全局(NSA)和 CISA 在 2025 年联合发布指导意见,明确警告:AI 数据供应链漏洞以及被恶意篡改的训练数据,已成为威胁系统安全的重大风险。这些并不是假设性的白皮书,而是来自相关机构的实操指导,他们不会对‘假想风险’发出警告。
AI 系统的攻击面极为广泛。如果你能入侵关键 AI 系统(例如威胁探测、医疗诊断、物流优化)背后的训练数据,就无需直接黑进系统本身。你已经能够影响它“理解世界”的方式。这既更隐蔽,也更难被察觉,相比传统网络安全入侵更具威胁。
正因为如此,Scale AI 与美国国防部 CDAO 签订 3 亿美元合同,在涉密网络部署 AI,根本原因在于政府早已认识到,敏感环境下不能使用未经验证的公开数据训练 AI。数据来源的可追溯性不再是学术问题,而是实战标准。
然而主流讨论往往忽略了一点,这绝非政府专属难题。任何在金融服务、医药研发、关键基础设施等高度竞争环境下部署 AI 的企业,都存在尚未完全识别的对抗性数据风险。威胁已经切实发生,相关防御体系仍在持续建设中。”
BeInCrypto:为什么政府或大型企业不能自己搭建这些验证层?当有人质疑时,真实的答案是什么?
Ahmed Rashad:“有些机构确实尝试过。但很快就会明白,真正的难题在哪里。
搭建技术本身其实是最简单的环节。真正的核心挑战在于网络的构建。那些经过验证和认证的专业域专家——从放射科医生、语言学家、法律顾问、工程师到科学家——并不会因为你建了个平台就自动汇聚而来。你必须主动去招募他们,为他们认证资质,设计激励机制,确保他们长期活跃,同时还要建立高效的共识机制,让他们的贡献能在大规模下发挥实际价值。这一切需要多年时间积累,而绝大多数政府机构和企业内部,往往并不具备这种能力和专业。
第二个难题在于多元性。如果由政府部门自行搭建验证网络,那么专家来源必然局限在极为有限、同质化的范围内。而全球专家网络的价值不仅仅在于认证资质,还在于视角、语言、文化背景与领域专长等多元化,这只有在真正全球化、覆盖多地区的大规模网络下才能实现。我们目前拥有超过 100 万名标注员,这不是任何一个机构靠内部力量能够复制的。
第三大难点在于激励设计。要让高质量的贡献者持续投入,必须有公开、公正、可编程的收益机制。区块链基础设施可以实现这一点,内部传统模式很难做到,例如不可篡改的贡献记录、直接归属和透明可查的支付过程。政府采购体系本身并不适合高效地实现这些功能。
对于质疑的诚实回答是:你得到的不是一套简单工具,而是覆盖全球的专家网络和经过多年打造的认证体系。真正的选择从来不是“自己搭建”,而是“直接利用现有成果”,或者冒着数据质量风险放弃这些积累。”
BeInCrypto:如果 AI 未来成为国家核心基础设施,五年后,“主权智能”层会在整个体系中处于什么位置?
Ahmed Rashad:“我认为五年后,‘主权智能’层会像今天的财务审计一样,成为不可或缺的验证环节,介于数据与实际部署之间,并具备监管背书与统一专业标准。
目前,AI 开发领域并没有类似财务审计的体系。项目方完全自行上报训练数据,缺乏独立第三方验证、专业过程认证,没人能够背书模型背后的智能是否真正达到明确标准。我们现在所处的阶段,就像萨班斯—奥克斯利法案出台前的金融业,很多环节全凭自信和自证。
但当 AI 成为关键基础设施,并全面渗透到电网、医疗、金融、国防等关键领域时,单靠信任和自证模式必然无法持续。政府会强制要求可审计性,采购流程也会把经过验证的数据来源纳入合同条件。未来的合规体系将对那些本可被验证却因疏忽而失败的模型承担法律责任。
Perle 在未来生态中扮演的就是验证和认证层的角色——它能够为模型的训练数据、参与专家及执行标准,生成不可篡改、可审计的全流程记录。五年后,这已经不仅是一种特色功能,而是基础必选项。
更广泛来看,‘主权智能’绝非仅仅是军工企业的小众课题,而是支撑 AI 在任何高风险领域可落地应用的基石。随着 AI 在更多重要场景的渗透,这一基础层的价值只会越来越高。”