2025年,Shengliang Lu等人发表了“AI Applications in Web3 SupTech and RegTech: A Regulatory Perspective ”了一文,该报告指出在Web3技术和虚拟资产崛起的推动下,数字领域正在...
2025年,Shengliang Lu等人发表了“AI Applications in Web3 SupTech and RegTech: A Regulatory Perspective ”了一文,该报告指出在Web3技术和虚拟资产崛起的推动下,数字领域正在经历一场变革性的转变。这一互联网技术的新阶段利用了分布式账本技术和智能合约,同时促进了去中心化、提高了透明度并减少了对中介机构的依赖。这些创新在塑造去中心化金融(DeFi)方面至关重要。然而,Web3技术的迅速普及也带来了重大风险,一系列备受瞩目的失败案例和系统性漏洞凸显了这些风险。阿布扎比全球市场(ADGM)通过其金融服务监管局(FSRA),建立了一个透明且与国际标准接轨的先进监管框架,从而营造了一个有利的监管环境,保障了利益相关者的利益。本白皮书探讨了将人工智能(AI)融入监管技术以加强合规监控和风险管理。白皮书详细介绍了新加坡国立大学亚洲数字金融研究所、ADGM金融服务监管局以及ADGM学院研究中心的研究与开发工作。白皮书最后总结了主要发现,并提出了未来的合作方向,以期进一步完善监管格局。中国人民大学金融科技研究所对研究核心部分进行了编译。
随着Web3技术引领互联网技术的进步,数字领域正在经历快速转型。Web3技术建立在分布式账本技术(DLT)和智能合约之上,强调去中心化,提高透明度,并减少对中介机构的依赖。包括区块链在内的分布式账本技术为交易和数据提供了安全、不可篡改的账本,而智能合约则促进了无需中介的自动化协议。这一组合为去中心化应用(dApps)的发展提供了支持,尤其是在去中心化金融(DeFi)领域,这些应用正通过点对点互动重塑金融交易。全球加密货币市值已超过3万亿美元大关,可与包括苹果和微软在内的一些全球最大公司相媲美。加密货币用户群已显著扩大,仅在2023年就增长了34%,从1月的4.32亿增至12月的5.8亿。这一增长凸显了加密货币在全球金融格局中日益增长的采用率和融合度。此外,数据显示,阿拉伯联合酋长国(UAE)在加密货币采用方面领先全球,其超过30%的人口(约300万人)拥有数字资产。这反映了该国对金融科技的前瞻性接纳及其成为主要金融科技中心的雄心。
ADGM在快速演变的金融格局中扮演着关键角色。作为监督该国际金融中心和自由区金融服务的机构,ADGM金融服务监管局(FSRA)一直走在前沿,致力于营造一个不仅支持DeFi和虚拟资产(VA)增长,也支持金融服务领域更广泛数字化转型的监管环境。自2018年推出以来,FSRA已为虚拟资产建立了一个全面的监管框架,并对其进行了持续优化。该框架在支持创新的同时,确保了强有力的监督并与国际标准保持一致。通过拥抱数字化转型,ADGM与Hub71等技术生态系统合作伙伴以及新加坡国立大学等研究机构紧密合作,推动在ADGM内部采用尖端的技术解决方案。这种积极主动的方法有助于将阿布扎比定位为那些寻求利用先进技术和数字金融模型的金融公司的首选目的地。
为进一步增强其监管能力,ADGM金融服务监管局正在利用监管科技(RegTech)和监督科技(SupTech)的进步来简化监管与监督流程。通过由人工智能驱动的合规科技解决方案,FSRA可以提供更具互动性和定制化的监管互动,使在ADGM内运营的实体的合规工作更高效、更便捷。实施由人工智能赋能的监督科技工具有助于支持FSRA的监督和风险管理目标,同时降低金融机构的成本。这些举措共同彰显了FSRA的使命,即提供一个透明、高效和先进的金融环境,不仅保障客户、投资者和行业参与者的利益,也促进ADGM的可持续增长与创新。
监督科技(SupTech) 是指应用技术来增强监管当局的监督和监察职能。它涉及使用数据分析、人工智能和自动化等先进工具,以改进对受监管活动的监控和监督,以及监管框架的执行。监督科技旨在为监管者提供更有效、数据驱动的洞察,使他们能够更好地实时识别问题、评估风险和执行法规。
合规科技(RegTech) 是指利用技术为企业简化、自动化和改进监管合规流程。它利用人工智能、机器学习、自动化和数据分析等创新工具,帮助公司更有效地满足监管要求,降低合规成本,并增强透明度和报告质量。合规科技旨在简化复杂的合规任务,如监控交易、识别风险以及确保遵守法律标准。
由Web3技术特性引发的新风险,例如Terra(LUNA)等区块链协议的失败,以及智能合约中新出现的漏洞,都凸显了建立有效监管框架和风险管理策略的必要性。区块链技术的创新性和去中心化特性为新型欺诈和系统性失灵提供了温床,这些问题必须得到解决,才可能实现更广泛的应用。作为应对策略之一,ADGM正在探索将人工智能应用于监管和监督技术解决方案,以改进合规监控和风险管理。新加坡国立大学亚洲数字金融研究所(NUS AIDF)在人工智能技术领域开展金融科技研究,为预测性分析、异常检测和自动化合规提供工具。FSRA正在测试和验证这些人工智能技术,以满足有效监管和监督Web3与虚拟资产生态系统的新兴需求。本白皮书总结了NUS AIDF和ADGM(包括FSRA和ADGM学院研究中心)在应用人工智能技术以支持Web3和虚拟资产领域的监管与监督活动方面的研究与开发工作。
由于本文面向更广泛的读者,不旨在提供具体定义,读者应注意,“虚拟资产”、“Web3”、“区块链”、“DLT”和“网络”等术语在文中可互换使用。尽管如此,第二部分对一些术语进行了解释。
本文的其余部分结构如下。第二部分介绍了本文的背景和范围,第三部分讨论了监管者利用人工智能技术的潜在机遇。第四部分探讨了正在塑造监管行动和活动的人工智能创新。第五部分考察了由NUS AIDF和ADGM开展的试点项目,展示了这些创新的实际应用,例如智能合约评估、安全审计和由人工智能驱动的尽职调查。第六部分对本文进行总结,归纳了研究发现,并探讨了未来方向和可用于加强监管格局的潜在领域。
本节旨在解释本文中使用的关键术语,为读者更好地理解后续章节的讨论奠定基础背景。
虚拟资产(Virtual Asset)。FSRA的监管框架将数字资产分为不同类别,其中也包括法币参考代币和数字证券。虚拟资产是一种价值的数字化表示,可以进行数字交易,并作为(1)交换媒介;和/或(2)记账单位;和/或(3)价值储存手段,但在任何司法管辖区均不具有法定货币地位。虚拟资产(a)既非任何司法管辖区发行或担保,其上述功能仅通过虚拟资产用户社群内部的协议实现;并且(b)区别于法定货币和电子货币。Web3代表了互联网的下一次演进,从“读”(Web1)和“读-写”(Web2)向“读-写-拥有”(read-write-own)的能力过渡。与Web2的中心化平台不同,Web3利用区块链技术,赋予用户对其数据、数字资产和在线互动的真正所有权。这种去中心化的范式减少了对中介机构的依赖,促进了更大的用户自主权和隐私,同时重新定义了个人与数字平台的互动方式。
分布式账本技术(DLT)和区块链网络。DLT是一种用于记录资产交易的数字系统,其数据同时存储在多个站点或节点上。与传统的中心化数据库不同,DLT是去中心化的,无需中央权威机构,从而增强了透明度和安全性。网络中的每个参与者都维护一个同步的账本副本,从而降低了单点故障的风险。区块链是DLT的一种特定类型,它将数据组织成加密的区块,然后按时间顺序链接形成一个链条。这种结构确保了记录的数据变得不可篡改。虚拟资产通常建立在区块链网络之上。在Web3中,DLT和区块链网络通过实现安全、透明的交易,为DeFi平台和去中心化应用(dApps)提供动力。
去中心化金融(DeFi)。DeFi是指建立在区块链和DLT之上的金融生态系统,它能够实现点对点的交易和服务,而无需银行或金融机构等传统中介。DeFi应用利用智能合约——区块链网络上的自执行程序——来自动化和执行借贷、交易和投资等金融操作。
人工智能(AI)。广义上,人工智能定义了一系列技术的集合,这些技术使机器或系统能够像人类一样理解、学习、行动、推理和感知。人工智能系统利用算法、数据和计算能力来不断适应和改进。近年来人工智能工具的激增,为金融业将其能力整合到各种用例中提供了可能性。人工智能带来了显著的好处,包括提高运营效率、加强监管合规、提供个性化金融产品以及先进的数据分析能力。FSRA早在2022年就发起了一项名为“开放监管”(OpenReg)的倡议,旨在使监管内容机器可读。该项目使合规科技公司和数据科学界能够利用这个人工智能训练场,来构建下一代由人工智能赋能的合规科技解决方案。
在本文中,作为FSRA将人工智能技术融入其监督方法的持续进程的一部分,我们详细阐述了针对Web3监管行动/活动采用人工智能进行合规科技和监督科技的实践。在此过程中,我们考虑了金融稳定理事会(FSB)近期发布的报告中提供的宝贵见解、欧盟《人工智能法案》中概述的监管原则,以及“心智熔炉项目”(Project MindForge)开发的风险框架。
由于区块链技术、智能合约以及Web3创新的速度等独有特性,Web3的监管框架与传统法规相比存在一些细微差异。在全球范围内,近期对Web3的监管重点主要集中在虚拟资产及其交易平台。这包括执行反洗钱(AML)措施,例如整合“了解你的交易”(KYT)解决方案和实施“转账规则”(Travel Rule)要求;为稳定币发行人建立审慎性指引;以及最近对DLT基金会和去中心化自治组织(DAO)等去中心化无主实体的监管。这些建立监管框架和施加保障措施以保护客户和投资者的努力,表明了对虚拟资产和Web3日益广泛的接受度。从金融监管者的角度审视Web3和虚拟资产的内在特性时,必须(但不限于)考虑以下几点:
» 它们在极少人工监督下,通过在DLT上自执行的智能合约实现全天候(24/7)持续运行;» 由于智能合约编码中的漏洞、潜在的攻击利用以及对去中心化网络的依赖,安全风险加剧;» 引入了“新”概念,这些概念要么利用区块链创新对现有传统金融框架进行改造,要么提出完全没有历史先例的新颖理念。» Web3的去中心化特性确保了交易和智能合约的不可篡改性,增强了信任和透明度,但也使得处理“胖手指”失误、黑客攻击或意外后果等错误变得具有挑战性。
监管Web3活动带来了一些挑战,这使得创新的监管方法和开发新工具以增强监督监控和执行能力成为必要。然而,这些挑战也为塑造Web3生态系统更美好的未来提供了重要机遇。
快节奏的创新与风险识别。Web3技术的创新性质和快速步伐,使得及时识别和缓解新兴风险变得充满挑战。这种动态环境要求监管流程和框架具备更高程度的响应能力,以确保监管机构保持敏捷,能够有效地识别、评估和应对潜在风险。
响应能力的差距增加了欺诈和市场失灵的可能性。然而,这些监管挑战也为“从零开始”构建框架创造了机会,允许整合能够随时间推移而调整的前瞻性原则。这可以鼓励发展适应Web3独特性的高效商业模式,最终培育一个既符合监管目标又促进行业增长的稳定而充满活力的市场。人工智能可以通过快速识别监管规则手册中的改进点,以迅速响应Web3的发展,从而在促进相关问题的调查和监管框架的构建中发挥作用。
先进的实时风险监控。在Web3生态系统中进行有效的风险监控,需要能够实时分析海量区块链数据的先进工具。鉴于DLT和智能合约的24/7持续运行,传统的时点式(point-in-time)监管方法往往难以处理交易所产生的数据量和复杂性。因此,监管机构迫切需要开发更复杂的分析工具。实施持续监控系统和自动化风险管理工具有助于监控法规遵循情况,从而能够对潜在威胁做出主动响应。
司法管辖区的复杂性。Web3活动的去中心化特性常常给监管方法带来跨司法管辖区的挑战。由于每个监管机构对虚拟资产的治理方法可能不同,公司可能会发现,在多个、有时甚至是相互冲突的监管要求下保持合规既困难又昂贵,从而增加了进行监管套利(regulatory arbitrage)的倾向。由人工智能驱动的合规科技工具有可能帮助公司简化和管理这些复杂性。通过自动化日常合规任务、识别重叠的监管要求、更有效地适应新规则以及协助监管报告流程,人工智能可以降低成本和运营负担,最终使公司更容易满足不同的监管期望。在接下来的章节中,我们将探讨在多种场景下使用人工智能为监管流程带来的益处。
4. 人工智能创新
人工智能技术的发展经历了重大进步,改变了各行各业的运营与创新格局。在Web3和虚拟资产(VA)领域,人工智能有潜力极大地提升监管监督与合规效率。本节概述了新兴的人工智能技术,并探讨了人工智能创新将如何重塑Web3的监管环境。首先,本节将简要介绍广泛使用的人工智能模型(我们仅简要阐述在监管领域有广泛应用潜力的模型),随后探讨在监管活动中采用这些人工智能技术的用例。在考虑未来发展的可能方向之前,我们还将讨论利用人工智能所面临的主要挑战。
4.1 新兴的人工智能技术
机器学习(Machine Learning, ML)。机器学习是人工智能的一个子集,专注于基于数据做出预测或决策。机器学习算法擅长分析大量的交易数据,以检测预示欺诈活动或合规问题的模式与异常。通过运用监督式、非监督式和强化学习技术,机器学习模型能够随着时间的推移不断适应和改进,为监管机构提供了强大的工具,以在无需持续人工监督的情况下提高监控效率和准确性。
自然语言处理(Natural Language Processing, NLP)。自然语言处理专注于使计算机能够理解和处理人类语言(即文本)。通过从海量文件和通信中自动提取和分析关键信息,自然语言处理可以为监管审查和评估带来效率。先进的自然语言处理模型在理解和生成类人文本方面取得了重大进展,可用于自动化回应监管机构和公众的问询。然而,自然语言处理技术可能存在误解和偏见的潜在风险,因为模型可能无法完全考虑到因文化或社会规范而异的语境或语气。若在没有人为干预的情况下采用这些技术,此类挑战可能导致不正确的监管回应或行动。
生成式人工智能(Generative AI)。生成式人工智能是指能够基于现有数据生成新内容(例如文本、图像和其他媒体)的人工智能技术。然而,自然语言处理技术可能存在误解和偏见的潜在风险,因为模型可能无法完全考虑到因文化或社会规范而异的语境或语气。若在没有人为干预的情况下采用这些技术,此类挑战可能导致不正确的监管回应或行动。
人工智能代理(AI Agents)。人工智能代理是专门的生成式人工智能模型实现,能够通过预设的工作流程执行复杂任务,例如自动化客户服务交互、生成法律和监管文件,甚至代表人类操作员进行虚拟协商。在监管领域,生成式人工智能和人工智能代理有许多潜在应用。例如,受监管实体可利用它们来自动生成详细的定期或按需合规报告。监管机构也可以利用此类人工智能技术来分析大量的监管申报数据,并生成一份潜在违规和风险指标的候选清单。然而,与自然语言处理技术固有的局限性类似,当前主要基于大语言模型(LLM)的生成式人工智能模型,由于可能出现“幻觉”和语境误解,其输出的准确性和可靠性存在局限。
通用人工智能(General AI)。通用人工智能是指能够执行人类可以承担的任何认知任务的高度自主系统。与专为特定内容创作任务设计的生成式人工智能不同,通用人工智能的特点是其多功能性和在没有预先特定编程的情况下适应广泛场景的能力。虽然仍处于概念阶段,但通用人工智能可以促进高度自适应的监管监督和合规管理系统,这些系统能够以极少甚至无需人为干预的方式,自主适应新的法规和复杂的法律合规要求。
4.2 Web3监管领域的人工智能解决方案
本节我们探讨如何在Web3监管领域应用不同类型的人工智能技术,以应对监控、执法和合规管理方面的挑战。我们将这些技术分为两大类:使用弱人工智能(Narrow AI)的应用和使用生成式人工智能的应用。请注意,弱人工智能是指为执行特定任务并在有限约束下运行而设计的人工智能系统。它们也被称为“专用人工智能”或“弱人工智能”。
监管报告工具。由人工智能驱动的监管报告工具可以自动化收集、提交和分析监管申报表及认证报告。这些系统利用先进的数据挖掘和处理算法,从庞大的数据集中提取和组织信息,以促进无缝的监管报告。除了报告自动化,执行预测性分析的人工智能工具还可以帮助受监管实体识别风险因素,从而减少潜在的合规失败。例如,人工智能可用于监控和预测可能妨碍遵守流动性和资本义务的财务风险。
风险画像(Risk Profiling)。专门用于风险画像的人工智能系统,可以根据虚拟资产或金融实体的风险特征和适用的监管要求对其进行分析和分类。这些系统能够评估历史表现、市场行为和外部因素,以维持一个动态的风险画像。通过不断从新数据和监管更新中学习,这些人工智能画像工具可以使画像与不断演变的金融格局保持同步。
了解你的交易(Know Your Transaction, KYT)。利用图分析和图神经网络(GNNs),由人工智能驱动的KYT和异常检测系统可以专门设计用于监控和分析区块链网络上的账户和交易。通过利用人工智能检验复杂区块链交易流的能力,受监管实体将能更好地识别高风险交易和账户,并改进执行反洗钱(AML)要求的措施。虽然现有的KYT解决方案主要基于规则,但行业参与者正在整合人工智能技术,例如使用模式识别进行钱包聚类和跨链资产流分析。
财务风险评估。在传统金融领域,人工智能模型已被用于现金流预测和流动性管理。在DeFi中,平台运营商和用户可以采用人工智能模型,通过分析和预测去中心化交易所及借贷平台内部和之间的流动性风险,来更有效地管理流动性。这些模型可用于监控交易量、代币储备和用户行为,以便在潜在的流动性短缺变得严重之前识别它们。此类模型提供的预警和可操作的洞见不仅对向消费者提供服务的金融机构有用,也对监督这些服务的监管机构有用,有助于维护DeFi生态系统的稳定与信心。
自动化合规检查。由生成式人工智能执行的自动化合规检查,可以通过解读不同司法管辖区的各种法律框架,彻底改变企业遵守法规的方式。这类人工智能工具将涉及复杂的语义分析,以理解监管文本、法院判决、解释性函件和其他相关监管出版物的细微之处。这项技术可以在新法规通过时实时动态更新其监管数据库和算法,使企业能够迅速适应监管变化。实施此类人工智能监管工具,将使公司能够比以往更高效、更经济地实现对本地和国际法规的遵守,从而显著降低其遭受处罚和法律挑战的风险。生成式人工智能模型对于Web3和虚拟资产服务提供商(VASP)来说也是宝贵的工具,它们可以加速编写白皮书、章程以及为客户服务创建聊天机器人等手动任务。其他新兴的人工智能工具有助于加快保持信息披露的更新与合规,以及确保通信和营销材料保持在允许的监管范围之内。这些发展代表了该行业向更高效率和更强监管依从性转变的潜力。
智能合约审计。智能合约审计利用生成式人工智能来剖析和分析跨多个平台和编程语言的智能合约的逻辑和功能。先进的大语言模型(LLM)可以促进对复杂代码逻辑的详细审查,以识别与现有法律框架的不一致性、漏洞和合规问题。这些人工智能系统可以从过去的审计中学习以提高其诊断准确性,为开发人员和监管机构提供强有力的支持,以验证智能合约的安全性与法律合规性。下一节将进一步扩展探讨为探索此类应用而进行的试点项目。
市场情绪分析。生成式人工智能可用于分析来自社交媒体、论坛和新闻媒体的大量非结构化数据,以评估公众对市场状况或特定资产的情绪。通过解读语言和检测情绪变化,此类工具可以预测潜在的市场动向,从而为希望响应市场趋势的交易者和投资者,以及监控市场操纵行为的监管机构提供警示。
4.3 人工智能实施中的挑战
为实现有效和可靠的成果,为监管监督部署人工智能系统需要应对一系列挑战。我们审视了一些关键问题,如伦理与隐私问题、人工智能偏见的缓解,以及提高模型行为透明度的需求。解决这些挑战对于建立在监管流程中使用人工智能的信任至关重要,尤其是在需要采取监督行动和判断的场景中。在监管领域部署人工智能引发了显而易见的伦理和偏见问题,需要审慎关注。伦理准则对于确保能够深刻影响个人生活的人工智能决策保持公平和有效至关重要。训练数据或算法中固有的偏见可能导致偏颇的结果,使某些群体处于不公平的劣势,从而破坏监管的公平性和有效性。清晰披露数据如何被使用、处理和共享,对于促进问责制和在利益相关者之间建立信任是必要的。此外,依赖人工智能来解读其受监管实体提交的大量数据的监管机构,应确保有措施让人工智能能够解释使用了哪些数据以及如何使用这些数据得出结论。如果缺乏数据使用的透明度和充分的决策过程可追溯性,受监管实体可能会质疑影响他们的决策的可靠性,并使他们与其监管机构之间的关系变得紧张。
人工智能系统需要访问大量数据,这引发了重大的隐私问题。这些系统可能会无意中暴露敏感信息或滥用数据,导致潜在的泄露或未经授权的访问。对此类数据的收集、存储和处理必须受到严格的数据保护措施的约束,以保障个人隐私权。在监管领域,人工智能响应的完整性易受“提示词攻击”(prompt hacking)所带来的挑战影响。用户可能有意识或无意识地提供误导性输入,从而影响模型的决策矩阵,进而影响输出的质量和可靠性。应对这些漏洞需要先进的实时监控工具,以有效分析和缓解潜在的恶意提示。人工智能生成响应的精确性和能力可能会助长用户的过度依赖。人工监督仍然是必要的,以防止对人工智能系统的过度依赖,并确保对人工智能能力的审慎利用。
4.4 未来方向
先进人工智能技术的整合预计将影响未来法规的制定、监控和执行。我们预见到预测性分析和决策方面的潜在进步,以及可能改变监管活动的新兴技术。预测性分析的进步可能会重塑由人工智能驱动的监管和监督方法。这些进步不仅能实现主动的,而且能实现预防性的监管方法,即在潜在的合规问题和监管违规行为发生之前进行预测。可以训练机器学习算法来预见欺诈活动或违规行为之前的异常。这使得决策者能够在潜在问题升级之前解决它们,从而提高监管干预的准确性和及时性。诸如量子计算和先进神经网络等技术创新,有望扩展人工智能系统的分析能力,使其能以更高的复杂程度处理和解读复杂的监管数据。例如,量子计算可能以前所未有的速度处理大规模计算,从而促进更详细和全面的评估。先进的神经网络可以从更多样化和复杂的数据集中学习,提供以前无法获得的细致入微的洞见。与此同时,人工智能伦理和治理方面的理论进步,正在为指导这些技术在公认的社会价值观和法律标准内运行的框架发展提供信息。随着这些技术和框架的发展,它们将有助于催生更有效、更高效、更公平的由人工智能驱动的监管工具。
5. ADGM 的人工智能创新试点(与新加坡国立大学 AIDF 的联合工作)
阿布扎比全球市场(Abu Dhabi Global Market,ADGM)与新加坡国立大学亚洲数字金融研究院(Asian Institute of Digital Finance,NUS AIDF)在应对快速演进的 Web3 领域所带来的风险与监管挑战方面具有共同目标。为此,双方自 2022 年起开展联合试点项目,研究可用于改进区块链应用与虚拟资产(Virtual Assets,VA)安全审计流程的人工智能技术。试点利用创新型 AI 技术分析审计日志、回溯历史安全事件,以识别模式并为潜在脆弱点提供洞见。本节介绍三个试点,展示 AI 在推进对 VA 及其服务提供机构的监管评估方面的潜力。
5.1 试点一:基于 AI 的智能合约适配性评估
5.1.1 引言
智能合约是区块链技术的基础组件,可在去中心化平台上安全地自动执行协议与交易。鉴于其在区块链应用中的重要性,有必要对其代码库进行全面评估与验证,以确保按预期运行并满足监管标准。本节介绍首个试点项目:一个由 AI 赋能的智能合约适配性评估平台。
5.1.2 既有解决方案与服务提供方
当前的智能合约验证实践结合了人工评估与先进技术工具,旨在排查潜在漏洞并提升效率。包括 CertiK、Trail of Bits、Halborn、Hacken 等领先服务商,综合采用静态与动态分析以及人工主导的形式化验证等方法,对智能合约在网络攻击与性能问题方面进行评估与加固。随着 Web3 技术进入受监管行业,智能合约验证的范式亟需扩展。除技术层面的脆弱性外,当智能合约被用于自动化受监管活动时,其审计还应涵盖对相关监管要求的合规性检验。
5.1.3 AI 驱动的评估
本试点通过两种方法,分析智能合约代码与 VA 白皮书之间的一致性关系。
基于 LLM 的校验器方法(LLM-Based Validator Method)。该方法使用专有 AI 模型分析智能合约代码与其对应 VA 白皮书之间的对齐程度。训练数据准备首先从广泛使用的智能合约代码库中抽取条款与规范,并按不同项目类型加以分类,形成针对性分析所需的知识库。随后,利用大型语言模型(Large Language Model,LLM)从待评估的智能合约代码及其白皮书中抽取证据,用以核对白皮书所述目标是否在代码中得到实现。模型采用问答(Q&A)方式逐项验证(图一),并围绕代码库对白皮书内容进行审查。
同时,模型还执行行业普遍接受的技术检查以识别潜在漏洞,例如静态代码分析;并将实现细节与业内通行做法和相关标准进行比对,以检验其一致性。上述核验有助于确保智能合约按预期执行,并满足白皮书中设定的运营与合规标准。
代码生成方法(Code Generation Method)。该方法利用 AI 根据 VA 白皮书中描述的目标与功能生成代码片段(例如,发行最大发行量为一亿的代币)。随后将这些生成的代码片段与原始智能合约代码进行对比:在相同输入条件下分别运行原始代码与 AI 生成代码并比较输出结果。目标是在代码结构或风格可能不同的情况下,验证功能性输出是否一致。若输出匹配,可确认原始代码按白皮书规格执行;若输出存在差异,则对代码进行进一步审查,查找不一致来源,并视情况进行调整或重新评估。可选地,还可以在 AI 生成代码与原始合约代码之间开展一次直接的对比测试 (图二)。
上述两种方法共同构成一套验证框架,用于评估智能合约的实现、定位错误与遗漏,并确保合约按既定与公开宣示的方式运行。此类洞见可为监管机构提供有价值的客观依据,以核实项目陈述的可证实性。
5.2 试点二:审计报告评估
5.2.1 引言
为确保由智能合约承载的业务逻辑安全可靠,项目方通常会聘请安全审计公司评估代码并对外发布审计报告。然而,审阅此类报告往往需要计算机科学与安全领域的专业知识,监管机构未必具备。为弥补这一知识缺口,本试点测试了利用 LLM 评估此类安全审计报告充分性的评价框架。
5.2.2 既有解决方案与服务提供方
传统做法中,安全审计报告依赖自动化工具、人工评估与专家分析,过程耗时且结论具有一定主观性。审计通常要求审计人员检查代码库、配置与操作流程,以识别脆弱点与薄弱环节。由于评估以人工为主,工作强度较大;同时对人类专业判断的依赖也带来误差风险与主观差异,不同审计人员对发现与风险的解读可能不尽一致。Web3 项目复杂度与规模的增长,对既有审计方式提出更高要求。技术发展快速、开源特性明显、去中心化应用数量激增,使审计人员常面临时效压力,可能影响分析深度。安全审计往往只能提供某一时点的“快照”,因此可能忽略审计后不断涌现的威胁与脆弱性。另一个显著挑战是技术复杂度。报告通常高度技术化与细节繁复,使公众与监管者难以全面理解与解释其中结论。
5.2.3 基于 AI 的安全审计报告辅助评估
该评估工具使用 AI 来衡量审计报告质量。试点首先通过光学字符识别(Optical Character Recognition,OCR)与定制的信息检索技术,采集并整理评估所需数据,包括审计范围、评估方法、审计工具以及报告中的问题描述等要素。随后,采用现成的 LLM 模型对报告进行处理以生成嵌入表示(embeddings),并如图 3 所示将其表示为向量。此过程使用高级自然语言处理(Natural Language Processing,NLP)技术,例如基于定制库的实体识别与依存句法分析,以理解并归类报告内容。完成数据处理后,工具利用存储的向量与预定义知识集(如下图所示的数据库)进行对比评估。知识集覆盖五个具体类别:(1)内容质量与覆盖范围,(2)脆弱性识别与优先级排序,(3)缓解策略与报告影响,(4)呈现质量与审计方法论,(5)报告相关性与可达性。该评估过程兼具速度与全面性,通常每份报告约需五分钟。 最后,再次调用 LLM 生成评估报告。该报告包含按上述各类别细分评估加权汇总得到的总分,反映安全审计报告的整体表现,指出优势领域与待改进之处。同时,报告还将基
于各类别的中间评估结果给出由 LLM 生成的详细说明,阐明其优势与关注点,示意图见图三。
5.3 试点三:基于 AI 的智能尽职调查(Smart Due Diligence)
5.3.1 引言
在许可发放与持续性监督过程中,对 Web3 项目开展初始与持续尽职调查(due diligence)对监管机构至关重要。作为虚拟资产中介的虚拟资产服务提供商(Virtual Asset Service Providers,VASPs)在向客户提供虚拟资产(Virtual Assets,VA)之前,也需对相关区块链项目及其代币执行自有的尽职调查。由于区块链的去中心化特征、化名身份以及新型组织形态,Web3 尽职调查面临独特挑战。识别与核验真实身份、理解复杂的技术基础设施、应对多样的组织结构与演进中的法律框架,均使流程更为复杂。与此同时,Web3 领域的公开可得数据可用于提升对活动的把握:链上数据能够为交易与智能合约运行提供可验证的实时洞见;链下的定性信息(如团队资质、市场情绪、论坛与 DAO 讨论、官方社交媒体渠道)则为评估提供补充。然而,尽管数据公开,摄取如此海量且高度技术化的信息仍具挑战,需要成熟的处理与分析工具。引入人工智能(AI)可简化尽职调查流程,使监管机构与 VASPs 能更高效地审阅和评估 Web3 项目。
5.3.2 既有解决方案与服务提供方
为应对复杂数据分析与尽职调查需求,Web3 与 VA 领域涌现出众多服务商。这些公司提供的工具与服务可优化合规流程、核验身份,并在不同法域下处理部分监管义务。例如,Chainalysis 与 Elliptic 提供区块链分析工具,帮助回溯加密资产交易来源,支持反洗钱(Anti-Money Laundering,AML)与反恐融资(Combating the Financing of Terrorism,CFT)合规。其他公司则提供数字身份核验方案,力图在去中心化环境中识别用户。虽然上述工具在特定环节有效,但尚无法覆盖监管机构与 VASPs 所需的全谱系监督。本试点旨在进一步改进面向监管者与 VASPs 的整体尽职调查流程。
5.3.3 AI 辅助的尽职调查
本试点从多个方面引入 AI 技术,以改进监管机构与 VASPs 的尽职调查实践。
生成式 AI 支持企业入驻(onboarding)。在项目向监管机构申请牌照时,生成式 AI 用于按 Web3 项目侧重点定制入驻流程。本试点开发的模型可自动生成个性化表单并列示所需提交文件清单。此类定制化可避免“一刀切”的通用流程,减少与该企业具体业务无关的提交要求。
生成式 AI 审阅社交媒体。试点使用 AI 工具监测并分析企业及其关键人员的社交媒体表现,识别不一致的公开披露、声誉风险以及误导性或欺诈性表述的迹象。所用模型能够理解内容语境与情绪,并输出潜在关注点供监管者参考。(注:原文该段落出现一次重复,这里合并呈现。)
监管问答代理(Q&A Agent)。该代理允许监管者对 Web3 项目数据进行检索式提问,涵盖企业自报文件、智能合约细节、官方通告与披露等。代理基于查询时的最新数据,按需向非技术背景人员提供易懂的洞见;所有答复均进行分类并标注来源,附有原始数据链接。系统会随新数据持续更新,并支持监管者接入更多数据源。
该试点通过在企业入驻、风险识别与实时监管洞见等环节运用 AI,有效替代重复性与冗余性的人工作业。鉴于众多监管机构正积极探索此类创新,该项目具有更大范围部署与进一步演进的潜力。
6. 结论与未来工作
6.1 结论
Web3 与 VA 活动的快速演进为创新铺路,同时带来全新且复杂的监管挑战。将 AI 融入监管流程,有望增强监管机构的工具箱,以更好地监测、预测并缓释 Web3 与 VA 领域产生的风险。本文介绍的试点项目给出了 AI 在该领域的实践范例,展示了其在改进行业合规实践方面的现实作用。
6.2 关键要点
人工智能在 Web3 监管技术(SupTech)与监管科技(RegTech)中的变革潜力
· 以 AI 为驱动的解决方案可显著提升 Web3 监管的有效性,包括实时风险分析、前瞻性的脆弱点探测以及更高效的合规监测。
· 通过运用多种 AI 技术(如机器学习、自然语言处理 NLP、生成式 AI 与自主代理),监管者能够更好地保持监督、优化报告流程、发现异常并理解去中心化生态中的情绪与舆情。
· 将 AI 融入 Web3 监管,可简化跨法域的复杂性,适应全天候运行,并使合规框架更具可达性、灵活性与创新性。
AI 落地面临的挑战
· 伦理与隐私、模型偏差,以及对透明度与可追溯性的需求,是关键议题。
· 人类监督必不可少,可降低对 AI 的过度依赖,并保障应用的可靠性。
试点所展示的实践应用
· AI 强化的智能合约评估,有助于确保与白皮书及监管标准的一致性。
· 审计报告与尽职调查流程的自动化评估,可显著提升效率。
· 生成式 AI 工具可支持企业入驻流程、社交媒体分析,并高效向监管者提供有用洞见。
未来方向
· 预测分析、可自适应的 AI 系统与全球协作的进步,将推动更有效的监管实践。
· 建立 AI 治理框架与伦理标准,将成为维护信任与问责的关键。
6.3 未来工作
面向未来,若干关键方向将推动人工智能(Artificial Intelligence,AI)在监管流程中的持续演进与融合:
· 高级 AI 模型(Advanced AI Models) 随着 AI 技术进步,模型能力与结果质量有望进一步提升,同时实现更低的成本与算力资源占用。
· 强化的预测分析(Enhanced Predictive Analytics) 预测分析的进一步发展将支持对风险与合规违规事件的更精准预判。借助更大规模与更专业化的数据集,以及更复杂的算法,AI 系统可在问题发生前进行前瞻性识别,从而实现主动的早期干预。
· 先进的 AI 治理与伦理(Advanced AI Governance and Ethics) 为确保监管场景下的 AI 应用符合伦理、保持透明并减少偏差,建立系统性的 AI 治理框架势在必行。制定 AI 伦理标准与指南将有助于构建基于 AI 的监管系统中的信任与问责。
· 自适应与可解释 AI(Adaptive and Explainable AI) 未来的 AI 系统应具备自适应能力,能够随监管环境与 Web3 活动的变化而持续学习与演化。提升算法与决策的可解释性,将使监管决策对受其影响的相关方更为透明与可理解。
· 全球协作(Global Collaboration) 在跨法域层面建立并共享最佳实践,将促进对全球 Web3 生态更为一致与有效的监管。