比特币行情

11大主流加密AI项目速览【最新】

作者: 比特币新闻 日期:2024-11-26 10:40

当AI在web3世界迅猛发展时,要区分真正的创新和叙事泡沫就更加困难了。ETHDenver大会期间,我们邀请了11个最主流的AI项目,本文将为你简要概述各项目愿景、实现方法和应用场景,我们一起来看这些AI项目是如何撼动当前世界的。

 1、Grass

为什么:数据是所有AI训练的基础,但筛选gatekeeper(看门人)的方式使高质量训练数据的获取变得很难。确实可以从公共网络中抓取大量数据,但主要网站通常会屏蔽商业数据中心。

 是什么:Grass是一个数据提供协议,使数据可访问,促进AI基础设施的公平。

 怎么做:用户安装一个Chrome web extension(网络扩展程序),并利用其多余的计算和带宽来扫描互联网搜索人工智能数据。Grass运营着一个由近100万个全球网络抓取节点组成的网络。使用这个网络,Grass每天清理擦除超1TB的数据,然后生成结构化数据集。

 用在哪:Grass节点目前在全球190个国家都有运营。

 2、Story Protocol

为什么:AI remixing再创作是非法的,也是不可避免的。人工智能发展的主要障碍是缺乏盈利能力,不能为IP和内容创作者带来归属和来源保障。

 是什么:可组合的链上IP层允许创作者自主设置参与规则。为全局IP作品增加可辨性和流动性。

 怎么做:创作者可以购买许可式NFT,将其静态IP转换为可编程IP。可编程IP是一个任何程序都可以读写的层,由Nouns和Verbs组成。Nouns包括数据结构、IP相关元数据、使用ERC6551;Verbs包括模块,IP资产的一系列功能,如许可、衍生作品的收入流和全局访问。只要衍生品盈利,收益就会自动回流。

 用在哪:Story Protocol可用于授权许可租赁、衍生品以及区域、渠道、有效期、可撤销性、可转让性、归属等定制。

 3、Space and Time

为什么:随着LLM的发展,大公司可以对数据集和参数进行修改或篡改;重要的是要对未篡改的数据集进行加密证明,确保在LLM训练期间使用相同的数据集。此外,Space and Time一直在探索受版权保护的数据的清除方式,从可验证的向量数据库中提取数据,并在推理过程中注入提示。

是什么:Space and Time是一个索引器和ZK证明器,它根据索引数据证明SQL查询或向量搜索。

怎么做:LLM提供商可以将自己的链上/链下训练数据集加载到Space and Time,在那里数据被见证并使用加密承诺进行阈值签名,随后用于证明数据集确实被用于训练。那之后,律师或审计员/审查员可以确保数据集在训练后没有被篡改。Space and Time开发了GPU加速器“Blitzar”,它已在单个GPU上实现以14秒的验证时间完成200万行表查询。

用在哪:Space and Time允许用户使用纯文本创建查询,几秒后OpenAI从向量搜索数据库中检索上下文,并写入可由证明器执行的准确的Space and Time SQL,证明者将于4秒内返回证明。

4、Bittensor

为什么:OpenAI的目标是垄断人工智能的控制权。

是什么:Bittensor是一个去中心化的开源AI平台。

怎么做:Bittensor网络有32个子网。这些子网始于模型,但现在已经扩展到存储、计算、抓取、跟踪和不同的人工智能领域。TAO代币激励子网建设者不断完善模型或项目,验证者对子网的结果进行排名,排名将改变TAO的分布,最后一名将被踢出网络。这一机制保证了模型竞争产出最佳输出数据,而对集体价值最大的工作将获得奖励。

用在哪:强大的应用程序纷纷出现,如进行去中心化存储的FileTAO,致力于OpenAI推理的Cortex TAO,做LLM微调的Nous Research,以及支持去中心化的文本视频转换的Fractal Research。

5、Sentient

为什么:AGI建设是危险的,面临着“人类灭绝威胁”和资本主义框架风险,所以他们天生需要加密平台;而加密平台则需要原生的杀手级应用。

是什么:Sentient是一个主权激励驱动的人工智能开发平台。

用在哪:Sentient使用众包方法,支持社区协调和贡献训练模型以降低成本,使用开放协议控制推理,实现模型之间的可组合性,并将价值流回网络参与者。聚合web2和web3力量,并利用代币,Sentient将在很大程度上激励开发人员进行无需信任的AGI的建设。

6、Modulus labs

为什么:当AGI的未来势不可挡时,我们需要证明人工智能的结果是可问责的,是安全的,这个结果是由一个经过认证的模型生成的,而不是被操纵的,不依赖于可信中央权威机构的善行。

是什么:Modulus构建了一个专门的AI ZK证明器“Remainder”,以非常小的成本为dApp提供AI功能。

怎么做:与不可验证的AI输出相比,使用现代ZK证明系统是没有意义的,因为其开销约为10,000到100,000倍。Modulus为AI推理构建了一个自定义证明器,开销仅为180倍。

用在哪:Upshot是一个值得注意的实现,但Upshot复杂的评估模式只能在链下进行,也就引起了信任问题。然而,Upshot可以每小时都向Modulus发送有价值的AI评估,而Modulus可以为AI计算生成“正确性证明”,将证明汇总并发送到以太坊进行最终验证。

7、Ora

为什么:人工智能模型不能在链上运行,数千台计算机将执行一个推理。链上验证结果是可行的,但随着模型变得越来越大,ZKML的成本呈指数增长,因此需要一个呈线性增长的成本—OPML。

是什么:Ora是一个链上AI oracle,使用OPML用于任何规模的AI模型。

怎么做:使用Oracle将计算委托给链下节点。用户通过提示和命名模型从智能合约发起交易。OAO合约将交易委托给OPML节点执行推理,生成欺诈证明并将verifie(验证器)提交给ORO。验证结果返回给交易发起者。但OPML仍然需要ZKP的协助来实现输入/输出隐私保护和即时的最终确定性。此外,ORA的ZK oracle可以为OPML生成存储证明,因此在重用OPML时不需要重复执行OPML。

用在哪:现在使用ORA,我们可以在以太坊主网上使用Stable Diffusion和7B-LLaMA这样的大模型。ORA可以支持AI管理的DAO和AIGC NFT(如EIP7007),赋予模型所有权。

8、Ritual

为什么:当人工智能基础设施越来越集中、需许可并受到越来越多严格监管时,就会出现新的审查和操纵。但加密技术提供了隐私和计算完整性、协调和激励以及默认无需许可基础设施相关原语。

是什么:Ritual作为加密和AI融合的自然汇聚点,包含一个去中心化Oracle网络和主权链(带有自定义VM和协处理器)。

怎么做:Oracle网络“Infernet”使EVM链上的任何一个智能合约都可以将链上工作流连接到链下ML推理,最终协处理器实现在VM级别上的AI本地操作,同时保持与其他数据可用性(DA)、永久存储、Prover网络、GPU网络和推理引擎的可组合性。Ritual网络上的节点不仅运行和服务模型操作,还运行共识和执行客户端。

用在哪:“Frenrug”使用推理SDK构建一个不确定的LLM,指导用户在friend.tech上购买和出售密钥。对于DeFi借贷协议,他们可以训练模型来参数化和泛化所有协议。对于支持加密的AI来说, MyShell将是首个模型创造者经济示例。

9、Olas

为什么:自主智能体(Autonomous Agents,AA)是能够感知某些信息并执行操作的强大实体。但是web2自主智能体的潜力受到严重限制:它们不能做KYC验证,用户不能拥有所有权,平台审查风险,以及有限的可组合性。

是什么:Olas是一个面向共有自主智能体的去中心化协议。

怎么做:在Olas的世界里,智能体是在链下的,而注册和管理是在链上的。智能体被安排进行自主服务(“去中心化自治代理”)。智能体运营者控制一个智能体和一个共识工具。每个智能体运行一个有限状态机(FSM),该FSM在服务智能体间的临时区块链上复制。服务智能体在采取链上行动之前先在链下达成共识。该网络对所有利益相关者提供OLAS代币激励:资本提供者,代码提供者(开发人员),智能体运营者(利益相关者)和服务所有者(企业家)。