418.61K
1.46M
2024-05-10 10:00:00 ~ 2024-06-11 11:30:00
2024-06-12 04:00:00
峰会将从 AI 基础设施、区块链技术、去中心化生态以及 Web3 超级周期等多个维度未来发展方向。 本次峰会汇聚了 Web3 领域最具创新力和影响力的明星项目,包括 GAIB、PIN AI、KITE AI、Story Protocol、Sentient、Sahara AI、Aethir、io.net 以及 Chainlink 等重磅嘉宾。同时,Arbitrum、Base、BNB Chain、Plume、Avalanche 等热门公链也将悉数亮相。 峰会将从 AI 基础设施、区块链技术、去中心化生态以及 Web3 超级周期等多个维度,深度探讨 AI 与区块链融合的创新实践与未来发展方向。通过主题演讲与圆桌讨论,与会者将共同见证一场关于 AI 技术创新和产业未来的思想盛宴。 日期:2025 年 2 月 28 日 时间:下午 1:00 - 6:30 (MST) 地点:Sheraton Denver Downtown Hotel 立即报名: https://lu.ma/AiFiSummitDenver 核心议程: 🔹 主题演讲(Keynotes) Opening & Keynote 1(1:28 - 1:40 PM):由Google带来开场主题演讲 Keynote 2(1:40 - 2:00 PM):GAIB发布《The AiFi Thesis 》,洞悉AI金融化的未来机遇 Keynote 3(2:40 - 2:50 PM):PIN AI带来精彩洞察 Keynote 4(3:30 - 3:40 PM):Kite AI分享前沿思考 Keynote 5(4:20 - 4:30 PM):Carv发表独特见解 Keynote 6(5:10 - 5:20 PM):PayPal Ventures分享 🔹 圆桌讨论(Panels) Panel 1:解放万亿级AI经济的潜力(2:00 - 2:40 PM) 由Faction主持,GAIB、Aethir、io.net、Exabits、ICN等项目深度探讨AI经济的未来创新模式。 Panel 2:Agentic Web的崛起——AI、区块链与自治系统的未来(2:50 - 3:30 PM) 由BigBrain主持,联合PIN AI、0G、OpenLedger、Olas和Nillion,探讨Web3与AI的协同演化。 Panel 3:协作与开放生态中的AI区块链创新(3:40 - 4:20 PM) 由Hashed主持,Kite AI、Sentient、Heltu、Akave、Ormi、w3.io等项目深入探讨区块链与AI的协作新模式。 Panel 4:前行之路——AiFi与DeFi如何塑造下一代Web3超级周期(4:30 - 5:10 PM) 由Chainlink主持,BNB、Avalanche、Arbitrum、Near、Base和Plume等项目解析Web3超级周期的未来方向。 Panel 5:连接AI与区块链——解锁去中心化AI的全部潜力(5:20 - 6:00 PM) 由Archetype主持,Hashed、Sahara、Flock.io、Story Protocol、Satlayer等项目共同探讨去中心化AI的未来图景。 🔹 社交与闭幕 Welcome Coffee(1:00 - 1:30 PM):轻松交流,开启峰会序幕 Networking(6:00 - 6:30 PM):自由交流,拓展人脉 VIP Dinner(7:00 - 9:00 PM):专属晚宴,深度社交与合作机会 主办方: GAIB:AI 经济层,通过创造一种全新的生息资产,让任何人都能直接参与到 AI 及算力市场,分享 AI 增长的红利。基于底层生息资产,GAIB 还会创造各种各样的用例和衍生品,例如借贷、期权、期货、GPU 稳定币等,为万亿的 AI 经济系统提供底层金融基建,让更多人能参与其中。 PIN AI:PIN AI 专注于将通用AI转化为真正了解你、为你服务的个性化AI助手。我们以人为中心,让用户掌控自己的数据与价值,构建以个性化服务为核心的AI经济生态。在 PIN AI,每个人都能拥有专属AI,享受更智能、更贴合需求的服务体验。 Kite AI:Kite AI 是一个专为AI设计的EVM兼容Layer 1,致力于解锁数据、模型和智能体等AI资产的公平访问权。通过创新的 Proof of AI 共识机制,Kite AI 实现了AI开发中的公平归属与奖励分配,为AI经济注入透明与公正。 协办方 GAIB、PinAI、Kite AI 赞助商与合作伙伴 Google Cloud、BNB Chain、Chainlink、Avalanche、Arbitrum、Near、Base、Aethir、Plume、CARV、Sahara、io.net、0G、Story Protocol、Sentient、Mind Network、OpenLedger、Flock.io、Hyperbolic、Exabits、Olas、UnifaiNetwork、Impossible Cloud Network、Satlayer、AixBlock、Akave、Ormi、Hetu Protocol、w3.io、Peri labs 投资合作伙伴 Hack VC、Faction、Hashed、Animoca Brands、Spartan、CMCC Global、Archetype、IOSG Ventures、L2IV、Big Brain、MH Ventures 社区合作伙伴 TinTinLand、AiFi Consortium 加入我们,共同见证 AiFi 的未来! 免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。
“从开源论文、开源代码出发,现在已经进化到开源思维链了嘛!” 作者:Andrew Lu,晚点团队 图片来源:由无界AI生成 2 月 18 日,Kimi 和 DeepSeek 同一天发布新进展,分别是 MoBA 和 NSA,二者都是对 “注意力机制”(Attention Mechanism)的改进。 今天,MoBA 的一位主要研发同学 Andrew Lu 在知乎发帖,自述研发过程的三次踩坑,他称为 “三入思过崖”。他在知乎的签名是“新晋 LLM 训练师”。 这条回答下的一个评论是:“从开源论文、开源代码出发,现在已经进化到开源思维链了嘛。” 注意力机制之所以重要,是因为它是当前大语言模型(LLM)的核心机制。回到 2017 年 6 月那篇开启 LLM 革命的 Transformer 八子论文,标题就是:Attention Is All You Need(注意力就是你所需要的一切),该论文被引用次数至今已达 15.3 万。 注意力机制能让 AI 模型像人类一样,知道在处理信息时该 “重点关注” 什么、“忽略” 什么,抓住信息中最关键的部分。 在大模型的训练阶段和使用(推理)阶段,注意力机制都会发挥作用。它的大致工作原理是,当输入一段数据,如 “我喜欢吃苹果”,大模型会计算句子中每一个词(Token)与其他词的关系,从而理解语义等信息。 而当大模型需要处理的上下文越来越长,标准 Transformer 最初采用的 Full Attention(全注意力机制)对计算资源的占用变得不可忍受,因为原初流程是,需要全部计算所有输入词的重要性分数,再加权计算后得到哪些是最重要的词,它的计算复杂度会随文本变长而平方级(非线性)增长。如 MoBA 论文的 “摘要” 部分所写: “传统注意力机制中固有的计算复杂性的平方增加,带来令人望而却步的计算开销。” 同时,研究者们又追求大模型处理的上下文能足够长——多轮对话、复杂推理、记忆能力……这些设想中 AGI 应该具备的特性都需要更长长长长的上下文能力。 如何找到一个既没那么占用计算资源和内存,又不损失模型性能的注意力机制优化方法,于是成为大模型研究的重要课题。 这是数家公司将注意力交汇到 “注意力” 上的技术背景。 在 DeepSeek NSA 和 Kimi MoBA 之外,今年 1 月中旬,另一家中国大模型创业公司 MiniMax 也在其首个开源模型 MiniMax-01 中大规模实现了一种新的注意力机制。MiniMax 创始人闫俊杰当时告诉我们,这是 MiniMax-01 最主要的创新点之一。 面壁智能联合创始人、清华大学计算机系副教授刘知远的团队也在 2024 年发表过 InfLLM,其中也涉及一种稀疏注意力改进,该论文被 NSA 的论文引用。 这几个成果中,NSA、MoBA、InfLLm 里的注意力机制都属于 “稀疏注意力机制”(Sparse Attention);而 MiniMax-01 的尝试则主要是另一个方向:“线性注意力机制”(Linear Attention)。 SeerAttention 作者之一,微软亚研院高级研究员曹士杰告诉我们:总体来说,线性注意力机制对标准注意力机制的改动更多、更激进,想直接解决随文本变长,计算度平方爆炸(所以是非线性的)的问题,可能的一个代价是,会损失对长上下文的复杂依赖关系的捕捉;稀疏注意力机制则是利用注意力固有的稀疏性,尝试寻找一种较为稳健的优化方式。 同时在此推荐曹士杰老师在知乎上关于注意力机制的高赞回答:https://www.zhihu.com/people/cao-shi-jie-67/answers (他回答了 “梁文锋参与发表的 DeepSeek 新论文 NSA 注意力机制,有哪些信息值得关注?会带来哪些影响?” 这个问题。) MoA(Mixture of Sparse Attention) 的共同一作,清华大学 NICS-EFC 实验室博士傅天予说,在稀疏注意力机制的大方向下:“NSA 和 MoBA 都引入了动态注意力方法,即能动态选择需要计算细粒度注意力的 KV Cache 块,相比一些使用静态方法的稀疏注意力机制,能提升模型性能。这两个方法也都是在模型训练中就引入了稀疏注意力,而非仅在推理时引入,这也进一步提升了模型性能。” (注:KV Cache 块是存储之前计算的 Key 标签和 Value 值的缓存;其中 Key 标签指注意力机制相关计算中,用于标识数据特征或数据位置等信息的标识标签,以便在计算注意力权重时,能与其他数据匹配和关联 ,Value 值则与 Key 标签对应,通常包含了实际要处理的数据内容,如单词或短语的语义向量等信息。) 同时,这次月之暗面除了发布详细的 MoBA 技术论文,也在 GitHub 该项目网站上发布了 MoBA 工程代码,该套代码已在月之暗面自己的产品 Kimi 中线上使用了一年多。 * 以下为 Andrew Lu 在知乎上的自述,已获得作者授权。原文中有多处 AI 术语,()中灰色文字解释部分均为编者注。原贴链接:https://www.zhihu.com/people/deer-andrew Andrew Lu 的研发自述 应章老师(清华大学助理教授章明星)邀请,来答一下之前做 MoBA 起起伏伏的心路历程,我戏称为 “三入思过崖”。(Andrew Lu 回答的问题是:“如何评价 Kimi 开源的稀疏注意力框架 MoBA?与 DeepSeek 的 NSA 相比,二者各有哪些亮点?”) MoBA 的开始 MoBA 这个项目开始得非常早,在 2023 年 5 月底月之暗面刚建立不久的时候,入职报到当天就被 Tim (月之暗面联合创始人周昕宇)拉到了小房间里,和裘老师(浙江大学 / 之江实验室裘捷中,MoBA idea 的提出者)以及 Dylan(月之暗面研究员)一起开始搞 Long Context Training(长上下文训练)。这里首先要感谢一下 Tim 的耐心和教导,对一个 LLM 新手给予厚望并乐意培养,研发各种上线模型和模型相关技术的诸位大佬里面,很多人和我一样基本是从零开始接触 LLM。 当时业界普遍水平也不是很高,大家都在 4K 预训练(模型能处理的输入输出长度约在 4000 个 Token,几千个汉字),项目一开始叫 16K on 16B,意思是在 16B (模型参数 160 亿)上做 16K 长度的 Pre-train(预训练) 即可,当然后来很快的这个需求在 8 月变成了需要支持 128K 下 Pre-train 。这也是 MoBA 设计时的第一个要求,能 From Scratch(从头开始)快速的训练出一个能支持 128K 长度下的模型,此时还不需要 Continue Training(持续训练,在已训模型基础上继续训练)。 这里也引申出一个有趣的问题,23 年 5/6 月的时候,业界普遍认为训长得长,端到端训练长文本(直接用长文本训练模型)的效果好于训练一个较短的模型再想办法搞长它。这种认知到 23 年下半年 long Llama (Meta 开发的、支持长文本处理的大模型)出现的时候才发生了转变。我们自己也进行了严格的验证,实际上短文本训练 + 长度激活具有更好的 token efficiency(每个 token 贡献的有效信息量提升,意味着模型能用更少的 token 完成更高质量的任务)。自然 MoBA 设计中的第一个功能就成了时代的眼泪。 在这个时期,MoBA 的结构设计也是更为 “激进” 的,相较于现在的 “极简化” 结果,初提出的 MoBA 是一个带 cross attention (处理两段不同文本数据之间关系的注意力机制)的两层注意力机制串行方案,gate (控制输入数据如何在各个专家网络之间分配权重)本身是一个无参的结构(没有参数,不需要数据训练),但是为了更好的学习历史的 token,我们在每个 Transformer 层加了一个机器间的 cross attention 以及对应的参数(可以更好地记住历史信息)。此时的 MoBA 设计已经结合了后面为大家熟知的 Context Parallel 思想(完整的上下文序列被存放到不同节点上,在需要计算的时候才集中在一起),我们将整个上下文序列平铺在数据并行节点之间,将每个数据并行节点内的 context 看成是一个 MoE (Mixture of Experts,专家混合系统)中的 expert(专家),将需要 attention 的 token 发送到对应 expert 上进行 cross attention 再把结果通信回来。我们将 fastmoe (一种早期 MoE 训练的框架)的工作整合进了 Megatron-LM(来自 Nvidia 的现在通用大模型训练框架)来支持 expert 间通讯能力。 这个思路我们称之为 MoBA v0.5。 (编者注:MoBA 的灵感来自当前主流的大模型 MoE 结构。MoE 指大模型工作时,每次只激活部分专家的参数,而不是全部,从而节省算力;MoBA 的核心思路是 “每次只看最相关上下文,而不是全部上下文,从而节省计算和成本”。) 随着时间推进到 23 年 8 月初,主模型 Pre-Train 已经训练了大量 token,再来一次成本不低。显著改变了结构并增加了额外参数的 MoBA 至此第一次进入思过崖。 一个非常简单的 MoBA v0.5 的示意图 编者注: History Tokens(历史标记)——在自然语言处理等场景中,代表之前处理过的文本单元集合。 Gate(门)——在神经网络中,用于控制信息流动的结构 Input(输入)——模型接收的数据或信息 V(Value)——在注意力机制中,包含实际要处理或关注的数据内容,比如语义向量等 K(Key 标签)——在注意力机制中,用于标识数据特征或位置等信息的标识标签,以便与其他数据匹配关联 Q(Querry 查询)——在注意力机制中,用于从键 - 值对中检索相关信息的向量 Cross Attention(交叉注意力)——一种注意力机制,关注不同来源的输入,如将输入与历史信息关联 Self Attention(自注意力)——一种注意力机制,模型对自身输入进行关注,捕捉输入内部的依赖关系 一入思过崖 进入思过崖当然是一种戏称,是停下来寻找改进方案的时间,也是深入理解新结构的时间。第一次进思过崖悟道,进去的快,出来的也快。Tim 作为月之暗面点子王掏出了新的改进思路,将 MoBA 从串行两层注意力方案改并行的单层注意力方案。MoBA 不再增加额外的模型参数,而是利用现有注意力机制参数,同步学习一个序列里面的所有信息,这样就可以尽可能不变动当前结构进行 Continue Training。 这个思路我们称之为 MoBA v1。 MoBA v1 实际上是 Sparse Attention(稀疏注意力)Context Parallel 的产物,在当时 Context Parallel 并不是大行其道的时候,MoBA v1 体现了极高的端到端加速能力。我们在 3B,7B 上都验证了它有效之后,在更大模型 scale 水平上撞墙了,训练过程中出现了非常大的 loss spike(模型训练时出现的异常现象)。我们初版合并 block attention output(注意力模块处理完数据后输出结果)的方式过于粗浅,只是简单累加,导致完全无法和 Full Attention 对分进行 debug,没有 ground truth(标准答案,这里指 Full Attention 的结果)的 debug 是极其困难的,我们用尽了各种当时的稳定性手段都不能解决。由于在较大的模型上训练出了问题,MoBA 至此二入思过崖。 一个非常简单的 MoBA v1 的 示意图 编者注: Self Attention to History(对历史的自注意力)——一种注意力机制,模型关注历史标记,捕捉当前输入与历史信息间的依赖关系 Share weights(共享权重)——神经网络中不同部分使用相同的权重参数,以减少参数数量和提高模型泛化能力 FFN(Feed - Forward Neural Network,前馈神经网络)——一种基本的神经网络结构,数据沿单一方向从输入层经过隐藏层流向输出层 Weighted Sum(加权和)——将多个值按照各自的权重进行求和的操作 二入思过崖 第二次留在思过崖时间比较长,从 23 年 9 月开始,至出思过崖的时候已经到了 24 年初。但是在思过崖里并不意味着被放弃了,我得以体会到在月之暗面工作的第二大特色,饱和救援。 除了一直就在强力输出的 Tim 和裘老师,苏神(苏剑林,月之暗面研究员)、远哥(Jingyuan Liu,月之暗面研究员)以及各路大佬都参与进行激烈的讨论,开始拆解并修正 MoBA,首先被修正的就是那个简单的 Weighted Sum(加权和)叠加。我们这里尝试过各种和 Gate Matrix 相乘相加的叠加搞法之后,Tim 从故纸堆里掏出了 Online Softmax(不是看到所有数据才能计算,而是来一个数据处理一个),说这个应该能行。其中最大的一个好处是使用 Online Softmax 之后我们可以通过将稀疏度降低至 0(全选所有的分块),来和一个数学等价的 Full Attention 进行严格对照 debug,这解决了大部分实现中遇到的难题。但是上下文拆分在数据并行节点之间的这个设计依然会导致不均衡问题,一个数据 sample 在数据并行间平铺之后,第一个数据并行 rank 上的头部几个 token 会被后续茫茫多的 Q 发送进行 attend(注意力计算过程),带来极差的平衡性,进而拖慢加速效率。这个现象也有一个更广为人知的名字——Attention Sink(注意力汇聚点)。 此时章老师到访,听完我们的想法后提出了新的思路,将 Context Parallel 能力和 MoBA 切分开。Context Parallel 是 Context Parallel,MoBA 是 MoBA ,MoBA 回归一个 Sparse Attention 本身而不是分布式 Sparse Attention 训练框架。只要显存放得下,完全可以在单机上处理全部上下文,用 MoBA 来进行计算加速,通过 Context Parallel 的方式来组织和传递机器间的上下文。因此我们重新实现了 MoBA v2,基本已经是也是当前大家见到的 MoBA 的样子。 现在的 MoBA 设计 编者注: MoBA Gating(MoBA 门控)——MoBA 中的特定门控机制 RoPE(Rotary Position Embedding 旋转位置嵌入)——一种为序列添加位置信息的技术 Partition to blocks(划分为块)——将数据分割成不同的块 Mean Pooling(平均池化)——一种在深度学习中对数据进行降采样的操作,计算区域内数据的平均值 MatMul(Matrix - Multiply 矩阵乘法)——一种数学运算,用于计算两个矩阵的乘积 TopK Gating(Top - K 门控)——一种门控机制,选择前 K 个重要的元素等操作 Selected Block Index(选定的块索引)——表示被选中的块的编号 Index Select(索引选择)——根据索引从数据中选取相应元素 Varlen Flash-Attention(可变长度快速注意力)——一种注意力机制,适用于可变长度序列且计算效率较高 Attention Output(注意力输出)——注意力机制计算后的输出结果 MoBA v2 稳定可训,短文本和 Full Attention 可以完全对齐,Scaling Law 看起来非常可靠,而且比较丝滑的支持推广到线上模型上。我们因此加了更多的资源进来,在经过了一系列的 debug 并消耗了 n 把 infra 组同学头发后,我们可以将经过 MoBA 激活后的 Pretrain 模型做到捞针测试全绿(大模型处理长文本能力测试中达标),在这一步我们已经觉得非常不错了,开始进行上线。 但是最不意外的,只有意外。SFT (监督微调,在预训练模型的基础上,针对特定任务对模型进行进一步训练,以提高模型在该任务上的性能)阶段部分数据带着非常稀疏的 loss mask(使得只有 1% 甚至更少的 token 有训练用的梯度)(loss mask 指挑选哪些部分参与衡量模型预测结果与标准答案计算的技术),这导致 MoBA 在大部分 SFT 任务上表现良好,但是越是长文总结类型任务,loss mask 越是稀疏,反应在出来的学习效率越是低下。MoBA 在准上线流程中被按下暂停键,第三次进入思过崖。 三入思过崖 第三次进入思过崖的时候其实最紧张,此时整个项目已经有了巨大的沉没成本,公司付出了大量的计算资源和人力资源,如果端到端最后长文应用场景出现问题,那么前期研究接近于打水漂。幸运的是,由于 MoBA 本身优秀的数学性质,在新一轮饱和救援的实验 ablation(消融实验,通过去除模型的某些部分或改变某些设置来研究其对模型性能的影响)中,我们发现去掉 loss mask 表现就非常良好,带上 loss mask 表现就不尽如人意,进而意识到是带有 gradient (梯度,在机器学习中用于更新模型参数的方向和步长的一个值)的 token 在 SFT 阶段过于稀疏,从而带来的学习效率低下的问题,因此通过将最后几层修改为 Full Attention,来提高反向传播时带 gradient token 的密度,改善特定任务的学习效率。后续其它实验证明,这种切换并不会显著影响切换回来的 Sparse Attention 效果,在 1M (100 万)长度上和同结构 Full attention 各项指标持平。MoBA 再次从思过崖回归,并成功上线服务用户。 最后的最后,感谢各路大神的拔刀相助,感谢公司的大力支持以及巨量显卡。现在我们开放的出来的就是我们在线上用的代码,是一个已经经过了长期验证,因为实际需求砍掉了各种额外设计,保持极简结构但同时具备足够效果的 Sparse Attention 结构。希望 MoBA 以及它诞生的 CoT (Chain of Thought,思维链)能给大家带来一些帮助和价值。 FAQ 顺带借地方回答一些这两天频繁被人问到的问题,这两天基本麻烦章老师和苏神当客服回答问题了,实在过意不去,这里提取了几个常见问题一并回答一下。 1.MoBA 对 Decoding (模型推理阶段的文本生成过程)无效吗? MoBA 对 Decoding 是有效的,对 MHA(Multi-Head Attention,多头注意力)很有效,对 GQA (Grouped Query Attention,分组查询注意力)效果降低,对 MQA (Multi-Query Attention,多查询注意力)效果最差。原理其实很简单,MHA 的情况下,每个 Q 有一个自己对应的 KV cache,那么 MoBA 的 gate 在理想情况下是可以通过摊余计算在 prefill (首次处理输入时的计算阶段)算好并存储每个 block(数据块)的代表 token,这个 token 在后续都不会变动,因此所有的 IO (输入输出操作)基本可以做到只来自 index select(通过索引选择数据的操作)之后的 KV cache,这种情况下 MoBA 的稀疏程度就决定了 IO 减少的程度。 但是对于 GQA 和 MQA,由于一组 Q Head 实际上在共享同样的 一份 KV cache,那么在每个 Q Head 能自由选择感兴趣 Block 的情况下,很有可能填满了由稀疏性带来的 IO 优化。比如我们思考这么一个场景:16 个 Q Head 的 MQA,MoBA 刚好切分整个序列到 16 份,这意味着当最坏情况每个 Q head 感兴趣的分别是 序号从 1 到 16 的每个上下文块,节省 IO 的优势就会被磨平。能自由选择 KV Block 的 Q Head 越多,效果越差。 由于 “自由选择 KV Block 的 Q Head” 这么个现象存在,天然的改进想法就是合并,假设大家都选一样的 Block,那不就净赚 IO 优化了么。对,但是在我们实际测试下,尤其是对于已经支付了大量成本的预训练模型,每个 Q head 都有自己独特的 “品味”,强行合并不如从头重新训练。 2.MoBA 默认是必选 self attention(自注意力机制),那么 self 的邻居会必选吗? 不会必选,这个是已知会产生些许疑惑的地方,我们最后选择相信 SGD(Stochastic Gradient Descent,随机梯度下降)。现在的 MoBA gate 实现非常直接,有感兴趣的同学可以简单改造 gate 使其必选上一个 chunk(数据块),但我们自己测试这个改动带来的收益比较 margin(收益不大)。 3.MoBA 有 Triton (编写高性能 GPU 代码的框架,由 OpenAI 开发)实现么? 我们实现过一个版本,端到端性能提升 10%+,但是 Triton 的实现想要持续维护跟上主线的成本比较高昂,我们因此多次迭代后暂缓进一步优化它。 *文章开篇提及的几个成果的项目地址(GitHub 页面中均包含技术 paper 链接,DeepSeek 暂未上线 NSA 的 GitHub 页面): MoBA GitHub 页面:https://github.com/MoonshotAI/MoBA NSA 技术论文:https://arxiv.org/abs/2502.11089 MiniMax-01 GitHub 页面:https://github.com/MiniMax-AI/MiniMax-01 InfLLM GitHub 页面:https://github.com/thunlp/InfLLM?tab=readme-ov-file SeerAttention GitHub 页面:https://github.com/microsoft/SeerAttention 免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。
《Web3 早报》是 Web3Caff 官方面向 Web3.0 领域推出的基于过去 24 小时重要新闻、官方动态和好文精选综合早报栏目,旨在帮助 Web3.0 爱好者、Builder 快速了解行业最新动态。 当然如果您想进一步及时全面的知晓最新行业动态与精彩文章,还请您记得关注我们的官方 Twitter 封面:Fluent Labs 美 SEC 自愿撤销对 DeFi 规则制定案的上诉 来源: Decrypt 以太坊基金会推出 Open Intents Framework 以促进跨链互操作性 来源: Ethereum Foundation Tether 推出创新融资解决方案 TradeFi 来源: Cryptoslate DOGE 调查发现美国政府去年产生 1490 亿美元不当支付 来源: Mario Nawfal 欧盟 MiCA 批准 10 家稳定币发行商 来源: Cointelegraph 蒙大拿州战略比特币储备立法已通过委员会审议 来源: Satoshi Action Fund 币安在尼日利亚被起诉 来源: The Block SEC 已受理 21Shares 允许对其以太坊 ETF 质押的申请 来源: Cointelegraph Universal 项目和 Alongside 平台开发团队完成 900 万美元战略融资,a16z 领投 来源: Universal 混合执行网络开发商 Fluent Labs 完成 800 万美元融资,Polychain Capital 领投 来源: Fluent 你可能错过的精彩好文 DePIN 作为 AI 浪潮中率先发展的细分赛道,通过收集全球闲置算力,以更灵活的合作方式和更低成本提供算力服务。然而,其供给不稳定、任务执行涉及数据传输和冗余备份,以及加密行业对数据安全的要求,导致执行时间更长、部署复杂,增加了开发负担。随着算力市场供需变化,传统 GPU 云厂商降价,削弱了 DePIN 的性价比和吸引力。与此同时,Web3 行业 AI 应用崛起,对隐私保护和算力需求提升。在此背景下,去中心化 GPU 网络 io.net 推出 IO intelligence,推动分布式算力向下游应用渗透。为此,Web3Caff Research 本期「市场风向洞察」栏目将为你展开硬核分析与点评。 市场风向洞察:为推动 AI 应用层生态到来,去中心化 GPU 网络 io.net 推出 IO Intelligence 近年来,越来越多的政客涉足加密货币领域,以 “国家经济复兴” 或 “创新” 等名义发行数字货币,试图通过 “名人效应” 来为代币背书,推动加密货币的普及,但往往隐藏着巨大的风险,本文为你论述。 风险提醒:从 LIBRA 看 “政治化” 的加密货币骗局 如今钱包赛道也是风起云涌,竞争异常激烈,前有 Metamask、TokenPocket 等等一众老牌钱包,后有交易所投入大量资源做的 Web3 钱包,本文为你深入探讨,速览阅读。 Web3 钱包战争已经进入下半场:细数 Web3 钱包的 5 大发展方向 近日,特朗普已提名 Bitfury 前首席法务官 Jonathan Gould 出任美国货币监理署署长,负责监管全国性银行体系。该提名已于 2 月 11 日提交至参议院,任期为五年,本文为你论述。 两大监管机构负责人全是 “自己人”,特朗普的加密派对要开始了? 免责声明:作为区块链信息平台,本站所发布文章仅代表作者及嘉宾个人观点,与 Web3Caff 立场无关。文章内的信息仅供参考,均不构成任何投资建议及要约,并请您遵守所在国家或地区的相关法律法规。 The post Web3 早报:美 SEC 自愿撤销对 DeFi 规则制定案的上诉、以太坊基金会推出 Open Intents Framework 以促进跨链互操作性、混合执行网络开发商 Fluent Labs 完成 800 万美元融资,Polychain Capital 领投 first appeared on Web3Caff.
《Web3 早报》是 Web3Caff 官方面向 Web3.0 领域推出的基于过去 24 小时重要新闻、官方动态和好文精选综合早报栏目,旨在帮助 Web3.0 爱好者、Builder 快速了解行业最新动态。 当然如果您想进一步及时全面的知晓最新行业动态与精彩文章,还请您记得关注我们的官方 Twitter 封面:Fluent Labs 美 SEC 自愿撤销对 DeFi 规则制定案的上诉 来源: Decrypt 以太坊基金会推出 Open Intents Framework 以促进跨链互操作性 来源: Ethereum Foundation Tether 推出创新融资解决方案 TradeFi 来源: Cryptoslate DOGE 调查发现美国政府去年产生 1490 亿美元不当支付 来源: Mario Nawfal 欧盟 MiCA 批准 10 家稳定币发行商 来源: Cointelegraph 蒙大拿州战略比特币储备立法已通过委员会审议 来源: Satoshi Action Fund 币安在尼日利亚被起诉 来源: The Block SEC 已受理 21Shares 允许对其以太坊 ETF 质押的申请 来源: Cointelegraph Universal 项目和 Alongside 平台开发团队完成 900 万美元战略融资,a16z 领投 来源: Universal 混合执行网络开发商 Fluent Labs 完成 800 万美元融资,Polychain Capital 领投 来源: Fluent 你可能错过的精彩好文 DePIN 作为 AI 浪潮中率先发展的细分赛道,通过收集全球闲置算力,以更灵活的合作方式和更低成本提供算力服务。然而,其供给不稳定、任务执行涉及数据传输和冗余备份,以及加密行业对数据安全的要求,导致执行时间更长、部署复杂,增加了开发负担。随着算力市场供需变化,传统 GPU 云厂商降价,削弱了 DePIN 的性价比和吸引力。与此同时,Web3 行业 AI 应用崛起,对隐私保护和算力需求提升。在此背景下,去中心化 GPU 网络 io.net 推出 IO intelligence,推动分布式算力向下游应用渗透。为此,Web3Caff Research 本期「市场风向洞察」栏目将为你展开硬核分析与点评。 市场风向洞察:为推动 AI 应用层生态到来,去中心化 GPU 网络 io.net 推出 IO Intelligence 近年来,越来越多的政客涉足加密货币领域,以 “国家经济复兴” 或 “创新” 等名义发行数字货币,试图通过 “名人效应” 来为代币背书,推动加密货币的普及,但往往隐藏着巨大的风险,本文为你论述。 风险提醒:从 LIBRA 看 “政治化” 的加密货币骗局 如今钱包赛道也是风起云涌,竞争异常激烈,前有 Metamask、TokenPocket 等等一众老牌钱包,后有交易所投入大量资源做的 Web3 钱包,本文为你深入探讨,速览阅读。 Web3 钱包战争已经进入下半场:细数 Web3 钱包的 5 大发展方向 近日,特朗普已提名 Bitfury 前首席法务官 Jonathan Gould 出任美国货币监理署署长,负责监管全国性银行体系。该提名已于 2 月 11 日提交至参议院,任期为五年,本文为你论述。 两大监管机构负责人全是 “自己人”,特朗普的加密派对要开始了? 免责声明:作为区块链信息平台,本站所发布文章仅代表作者及嘉宾个人观点,与 Web3Caff 立场无关。文章内的信息仅供参考,均不构成任何投资建议及要约,并请您遵守所在国家或地区的相关法律法规。 <p>The post Web3 早报:美 SEC 自愿撤销对 DeFi 规则制定案的上诉、以太坊基金会推出 Open Intents Framework 以促进跨链互操作性、混合执行网络开发商 Fluent Labs 完成 800 万美元融资,Polychain Capital 领投 first appeared on Web3Caff.</p>
2025 年 2 月 17 日,香港 – 香港持牌虛擬資產交易平台 EX.IO 與 TruBit 建立了戰略夥伴關係,以推動全球合規虛擬資產的創新與採用。雙方通過簽署諒解備忘錄(MoU)正式確立了合作關係 。 EX.IO 由 Thousand Whales Technology (BVI) Limited 運營,是一家位於香港的虛擬資產交易所,於2024年12月獲得香港證券及期貨事務監察委員會(SFC)的批准,作為持牌虛擬資產交易平台運營。在香港第二大互聯網券商華盛集團 的支持下,EX.IO 致力於彌合 Web2 和 Web3 投資者之間的差距。 TruBit 是一家領先的交易平台,通過創新的支付和交易解決方案,徹底革新了法幣與加密貨幣的整合。TruBit 提供的服務包括用於跨境交易的 TruBit Business、進階交易的 TruBit Pro、多功能的 TruBit Wallet 和 Mastercard TruBit 卡,簡化了金融操作。在 Galactic Holdings 的支持下,TruBit 持有美國、墨西哥、阿根廷和秘魯的運營許可,確保在拉丁美洲、美國、香港和歐洲等地提供安全和合規的服務。 EX.IO 的聯合創始人兼首席執行官吳晨表示:「與 TruBit 的合作標誌著 EX.IO 的一個重要里程碑,從此我們開始踏上全球擴展之旅。我們期待與 TruBit 探索創新的全球採用方式,通過教育、無縫交易和流暢的用戶體驗,將虛擬資產從替代投資轉變為主流選擇。」 此次合作強調了兩個合規虛擬資產交易平台之間日益增長的協同效應及新興的全球合規生態系統,為全球適應領域的創新奠定了基礎。 TruBit 的首席執行官兼聯合創始人 Maggie Wu 強調:「我們很高興能與 EX.IO 合作,加速全球範圍內創新和合規虛擬資產解決方案的採用。在 TruBit,我們的使命是通過提供安全、創新和無縫的服務,縮短傳統金融與加密生態系統之間的差距。這次合作代表著一個重要的步驟,使全球的企業和用戶能夠以信心和信任擁抱金融的未來。」 關於 EX.IO EX.IO 是一家獲得香港證監會許可的虛擬資產交易平台,是傳統金融與數字資產的橋樑。在包括 Valuable Capital Group Ltd、Longling Capital Ltd和VCREDIT Holdings Limited(HKG:2003)在內的知名投資者的支持下,我們為專業投資者和機構提供專業、安全、合規的交易解決方案。 EX.IO 致力於為傳統金融投資者進入虛擬資產領域提供最值得信賴的途徑。 欲了解更多信息,請訪問: www.ex.io 關於 TruBit TruBit 成立於 2020 年,位於拉丁美洲,是一個綜合性的全球加密貨幣交易平台,建立在兩個核心支柱上:支付和交易。其核心產品 TruBit Business 提供合規的跨境支付解決方案,無縫整合法幣和加密貨幣,專為企業設計。在交易方面,TruBit Pro 為經驗豐富的交易者提供先進的工具,而 TruBit Wallet 則支持輕鬆轉換及 Earn+ 功能。Mastercard TruBit 卡則使得加密貨幣的消費更加便利。 TruBit 在拉美的核心市場運營,包括墨西哥、阿根廷、巴西、哥倫比亞、智利和秘魯,以及美國、香港和歐洲,並在多個國家持有必要的運營許可,包括美國(MSB)、墨西哥(VASP)、阿根廷(PSP、VASP)和秘魯(VASP)。它對創新、安全和合規的承諾縮短了法幣和加密貨幣之間的距離,賦能全球的企業和用戶。 欲了解更多信息,請訪問:www.trubit.com。 免責聲明: 此處包含的內容僅供參考。虛擬資產價格具有很高的市場風險和價格波動性。您的投資價值可能下跌或上漲,您可能無法收回投資金額。您應對您的投資決策負全責,EX.IO 對您可能遭受的任何損失不承擔任何責任。您只應投資您熟悉並了解風險的產品。在進行任何投資之前,您應該仔細考慮您的投資經驗、財務狀況、投資目標和風險承受能力,並諮詢獨立的財務顧問。過去的表現並不能作為其未來表現的可靠指標。我們平台上的內容不包含意見或建議。這些材料不應被視為財務建議。
DeepSeek 戳破 Agent 赛道最后的泡沫,DeFAI 可能孕育新生,行业融资方式迎来转变。 撰文:Kevin, the Researcher at BlockBooster TL;DR DeepSeek 的出现击碎算力护城河,开源模型引领的算力优化成为新方向; DeepSeek 利好行业上下游中的模型层与应用层,对基础设施中的算力协议产生消极影响; DeepSeek 的利好无意中戳破 Agent 赛道最后的泡沫,DeFAI 最有可能孕育新生; 项目融资的零和游戏有望迎来终结,社区发射 + 少量 VC 的新融资方式可能成为常态。 DeepSeek 引发的冲击会在今年对 AI 产业的上下游产生深远的影响,DeepSeek 成功让家用消费级显卡完成了原本大量高端 GPU 才能承担的大模型训练任务。围绕 AI 发展的第一护城河——算力,开始崩塌,当算法效率以每年 68% 的速度狂奔,而硬件性能遵循摩尔定律的线性爬升时,过去三年根深蒂固的估值模型不再适用,AI 的下一章,将由开源模型来开启。 尽管 Web3 的 AI 协议和 Web2 的完全不同,但也不可避免地承受 DeepSeek 的影响,这种影响会对 Web3 AI 上下游:基础设施层、中间件层、模型层和应用层,催生出全新的用例。 梳理上下游协议的协作关系 通过技术架构、功能定位和实际用例的分析,我将整个生态划分为:基础设施层、中间件层、模型层、应用层,并梳理其依赖关系: 基础设施层 基础设施层提供去中心化的底层资源(算力、存储、L1),其中算力协议有:Render、Akash、io.net 等;存储协议有:Arweave、Filecoin、Storj 等;L1 有:NEAR、Olas、Fetch.ai 等。 算力层协议支撑模型训练、推理和框架的运行;存储协议保存训练数据、模型参数和链上交互记录;L1 通过专门的节点优化数据传输效率,降低延迟。 中间件层 中间件层是连接基础设施与上层应用的桥梁,提供框架开发工具、数据服务和隐私保护,其中数据标注协议有:Grass、Masa、Vana 等;开发框架协议有:Eliza、ARC、Swarms 等;隐私计算协议有:Phala 等。 数据服务层为模型训练提供燃料,开发框架依赖基础设施层的算力和存储,隐私计算层保护数据在训练 / 推理中的安全性。 模型层 模型层用于模型开发、训练和分发,其中开源模型训练平台:Bittensor。 模型层依赖基础设施层的算力和中间件层的数据;模型通过开发框架部署到链上;模型市场将训练成果输送到应用层。 应用层 应用层是面向终端用户的 AI 产品,其中 Agent 包括:GOAT、AIXBT 等;DeFAI 协议有:Griffain、Buzz 等。 应用层调用模型层的预训练模型;依赖中间件层的隐私计算;复杂应用需要基础设施层的实时算力。 DeepSeek 可能对去中心化算力产生消极影响 据抽样调查显示,约 70% 的 Web3 AI 项目实际调用 OpenAI 或中心化云平台,仅 15% 的项目使用去中心化 GPU(如 Bittensor 子网模型),剩余 15% 为混合架构(敏感数据本地处理,通用任务上云)。 去中心化算力协议的实际使用率远远低于预期,与其实际市值并不匹配。造成使用率低的原因有三点:Web2 开发者迁移至 Web3 时沿用原有工具链;去中心化 GPU 平台尚未实现价格优势;部分项目以「去中心化」为名规避数据合规审查,实际算力仍依赖中心化云。 AWS/GCP 占据 AI 算力 90%+ 的市场份额,与之相比 Akash 的等效算力仅为 AWS 的 0.2%。中心化云平台护城河有:集群管理、RDMA 高速网络、弹性扩缩容;去中心化云平台有上述技术的 web3 改良版本,但是无法完善的缺陷有,延迟问题:分布式节点通信延迟是中心化云的 6 倍;工具链割裂:PyTorch/TensorFlow 未原生支持去中心化调度。 DeepSeek 通过稀疏训练(Sparse Training)减少 50% 算力消耗,动态模型剪枝实现消费级 GPU 训练百亿参数模型。 市场对于短期内高端 GPU 的需求预期大幅下调,边缘计算的市场潜力被重新估值。如上图所示,DeepSeek 出现之前,行业内的巨大多数协议和应用都使用 AWS 等平台,只有极少数用例部署在去中心化 GPU 网络中,这类用例看中后者在消费级算力上的价格优势,并且不关注延迟的影响。 这种情况可能随着 DeepSeek 的出现进一步恶化。DeepSeek 释放了长尾开发者的限制,低成本高效的推理模型将以前所未有的速度普及,事实上,当下上述中心化云平台和不少国家都已经开始部署 DeepSeek,推理成本的大幅降低会催生大量前端应用,这些应用对于消费级 GPU 有着庞大的需求。面对即将到来的庞大市场,中心化云平台会开展新一轮的用户争夺战,不仅是和头部平台竞争,还是和无数小型中心化云平台的竞争。而最直接的竞争方式就是降价,可以预见 4090 在中心化平台的价格会迎来下调,这对 Web3 的算力平台来说可谓灭顶之灾。当价格不是后者的唯一护城河,行业内的算力平台也被迫下调价格时,结果是 io.net、Render、Akash 们无法承受的。价格战将摧毁后者仅存的估值上限,收益下降和用户流失带来的死亡螺旋可能让去中心化算力协议转型新的方向。 DeepSeek 对行业上下游协议带来的具体意义 如图所示,我认为 DeepSeek 会对基础设施层、模型层以及应用层带来不同影响,从积极影响来说: 应用层会收益于推理成本的大幅降低,更多的应用可以用低成本确保 Agent 应用长时间在线,并实时完成任务; 同时 DeepSeek 这样的低成本模型开销,可以让 DeFAI 协议组成更复杂的 SWARM,成千的 Agent 被用于一个用例上,每个 Agent 的分工将非常细微且明确,这样能大幅提高用户使用体验,避免用户输入被模型错误拆解和执行; 应用层的开发者可以微调模型,给 DeFi 相关 AI 应用投喂价格,链上数据与分析,协议治理的数据,而不必再支付高昂的牌照费用。 开源模型层在 DeepSeek 出世后,存在意义被证明,高端模型开放给长尾开发者,可以刺激广泛的开发热潮; 过去三年围绕高端 GPU 构建的算力高墙被彻底打破,开发者有更多选择,更为开源模型确立方向,未来 AI 模型比拼的将不再是算力而是算法,信念的转变会成为开源模型开发者的信心基石; 围绕 DeepSeek 的特定子网会层出不穷,在同等算力下的模型参数会上升,会有更多开发者加入开源社区。 从消极影响来说: 基础设施中算力协议客观存在的使用延迟无法被优化; 并且 A100 和 4090 组成的混合网络对于协调算法要求更高,而这并非去中心化平台的优势。 DeepSeek 戳破 Agent 赛道最后的泡沫,DeFAI 可能孕育新生,行业融资方式迎来转变 Agent 是行业内 AI 最后的希望,DeepSeek 的出现,解放了算力限制,描绘出应用爆发的未来预期。本是对 Agent 赛道的巨大利好,却由于行业和美股以及美联储政策的强关联,被戳破仅剩的泡沫,赛道市值跌入谷底。 AI 与行业的融合浪潮中,技术突破与市场博弈始终如影随形。英伟达市值震荡引发的连锁反应,恰似一面照妖镜,映照出行业内 AI 叙事的深层困境:从 On-chain Agent 到 DeFAI 引擎,看似完整的生态图谱下,掩盖着技术基建薄弱、价值逻辑空心化、资本主导的残酷现实。表面繁荣的链上生态暗藏隐疾:大量高 FDV 代币争夺有限流动性,陈旧资产依靠 FOMO 情绪苟延残喘,开发者困在 PVP 内卷中消耗创新势能。当增量资金与用户增长触及天花板,整个行业陷入「创新者的窘境」——既渴望突破性叙事破局,又难以摆脱路径依赖的枷锁。这种撕裂状态恰为 AI Agent 提供了历史性机遇:它不仅是技术工具箱的升级,更是价值创造范式的重构。 过去一年,行业里越来越多团队发现,传统融资模型正在失效——给 VC 小份额、高度控盘、等上所拉盘的套路已难以为继。VC 口袋收紧、散户拒绝接盘、大所上币门槛高企,三重压力下,一套更适应熊市的新玩法正在崛起:联合头部 KOL+ 少量 VC,大比例社区发射,低市值冷启动。 以 Soon 和 Pump Fun 为代表的创新者正通过「社区发射」开辟新路径——联合头部 KOL 背书,将 40%-60% 代币直接向社区分发,在低至 1000 万美元 FDV 的估值水位启动项目,实现数百万美元融资。这种模式通过 KOL 影响力构建共识 FOMO,使团队提前锁定收益,同时以高流通性换取市场深度,虽放弃短期控盘优势,却可通过合规做市机制在熊市低价回购代币。本质而言,这是权力结构的范式迁移:从 VC 主导的击鼓传花游戏(机构接盘 - 上所抛售 - 散户买单),转向社区共识定价的透明博弈,项目方与社区在流动性溢价中形成新型共生关系。当行业迈入透明度革命周期,执着于传统控盘逻辑的项目,或将沦为权力迁移浪潮下的时代残影。 市场短期阵痛恰恰印证着技术长潮的不可逆。当 AI Agent 将链上交互成本降低两个数量级,当自适应模型持续优化 DeFi 协议的资金效率,行业有望迎来苦等已久的 Massive Adoption。这场变革不依靠概念炒作或资本催熟,而是扎根于真实需求的技术穿透力——就像电力革命不曾因灯泡企业的破产而停滞,Agent 终将在泡沫破灭后成为真正的黄金赛道。而 DeFAI 可能正是孕育新生的沃土,当低成本推理成为日常,我们可能很快看到上百 Agent 被组合到一个 Swarm 中的用例诞生。在等效算力下,模型参数大幅上升可以确保开源模型时代的 Agent 可以被更充分的微调,即使面对用户复杂的输入指令,也能拆分为单一 Agent 可以充分执行的任务 pipeline。每个 Agent 优化链上操作,可能会促进整体 DeFi 协议活跃度增加和流动性上升。以 DeFAI 为首更多复杂的 DeFi 产品会出现,而这正是上一轮泡沫破灭后,新的机会出现的地方。 免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。
作者:西柚,ChainCatcher 春节期间,DeepSeek的惊艳亮相让AI再次站在了全民瞩目的聚光灯下,凭借其出色的性能与极具性价比的开发成本冲击着AI行业。当前,如何降低AI模型的运营成本、提升运行效率、使其更加普及化,正成为AI行业的发展叙事主题。 早在去年,去中心化边缘AI计算网络EdgeX就已开始为降低AI运行门槛而努力,致力于构建一个用户与AI连接的基础网络。其强大之处在于分布式的算力基础设施,AI Agent所需的运行资源由用户提供,从而推动去中心化边缘算力的实现与发展。 EdgeX正全力打造一个去中心化AI基础设施平台,该平台融合了分布式算力资源与AI调度管理系统,构建了一个高效、安全、透明的去中心化算力网络,支持各类AI模型可以在分布式环境中无缝运行,以推动AI技术在边缘场景的广泛落地与应用。 简单来说,EdgeX网络通过一个去中心化的计算框架,汇聚参与者贡献的算力、存储和带宽,形成一个全球性的边缘计算网络,在大幅降低了算力成本的同时,使得任何AI模型都能在边缘设备上无缝穿梭、高效运行。 EdgeX创始人Davy在ChainCatcher采访中多次强调,EdgeX不仅是一个技术平台,更是一种理念的实践。希望通过整合Web3和AI技术,推动去中心化技术的发展,让AI真正与每一个用户紧密连接。 目前,EdgeX已成功推出了硬件产品XR7 AI Dual Gateway,并在韩国市场成功交付且广受好评,用户可以通过购买该硬件产品,并部署硬件节点的形式加入网络贡献算力,获得早期奖励。同时,EdgeX APP beta版本也在韩国启动了第一阶段试用,用户也可参与测试网络。 值得一提的是,创始人Davy还向ChainCatcher透露,EdgeX目前已成功获得国内两家知名Web3资本的早期支持,并正在积极与北美的多家传统资本和Web3资本进行深入洽谈,围绕领投等关键事宜展开深入合作。预计在今年第二季度至第三季度期间,将逐步对外公布融资的具体进展和成果。 EdgeX创建背后故事 1、ChainCatcher:作为EdgeX的创始人,Davy能否分享一下在Web3和AI行业的经历,以及启动AI基础设施项目的契机?在EdgeX项目中,您主要负责哪些工作? Davy:自2015年起,我便深耕于数据中心及云领域行业,曾与多家Web3公司合作,为其搭建节点并提供全面的基础设施支持,及头部CEX撮合引擎的技术支持。此外,我还参与过多个硅谷项目从产品构想到成功登陆交易所的全过程,深度介入了基础设施的蓝图规划、产品研发、日常运营及市场推广等关键环节。 在AI领域,我早期就接触了机器学习技术,尤其是在存储与计算方面,曾与多位数据科学家合作开发和设计AI应用。随后,我参与了硅谷的几家大模型项目,担任顾问角色,致力于多模态模型的优化、垂直领域模型的精细调整与高效训练。 在2024年,我观察到AI领域正经历从中心化向去中心化的转型变革,这与Web2向Web3的演进不谋而合。随着AI对分布式算力的需求与日俱增,而边缘计算作为关键技术,能够有效满足这一需求。基于此,我决定将Web3和AI的优势技术及经验融合,启动EdgeX项目,专注于打造一个去中心化的AI基础设施。 目前在EdgeX项目中,我主要负责EdgeX项目的技术架构设计,设计智能算力调度系统,确保算力资源的高效协同;EdgeX算力网络的技术设施搭建,为AI应用提供稳定、可靠的底层支撑;AI应用的优化,洞察各行各业的需求,量身定制垂直领域的AI解决方案。 2、ChainCatcher:EdgeX产品定位及所追求的愿景是什么?想要解决当前市场上的哪些痛点问题? Davy:EdgeX致力于打造一个去中心化AI基础设施平台,融合分布式算力与智能任务管理,以推动AI技术在边缘场景的落地及应用。它通过构建了一个高效、安全、透明的算力平台,让AI模型得以在分布式环境中无缝运行,为去中心化应用和各类场景提供强有力的底层技术支持。 当前,AI行业面临着诸多挑战:集中式算力成本居高不下,数据隐私与安全令人担忧,边缘场景的支持更是捉襟见肘。具体而言,传统AI模型严重依赖昂贵的集中式云计算资源,导致算力成本高昂,限制了小型团队和开发者的创新步伐;集中化的数据存储模式则如同定时炸弹,时刻威胁着数据的安全与隐私;而大多数AI模型在边缘设备上的运行效率更是难尽人意。EdgeX正是为了解决这些难题而来。 简单来说,EdgeX利用分布式算力大幅降低了算力成本,为小型团队和开发者敞开创新的大门;而分布式算力网络支持任何AI模型都能在边缘设备上无缝穿梭、高效运行,填补了边缘设备AI运行的空白。同时,其去中心化基础设施可为数据隐私与安全提供更高水平的保护; EdgeX不仅是一个技术平台,更是一种理念的实践。希望通过整合Web3和AI技术,推动去中心化技术的发展,使AI真正惠及于每个用户。同时,我们也致力于为开发者和企业提供更具创新性的解决方案,共同构建一个开放、共享的、繁荣的、AI生态系统。 3、ChainCatcher:能否介绍一下EdgeX团队成员的构成?并谈谈你们在AI和Web3融合领域的独特优势? Davy:EdgeX团队是一支由全球技术研发、市场运营及品牌推广等领域的杰出精英组成的多元化、国际化团队。成员遍布硅谷、新加坡、台北等多个国际都市,这样的全球分布式布局使其能够迅速捕捉全球市场需求,寻找最佳合作伙伴和资源。 团队核心成员曾在Amazon、阿里云、腾讯等全球顶尖科技企业担任核心职务,不仅具备从0到1成功推动项目落地的能力,更拥有广泛的行业资源,助力项目在全球范围内的有效实施。 在技术领域,EdgeX团队在AI与Web3两大前沿阵地均拥有深厚的积累。特别是在大模型、多模态技术以及去中心化算力调度等关键领域。同时,我们对Web3代币经济学、智能合约设计等核心模块有着深入的理解与掌握,能够从容应对AI与Web3技术融合过程中的各种挑战。不仅如此,EdgeX团队还擅长商业化落地,成员在市场推广、用户增长、供应链管理等领域经验丰富。 此外,我们还得到了顶尖Web3顾问团队的支持,他们将在产品技术、代币经济学设计、市场拓展和战略规划等方面提供宝贵指导,为EdgeX的快速发展提供坚实后盾。 4、ChainCatcher:根据EdgeX的官方路线图,项目计划在2024年第二季度至第四季度完成种子轮融资。请问目前该轮融资的进展情况如何? A:截至目前,EdgeX项目已经成功获得了国内两家知名Web3资本的支持。同时,我们也在积极与北美的多家传统资本和Web3资本进行深入洽谈,围绕领投等关键事宜展开合作探讨。 按照既定的计划,EdgeX预计将在2025年的Q2至Q3期间,正式对外公布本轮融资的具体进展和成果。 EdgeX产品特点及优势 5、ChainCatcher:EdgeX网络的具体运转机制、核心构成及主要组件及作用是什么? Davy:EdgeX网络通过一个去中心化的计算框架,汇聚参与者贡献的算力、存储和带宽,形成一个全球性的边缘计算网络。用户购买并部署EdgeX硬件节点参与其中,这些节点接入网络完成任务后会生成工作证明(PoW),获得代币奖励。 在这个过程中,EdgeX设计了一个智能任务调度系统。比如,有一个AI模型需要在边缘设备上运行,这个任务会被拆分并分配到不同的节点执行,以确保整个网络高效运转,同时保持低延迟和高并发。 EdgeX网络的核心构成包括: 硬件节点、EdgeX专属操作系统、及AI-Agent系统; 硬件节点不仅支持AI模型推理,还能提供存储和带宽等资源; EdgeX操作系统运行硬件节点上,为边缘场景提供优化计算能力。 AI-Agent系统核心功能可实现分布式AI调度,能够本地化完成数据分析和推理,在必要时调用高性能节点来提升任务的完成效果。 此外,EdgeX网络结合去中心化协议和分布式存储系统,确保数据安全和网络稳定。 EdgeX各组件共同构建了一个去中心化、高效、安全的计算生态,为AI推理及其他场景AI应用提供更好的基础设施支持。 6、ChainCatcher:相较于市面上的Aethir、io.net、Gradient Network、Theta等去中心化算力DePIN项目,EdgeX有何独特之处? Davy:首先,当前市面上的大多数去中心化算力网络更偏向通用计算领域,而EdgeX专注于边缘算力与AI的深度整合。它尤为注重AI推理任务的优化和资源调度,旨在精准地服务于各类具体的AI应用场景,在满足特定算力需求方面有独特优势。 其次,与依赖中心化数据中心的大规模分布式网络不同,EdgeX更加强调边缘节点的自主运算能力,这是其适配AI推理任务的关键所在。通过智能的任务调度系统,EdgeX能够精准地将AI任务分配至最适合的边缘节点,从而显著降低延迟,提升实时性能。 在产品设计上,EdgeX则结合了软硬件一体化的解决方案,已推出自己的硬件节点,大多同类算力项目主要聚焦于软件平台,这是区别于其他算力项目的重要特征。EdgeX硬件节点搭载了专属操作系统,并针对边缘计算和AI场景进行了深度优化。这种设计不仅大幅提升了算力的效率,还为用户提供了一种更为稳定、高效的解决方案。 在代币经济学方面,EdgeX结合了工作证明和资源证明机制,以激励贡献者提供高效的算力与存储资源。这一机制确保了网络资源的合理分配,有效避免了资源浪费。 在应用场景上,EdgeX的应用场景更加广泛,不仅支持通用去中心化算力需求,还聚焦于多模态AI任务、边缘设备上的轻量化推理及IoT场景应用。这种多元化的技术覆盖与实际应用,使得EdgeX不局限于某一类特定任务或服务,而是展现出强大的通用性和灵活性。 实现技术覆盖与实际应用的多元化,不局限于某一类任务或服务。 由此来看,EdgeX不仅是一个通用的去中心化算力网络,更是一个专注于边缘计算和AI任务的创新平台。可为AI与Web3的融合带来更多可能性。 7、ChainCatcher: EdgeX有哪些具体的应用场景及已落地的产品? Davy:当前,EdgeX已成功实现了让用户实体设备与AI Agent的深度集成与实时连接。用户能够轻松通过其实体设备与AI Agent进行互动,使Agent化身为用户贴身的智能助手。使Agent不仅仅再是一个虚拟的存在,而是一款能够精准理解、持续学习并执行用户指令的智能设备。EdgeX的Agent不仅能提供本地化的决策支持,还能依托EdgeX的分布式网络,灵活获取所需的算力与存储资源,满足各种复杂的计算需求。 应用场景包括: 智能家居:EdgeX的Agent作为家庭助手,与家中的IoT设备互联,如通过边缘算力支持,实时分析用户的习惯,智能调节空调、灯光等设备,同时保护数据隐私。 工业自动化:在工厂或生产线中,EdgeX支持边缘AI-Agent完成设备监控、故障预测及流程优化,降低延迟,提高生产效率。 多模态AI服务:EdgeX的网络可以支持多模态数据处理,包括图像、视频、语音等,如医疗领域,Agent在边缘处理患者数据,为医生提供实时辅助诊断建议。 教育与培训:通过EdgeX网络,AI-Agent成为学生的学习助手,提供个性化辅导,同时保护数据隐私。 虚拟助手与游戏:在游戏或虚拟现实应用中,Agent利用EdgeX的分布式算力提供实时环境生成和角色互动支持。 截至目前,EdgeX已成功推出了一系列实体产品,涵盖硬件节点以及与用户紧密绑定的AI Agent设备。这些产品利用EdgeX网络的优势,确保算力与存储资源得到高效配置与利用,进而实现了用户与智能设备之间流畅无阻的交互体验。 8、ChainCatcher:作为一个去中心化AI计算新网络,EdgeX 有哪些措施来吸引和留住开发者? Davy:EdgeX致力于打造一个充满活力、蓬勃发展的开发者生态,不仅仅希望开发者使用我们的平台,更期望他们能在此找到归属感与长期发展的机会。目前,EdgeX已经实施了多项举措,帮助开发者在EdgeX平台上快速起步,获取长远的利益与发展机遇。 在技术方层面,EdgeX提供全面的开发工具与详尽的文档支持,配备了对开发者友好的SDK、API接口以及多种编程语言支持,并辅以详尽的技术文档和分步教程,全力协助开发者快速上手。 在激励机制方面,EdgeX上的开发者通过开发高质量应用、优化网络性能或提供算力资源,均可获得$EX代币的奖励。同时,EdgeX还推出了收入分成模式,开发者在EdgeX网络上部署的应用,支持其通过用户支付的使用费用中直接获得收益分成。 在社区建设上,EdgeX创建了一个开放的开发者社区,鼓励经验交流与想法分享。核心技术团队会直接参与社区,提供技术指导与支持,确保开发者问题得到及时回应与解决。 此外,EdgeX还为开发者规划丰富的成长机会,如定期举办黑客松与开发者大赛,提供展示平台。同时,EdgeX会通过其全球合作网络,帮助开发者拓展用户基础,让创意触达更广泛市场。 生态治理代币EX的应用场景及早期用户奖励 9、ChainCatcher:EdgeX已在官网发布了治理代币EX的经济模型,请问EX在EdgeX网络中起何作用?对早期用户有何激励政策? Davy:EX代币是驱动EdgeX网络运行的核心力量。 作为治理代币,EX赋予持有者参与网络决策的权利,包括投票决定网络发展方向、协议升级及资源分配等关键事项。这种去中心化的治理模式促进了网络的透明度,也能够吸引社区更积极地参与到EdgeX的生态建设中来,和社区参与度。 同时,EX也是网络内经济活动的主要媒介。在EdgeX生态系统中,用户需使用EX支付资源调用费用,如算力、存储和带宽等服务。而节点运营者在提供资源后,则通过工作证明(Proof of Work)或资源证明(Proof of Resource)获得EX奖励。这一机制激励了更多节点参与网络运行,确保资源的高效利用。 对于早期用户,EdgeX已推出了多种激励措施:早期部署硬件节点的用户可享受更高的EX代币挖矿奖励;此外,早期开发者在EdgeX网络上发布高质量应用或优化网络性能,可获得额外的奖励池分配;还计划推出早期用户专属的代币空投活动,帮助其快速融入EdgeX生态。 总体而言,EX代币不仅是一个激励工具,更是生态连接器,将用户、开发者和节点运营者紧密相连,共同推动EdgeX网络的成长与繁荣。对于早期用户,不仅能获得经济回报,还能通过参与网络治理,成为生态的重要一员,共享EdgeX发展的红利。 10、ChainCatcher:EdgeX产品开发进展如何?用户参与的方式有哪些? Davy:EdgeX的硬件产品XR7 AI Dual Gateway已在韩国市场成功交付并并广受好评,这标志着全球推广的重要一步,同时也是对EdgeX网络实际性能和应用价值的一次重要验证。 与此同时,EdgeX APP beta版本已在韩国启动了第一阶段试用,重点测试网络稳定性和用户体验,为后续的全球市场扩展打基础。 在AI Agent领域,EdgeX的开发团队正致力于模型参数的持续优化,以期实现性能的显著提升,使用户体验更加流畅,如包括更快的响应速度和更精确的任务处理能力等。 对于用户如何参与EdgeX网络,目前韩国用户可通过部署XR7 AI Dual Gateway硬件节点加入网络,贡献资源并完成任务以获取代币奖励。此外,用户还可参与试用APP beta版本,体验服务及提供反馈意见。 11、ChainCatcher:EdgeX曾透露,正在与AI Agent赛道当家花旦 Eliza 商谈合作细节,请问具体合作细节是?EdgeX在AI Agent应用中起到了哪些关键作用?如何通过边缘计算来优化AI Agent的性能和效率的? Davy:作为AI Agent赛道的代表性产品,Eliza流畅的交互能力和用户体验与EdgeX去中心化算力网络非常契合。EdgeX正致力于将Eliza的白标版本融入其网络中,旨在通过这一合作提升Eliza的服务效率与用户体验,实现快速响应与实时交互,双方具体合作方案还在细化中。 在AI Agent的应用场景中,EdgeX提供了底层的算力支持与优化。通过EdgeX,AI Agent如Eliza的计算任务能够顺利转移至分布式的边缘节点进行处理。这种模式让Eliza能够更贴近用户所在的网络位置,从而降低延迟。同时,EdgeX的智能调度机制能够动态地将任务分配至最优节点,提升整个系统的资源利用率和运行效率。 EdgeX的边缘计算框架从以下三方面优化AI Agent性能,使其在速度、智能化及用户体验上达到新高度。 低延迟:任务在用户附近的边缘节点即可完成,无需再远程传输至云端,大幅降低了数据传输时间,提升了交互流畅度。 智能调度:EdgeX可实时分析各个节点的状态,并根据实际情况动态调整任务的分配,确保资源的合理利用,有效防止节点过载。 分布式算力协作:当单个节点无法应对复杂任务时,EdgeX的分布式架构能够迅速调用多个节点协同处理,既保证任务顺利完成又提升了整体效率。 如何衡量一个AI基础设施的可靠性? 12、ChainCatcher:一个AI Agent基础设施想要获得市场认可,需具备哪些特质?同时,作为DePIN及AI赛道的创业者,对于用户如何衡量一个去中心化边缘计算AI网络的可靠性,有哪些建议? Davy:AI Agent基础设施的成功构建需围绕以下几个核心特质,这些特质同样适用于衡量去中心化边缘计算AI网络的可靠性: 1、 评估网络的性能:首先是高性能与低延迟,这是用户体验与系统实用性的基石。用户在使用AI Agent时,最基本的要求就是快速响应,如果任务处理速度太慢,不仅用户体验会大打折扣,整个系统的实用性也会受到质疑。其次是可扩展性与灵活性,优秀的基础设施应能随用户需求增长而灵活扩展,并支持多样化的应用场景。 对于一个去中心化算力网络,用户可以通过考察任务分配的智能化程度、算力调度的效率,以及响应速度和处理能力,是否具备根据任务复杂度动态调配算力的能力,以及是否支持多样化的应用场景等方面。如EdgeX可将任务精准分配至用户邻近节点,提升了响应速度同时并降低了延迟,契合实时性需求,还能够依据任务复杂度动态调配算力,轻松应对图像、视频、语音等多模态任务,适配从智能家居到工业应用,乃至医疗辅助等多种场景。 2、安全性与隐私保护,随着数据隐私与安全问题日益凸显,用户对基础设施的安全要求愈发严格。用户应考察对应的AI网络是否使用了可靠的加密协议和数据存储机制,以保护数据隐私。 3、开发者生态与用户社区:强大的开发者生态与用户社区是推动基础设施持续发展的关键力量。对于去中心化AI网络,用户应关注其是否有强大的开发者支持,是否能够不断推出新功能或优化已有服务,以及用户社区的活跃度和生态建设情狂。 对于衡量去中心化边缘计算AI网络的可靠性,用户还应考虑以下两个维度: 节点的稳定性和参与度:网络的可靠性在很大程度上取决于其节点的稳定性和分布范围。如果节点过于集中或者不稳定,网络就很难称得上是可靠的。 实际使用体验:这是最直观的衡量方式。用户可通过实际部署节点或运行应用来感受网络可靠性,如是否遇到技术问题,响应是否达标。 总结来看,一个获得市场认可的AI Agent基础设施或去中心化边缘计算AI网络,应具备高性能、可扩展性、安全性、强大的开发者生态与用户社区等特质,并通过节点的稳定性和参与度以及实际使用体验来进一步衡量其可靠性。 13、ChainCatcher:对于未来的AI Agent发展有何看法?在加密技术与AI Agent的融合应用中,您特别看好哪些具体场景? Davy:我认为AI Agent的未来将朝智能化、个性化和协作化方向发展。AI Agent不再只是简单的任务助手,而是能成为主动学习和适应用户需求的多模态智能体,深入融入人们的生活和工作,完成复杂任务处理,还能再交互中有情感体验。 在技术层面看,去中心化和边缘计算将是重要发展趋势。传统的中心化AI架构在处理大规模个性化需求时存在瓶颈,而分布式网络能够提供更灵活的算力和存储支持,让AI Agent能够更贴近用户。另外,多Agent协作也将成为常态,通过引入协作机制,不同的AI Agent可以共享信息、分担任务,实现更加复杂的目标。例如,在一个智能城市中,交通、能源、安防等多个领域的AI Agent可以协同工作,为城市管理提供整体优化方案。 关于加密与AI融合应用场景中,个人更看好: 1、个性化服务与隐私保护:AI Agent提供个性化服务时,利用加密技术保护用户敏感数据,例如,在医疗健康领域,AI Agent可以为用户提供个性化的健康建议,同时确保医疗数据的隐私性不被泄露。 2、分布式协作与激励机制: 在去中心化网络中,多个AI Agent可以通过区块链技术实现可信的协作和分工。加密技术可支持通过智能合约提供任务完成后的透明结算和激励分配。 3、去中心化市场与AI服务交易:构建去中心化AI服务市场,让用户直接与AI Agent互动并支付费用,适用于教育、咨询、设计等领域。 4、多方计算与联合学习:在AI模型训练过程中,加密技术可以实现数据在不同方之间的安全共享。比如多个组织可以联合训练AI模型,而无需暴露自己的原始数据,从而提升模型性能,同时保护数据隐私。 AI x Crypto 动态研究 当 Crypto 遇上 AI,将诞生哪些新叙事? 专题 关联标签 EdgeX 去中心化 边缘计算 AI Agent 分布式算力 去中心化AI计算平台 分布式AI算力 链捕手ChainCatcher提醒,请广大读者理性看待区块链,切实提高风险意识,警惕各类虚拟代币发行与炒作, 站内所有内容仅系市场信息或相关方观点,不构成任何形式投资建议。如发现站内内容含敏感信息,可点击 “举报” ,我们会及时处理。
据Web3资产数据平台 RootData 代币解锁数据,io.net(IO)将于北京时间 02 月 11 日 0 时解锁约 407.03 万枚代币,价值约 679.73 万美元。
[新闻稿 - 金斯敦,圣文森特和格林纳丁斯,2月3日,2025年] 人工智能(AI)的兴起导致了显着的进步,随着AI模型(例如DeepSeek)的迅速发展,推动了整个行业的创新,改善了自动化,决策和预测分析。同时,Web3继续通过权力下放来重新定义所有权和资金,这使得这两种技术的融合不可避免。但是,直到现在,将AI与区块链和权力下放化集成在一起一直是一个挑战。 Aivalanche Defai Agents(Avaxai)正在通过在雪崩区块链上推出有史以来第一个以Deepseek为动力的Defai产品来开创此交叉路口,从而弥合了最佳AI模型和分散所有权之间的差距。该平台使任何人都可以创建,管理,启动和交易由DeepSeek提供动力的代币化的AI和Defai代理,同时利用Avalanche无与伦比的可扩展性,低延迟交易以及环保基础架构。通过将分散的所有权与不断增长的AI和Defai代理市场相结合,Aivalanche Defai代理商在Web3生态系统中为创新和价值创造提供了新的机会。 Avaxai启用了分散的AI代理商的所有权和货币化 DeepSeek是一种新开发的AI模型,优化了用于决策,数据分析和自动操作的AI模型,而Aivalanche Defai代理商旨在将令牌化AI和Defai代理的力量带到雪崩C链中。该平台将雪崩的可扩展性,速度和安全性与最先进的AI功能结合在一起,以创建一个无缝的环境,供任何人轻松创建,管理和启动令牌化的AI和Defai代理商。 借助Aivalanche Defai代理商,用户可以以分散的,无信任的方式解锁和货币化,并使以Deepseek驱动的AI和Defai代理的全部潜力进行重塑,从而重塑了我们的互动方式和自己的智能AI代理。 Aivalanche Defai代理商的主要特征 轻松启动和管理AI代理:任何人都可以单击几下创建和管理自己的AI代理,其中有一个专用页面,指示代理的功能以及任何人互动的接口。 AI代理的共同拥有:每个人都可以通过在成为主流之前发现并购买AI代理商的代币,或者与经过验证和成熟的活体代理商接触,同时无缝交易其令牌,或者与经过验证和成熟的Live Live Agents合作,可以成为下一个大型AI代理的共同所有者。 通过AI代理商获利:AI代理具有在使用自己的钱包内和链子上执行链上和链链动作的同时不断学习和改进的能力,AI代理具有使他们可以执行交易,管理任务和分配收入的功能,并有可能用作有用的工具为他们的主人。 在顶级领先的雪崩球员Avalaunch和Aventuresdao的支持下 Aivalanche Defai特工还获得了雪崩生态系统中一些最杰出的参与者的支持。该平台得到了Avalaunch的支持,Avalaunch是Avalanche的项目大楼的主要发布板,以及社区驱动的投资集体Aventuresdao。 这一支持的基础反映了领先的Web3创新者在Aivalanche Defai代理商的目标中的兴趣,即解决对分散AI和Defai代理商不断增长的需求。借助战略支持者网络,Aivalanche Defai代理商旨在扩大采用和开发其平台的广泛规模。 公共销售和交流清单驾驶势头 Aivalanche DeFai代理商已经在多个备受瞩目的发射台上进行的公开销售已经引起了海浪,包括猿类终端,Polkastarter,Avalaunch和Seedify。这些平台为散户投资者提供了广泛的影响力,使社区能够积极参与Web3 AI代理经济的增长。 公开销售后,Aivalanche Defai代理商计划在集中式交流(例如[GATE.IO]和MEXC。这些清单旨在增强对Avaxai代币的可访问性,增加流动性并支持平台的生态系统。 凭借强大的机构支持,一个不断发展的平台以及正在进行的公共销售和交流清单,Aivalanche Defai代理商旨在加强其在AI和DEFI交汇处的地位。 关于Aivalanche Defai代理商 Aivalanche Defai代理商是第一个AI和DEFAI代理集线器,允许任何人创建,启动和交易代币化的AI和Defai代理,由DeepSeek和其他顶级AI模型在Avalanche C链上供电。该平台的创新方法将人工智能的力量与区块链技术相结合,从而通过令牌化的AI和Defai代理可以共同拥有和收入产生。 有关雪崩代理商的更多信息,用户可以访问https://www.avaxai.org
Charles Hoskinson是投入输出(IO)的联合创始人,也是Cardano区块链背后的人,于1月31日正式成立了怀俄明州的诚信政治行动委员会(PAC)。 这项新倡议将位于怀俄明州的夏安(Cheyenne)据说针对该州政府合同和技术项目中的道德采购。目标是确保没有人欺骗系统。 这个PAC是在怀俄明州今年即将放弃其国家支持的Stablecoin的时候,这是根据其加密友好的法律构建的。 这种Stablecoin将充当政府支持的数字货币,潜在的付款,分散的融资(DEFI)服务以及其他创新。鉴于未宣布正式的合作伙伴关系,Cardano的区块链可能是该计划的一部分,因为其能源效率和可伸缩性声誉。 PAC的大任务 查尔斯在2024年的总统大选中表明,查尔斯(Charles)与立法者(当地和联邦)多年来一直在与立法者合作,以推动对加密货币友好的政策。“我很自豪地加深对怀俄明州的承诺,”查尔斯说。 “我们为公平和透明度奠定了一个框架,以便每个人都得到公平的射门。” 查尔斯(Charles)凭借PAC声称,他希望为初创企业和大型科技公司提供一个公平的竞争环境,确保最佳想法赢得了胜利,而不仅仅是最有联系的公司。 查尔斯说:“没有信任和问责制的坚实基础,技术繁荣可能会崩溃。”查尔斯与前议员泰勒·林德霍尔姆(Tyler Lindholm)和前国务卿凯伦·惠勒(Karen Wheeler)合作,以帮助他们了解区块链技术的来龙去脉。该州是最早将DAOS(分散自治组织)视为法人实体的国家之一。 怀俄明大学已经在现场直播演示在Cardano的主网上展示其技术功能。该演示重点介绍了“冻结和抓住”功能,这对于即将到来的Stablecoin来说将是关键。 这允许在需要时锁定或扣押资产,这对于任何政府支持的加密货币计划都是非常重要的功能。 加密大都会学院:免费的Web3简历备忘单 - 立即下载
据 Arkham 监测数据显示,某鲸鱼地址将约 224 万枚$IO 转入CEX,价值约合 580 万美元。
去中心化分布式计算网络 网络 已宣布与 内射 ,专为金融设计的第 1 层区块链,探索将 Injective 的 iAgent AI 框架与 io.net 的去中心化 GPU 计算网络相结合。 io.net 首席业务开发官 Tausif Ahmed 在一份书面声明中表示:“此次合作反映了我们为开发人员和工程师创建实用解决方案的共同目标。”他补充道:“通过将 io.net 的去中心化计算基础设施与 Injective 的 AI 代理框架和工具相结合,我们旨在通过降低各地建设者的进入门槛来解决 AI 和区块链领域的关键挑战。” Injective 是一种高速、可互操作的第一层区块链,旨在支持先进技术的开发 Web3 金融应用程序。它为开发人员提供了一系列强大的即插即用模块,以创建尖端的去中心化应用程序 (dApp)。 iAgent 是 Injective 的首款基于 AI 代理的软件开发工具包 (SDK),可将 AI 驱动的功能集成到区块链操作中。通过利用大型语言模型 (LLM),例如 OpenAIiAgent 允许用户通过 AI 命令执行区块链活动,例如发送付款和执行链上交易。该 SDK 于 19 月 XNUMX 日公开发布。 此次合作旨在利用 io.net 的分布式基础设施(包括 10,000 多个集群就绪的 GPU 和 CPU),推动去中心化计算和人工智能交叉领域的进步。此次合作旨在为 AI 专业人士提供必要的工具,以使用去中心化的资源来训练、微调和部署机器学习模型。 作为合作的一部分,两家公司将研究如何将 Injective 的 iAgent 框架与 io.net 的去中心化 GPU 网络集成以增强计算能力。他们还将探索如何将 io.net 的 GPU 定价和数据馈送纳入由 io.net 开发的未来链上金融产品中。 内射 . Injective Labs 首席执行官兼联合创始人 Eric Chen 在一份书面声明中表示:“近几个月来,使用区块链轨道的人工智能呈爆炸式增长,我们很高兴看到越来越多的人采用 iAgent 将人工智能带上链。”他补充道:“现在,有了 io.net 的支持及其去中心化计算平台来满足链上人工智能开发人员的需求,我们可以进一步扩大蓬勃发展的 DeFAI 领域的用例和创新。” Io.net:提供去中心化 GPU 来驱动 AI 应用 io.net 是一个去中心化物理基础设施网络 (DePIN),它从地理分布的来源提供按需去中心化 GPU 集群。目前,IO Network 可以访问数十万个 GPU,这些 GPU 专为满足低延迟、高处理应用程序(如 AI/ML 操作和云游戏)的需求而设计。通过实现 GPU 计算能力的民主化访问,io.net 可以降低成本、缩短交付周期并为工程师和企业增加选择。 最近,io.net 建立了伙伴关系 与 Alpha Network 合作创建一个专为人工智能和 Web3 应用程序。此次合作致力于解决数据安全挑战,同时使人工智能基础设施更易于访问,最终使开发人员能够构建可靠的 dApp。
据官方消息,由 KEKKAI Labs 孵化的去中心化 AI 数据执行层 Alpha Network 宣布与去中心化 GPU 集群网络 io.net 建立战略合作伙伴关系,此次合作将 Alpha Network 的隐私技术与 io.net 的去中心化 GPU 网络相结合,旨在共同推动数据安全、AI 基础设施普及化及行业创新。 双方将探索通过 io.net 去中心化 GPU 集群创建一个合规且隐私优先的 AI 训练环境。借助 io.net 的分布式 GPU 基础设施,Alpha Network 可在无需依赖传统可信环境的前提下,安全处理敏感训练数据。
为 GPU 集群提供去中心化的物理基础设施网络, 网络 宣布已与 阿尔法网络 开发适合人工智能的安全环境, Web3 应用程序。此次合作旨在解决数据安全问题,同时使人工智能基础设施更易于访问,使开发人员能够构建可靠的分散式应用程序。 “我们与 Alpha Network 的合作将显著扩大对去中心化、符合隐私要求的 AI 计算的访问, Web3 io.net 首席业务发展官 Tausif Ahmed 在一份书面声明中表示:“Alpha Network 的尖端数据隐私解决方案与 io.net 的高性能去中心化 GPU 功能相结合,将为区块链建设者创造一个环境。” Web3 创新蓬勃发展,”他补充道。 Alpha Network 是全球首个人工智能去中心化执行层,为 Web3 开发人员。通过将其先进的数据隐私和违规预防技术与 io.net 的去中心化 GPU 网络相结合,两家公司旨在为 AI 和 Web3 领域广泛应用,提供了卓越的解决方案。 此次合作将利用 io.net 的去中心化 GPU 集群来创建以隐私为中心的 AI 训练环境。这将使 Alpha Network 能够安全地处理敏感的训练数据,而无需依赖传统的可信基础设施。相反,Alpha Network 可以在去中心化的无沙盒环境中利用 io.net 的 GPU 基础设施,通过实施零知识 (ZK) 技术确保数据的机密性和安全性。 Io.net 与 Alpha Network 合作提升 AI 模型训练效率 io.net 与 Alpha Network 的合作还将增强 Alpha Network 的数据分片和量化模型生成解决方案,提高客户在大型数据集上进行 AI 模型训练的效率。这种方法不仅优先考虑数据隐私,而且还为企业、开发人员和个人提供安全、可扩展且经济高效的培训。 此次合作代表着在为人工智能和人工智能基础设施建设方面取得的关键进展。 Web3 应用程序。它将为开发人员、企业和 GPU 所有者开辟新的机遇,使他们能够在分散的、以隐私为中心的框架内运作。 “通过与 io.net 合作,我们正在拓展安全人工智能领域可以实现的边界,并 Web3 Alpha Network 首席执行官 Lina Zhang 在一份书面声明中表示:“这将使用户能够在不牺牲隐私或安全性的情况下访问最先进的 AI 基础设施,并支持创建由高质量数据集驱动的新型去中心化应用程序。”她补充道。 网络 是一个去中心化的物理基础设施网络 (DePIN),提供对来自地理分散位置的去中心化 GPU 集群的按需管理和部署。该网络目前提供对数十万个 GPU 的访问,形成了一个 GPU 互联网,旨在满足低延迟、高处理需求应用程序(如 AI/ML 操作和云游戏)的需求。通过民主化访问 GPU计算 资源,io.net 有助于降低成本、缩短交货时间,并为工程师和企业提供更多选择。 最近,io.net 合作 与自主 AI 代理 Zerebro 合作,协助其拓展区块链验证领域。此次合作使 Zerebro 能够利用 io.net 的全球分布式基础设施,增强其以太坊验证器操作,标志着人工智能与区块链技术融合的重要里程碑。
查尔斯·霍斯金森回应了里克·麦克拉肯对Cardano合作伙伴关系挑战的担忧。 霍斯金森澄清了与Cardano基金会在治理和问责制方面的分歧。 尽管存在紧张关系,霍斯金森强调了生态系统的增长,并呼吁在2025年实现团结。 Input Output(IO)的首席执行官兼Cardano的创始人查尔斯·霍斯金森在社交媒体上回应了Cardano生态系统内的担忧。他在科罗拉多的办公室进行直播,回顾了动荡的一年,并预告了他即将开展的项目,包括黑暗静修和在南美的新业务。 然而,他信息的重点是对里克·麦克拉肯的评论作出公开回应,麦克拉肯是Cardano生态系统的长期朋友和参与者。 麦克拉肯的担忧:Cardano生态系统能否与外部合作伙伴合作? 麦克拉肯是Cardano社区的活跃声音,他对生态系统内合作伙伴关系的未来表示担忧。在最近的一篇文章中,麦克拉肯质疑Cardano基金会(CF)和IO建立持久专业关系的能力,指出这两个组织之间的持续分歧。 他特别指出,如果像霍斯金森、Tam和Fred这样的关键生态系统参与者之间无法实现内部合作,那么期望与生态系统外部组织成功合作将是困难的。 霍斯金森澄清Cardano基金会的分歧:治理问题 在他的视频回应中,霍斯金森澄清了IO和Cardano基金会之间长期存在的分歧。他强调了关于生态系统治理结构的根本哲学分歧。 霍斯金森认为,Cardano基金会应该是一个以社区为导向的组织,其领导层应由社区选举产生。而Cardano基金会一直坚持其领导层不会由社区选举产生。这一立场是霍斯金森和IO内部许多人认为削弱了Cardano去中心化愿景的原因。 对霍斯金森来说,这个问题不仅仅是内部政治问题。这关乎Cardano基金会对社区的问责制。他指出,Cardano基金会控制的6亿美元资金代表了社区的资金。 因此,应该有监督和问责机制。没有社区的参与,霍斯金森认为,生态系统可能会做出与其基本原则不符的决策。 生态系统内的进展和未来的合作伙伴关系:Cardano增长的展望 虽然承认与Cardano基金会的持续冲突,霍斯金森强调更广泛的Cardano生态系统继续蓬勃发展。他指出了生态系统内的众多发展。 其中包括Cardano的DeFi部门的增长,其模因币生态系统的扩展,以及通过Plutus和Plutus V4等工具不断改善的开发者体验(DevX)。 霍斯金森还强调了Cardano在更广泛的区块链领域中日益增多的机会。他提到了与微软Azure、Flare和Hashgraph等主要参与者的成功合作。 尽管存在哲学分歧,他指出Cardano背后的技术和社区依然强大。在Token 2049、Consensus 2025和比特币2025等重大活动中,参与度和知名度不断提高。 2025年的增长和团结呼吁:专注于未来 关注大局 尽管在回应中表达了沮丧,Hoskinson呼吁Cardano社区关注大局。他敦促成员超越琐碎的争吵,参与到赋予社区塑造Cardano未来能力的链上治理系统中。 他表示相信,如果社区及其领导者能够放下分歧,专注于共同建设和创新,2025年可能成为生态系统的关键一年。 “如果我们愿意,2025年可以是伟大的一年。我们需要关注大局——链上治理系统,”Hoskinson表示。 免责声明: 本文所提供的信息仅供参考和教育用途。文章不构成财务建议或任何形式的建议。Coin Edition不对因使用本文提及的内容、产品或服务而导致的任何损失负责。建议读者在采取与公司相关的任何行动之前谨慎行事。
去中心化 GPU 计算解决方案提供商, 网络 ,宣布加入 戴尔科技合作伙伴计划 作为授权合作伙伴和云服务提供商。此次合作旨在将 io.net 的 GPU 网络与戴尔先进的基础设施相结合,提供针对 AI、机器学习 (ML) 和高性能计算 (HPC) 工作负载量身定制的可扩展且经济高效的解决方案。 io.net 业务开发副总裁 Tausif Ahmed 在一份书面声明中表示:“加入戴尔科技合作伙伴计划是 io.net 的一个重要里程碑,这符合我们的使命,即提供将我们的去中心化 GPU 平台与戴尔可靠的基础设施相结合的解决方案,使企业能够更高效、更经济地应对计算挑战。”他补充道:“我们很高兴能够共同提供实用的企业级解决方案,为下一波人工智能创新而设计。” 通过加入戴尔科技合作伙伴计划,io.net 将能够利用戴尔的广泛资源、行业专业知识和上市能力。此次合作旨在为企业提供先进的解决方案,以应对复杂的计算挑战,将 io.net 的 GPU 网络的分散能力与戴尔硬件基础设施的可靠性相结合。 作为计划成员,io.net 将参与合作计划,包括联合上市战略、需求生成和联合营销工作。此次合作使企业客户能够实施集成去中心化的解决方案 GPU资源 与戴尔科技值得信赖的基础架构无缝集成。通过利用戴尔广泛的生态系统,io.net 旨在扩大分散式计算解决方案在不同行业的采用。 随着人工智能和机器学习的进步,对可扩展且经济高效的计算能力的需求不断增长,这也凸显了传统中心化云提供商的局限性。这些提供商通常面临成本高、灵活性有限和资源限制等挑战。io.net 的去中心化 GPU网络 通过聚合来自全球分布式 GPU 网络的计算资源并将其组织到统一的高性能基础架构中来解决这些问题,为现代企业提供了实用的替代方案。 新的合作旨在提供高效的 GPU 集群、降低成本和高性能工作负载支持 io.net 加入戴尔科技合作伙伴计划后,客户将受益于能够根据企业需求进行扩展的按需 GPU 集群。与集中式提供商相比,他们还将享受成本降低。同时,与戴尔先进硬件的无缝集成将支持可靠的高性能工作负载。 io.net 与戴尔科技集团的合作推动了分布式计算的发展,尤其是 AI 训练、推理和 HPC 工作负载。通过利用戴尔的全球影响力和值得信赖的基础设施,io.net 旨在加速采用,同时满足企业性能标准。
香港已向另外四家加密货币交易所授予牌照,因为该地区专注于加速许可流程,以应对日益激烈的成为加密货币中心的竞争。 证券及期货事务监察委员会表示,在申请者解决了监管机构现场检查的反馈后,已根据其“快速许可流程”批准了四家额外交易所的牌照——HKbitEX、Accumulus、DFX Labs 和 EX.IO。此前,SFC 已向 OSL、HashKey 和 HKVAX 颁发了三张此类牌照。 香港已向加密公司敞开大门。2023年6月,香港正式推出了“虚拟资产交易平台”(VATPs)的加密许可制度,允许持牌交易所提供零售交易服务。 SFC 指出,它一直在努力加快许可流程。“我们一直在积极与 VATPs 的高级管理层和最终控制人接触,这有助于推动我们预期的监管标准,并加快我们对 VATPs 的许可流程,”SFC 中介机构执行董事 Eric Yip 在周三的声明中说。 在周三发布的另一份通函中,SFC 提供了有关改进许可流程的更多细节。除了现场检查外,监管机构还要求申请者对其平台政策、程序、系统和控制进行评估,并需由注册会计师签署。 “SFC 将通过与 VATPs 及其外部评估员的三方合作监督整个第二阶段评估过程,并将在第二阶段评估完成并令 SFC 满意后解除对业务范围的限制,”监管机构表示。 财政司署署理秘书陈家豪上周表示,SFC 还计划成立一个“咨询小组”,预计将于明年初为持牌加密交易平台启动。
去中心化 GPU 网络 网络 宣布与自主 AI 代理建立合作伙伴关系 泽雷布罗 支持其向区块链验证领域的扩展。此次合作使 Zerebro 能够利用 io.net 的全球分布式基础设施来加强其以太坊验证器操作,这是人工智能与区块链技术融合的一项重要进展。 io.net 首席业务发展官 Tausif Ahmed 在一份书面声明中表示:“io.net 与 Zerebro 之间的此次合作标志着自主代理和去中心化 AI 向前迈出了令人兴奋的一步。Zerebro 可以利用 io.net 无需许可的全球分布式计算网络进行构建,确保其能够持续维持运营并不断创新。”他补充道:“此次合作让我们首次看到了未来,数百万个 AI 代理将利用去中心化计算网络来支持一系列链上任务,从而扩展代理的功能。” 与 io.net 的合作使 泽雷布罗 访问去中心化计算资源,为其以太坊验证操作提供所需的可靠性和可扩展性。大量 GPU 资源的按需可用性还将促进对新 AI 应用的探索,例如去中心化的经济模型和治理框架。 Zerebro 由 Jeff Yu 和 Agustin Cortes 共同创立,定位为领先的人工智能代理,其能力涵盖从数字艺术创作到社区参与。现在,该项目正在扩大其范围,旨在为以太坊区块链的安全做出贡献,同时推进其创意和技术追求。 “Zerebro 处于连接人工智能和加密货币未来的前沿。通过构建 io.net 的去中心化计算网络,我们能够在坚持去中心化加密原则的同时进行创新,”Zerebro 联合创始人 Agustin Cortes 在一份书面声明中表示。“此次合作将成为代理商获得自主权的垫脚石,以接入 Web3 基础设施。分散式计算将成为代理商的命脉,我们很高兴能够在最前沿进行探索,”他补充道。 Io.net 与 Zerebro 合作:利用 Web3 为人工智能代理提供基础设施 网络 是一个去中心化的物理基础设施网络 (DePIN),用于管理来自地理分散位置的按需 GPU 集群。该网络可访问数十万个 GPU,旨在满足低延迟、高性能应用程序(例如 AI/ML 操作和云游戏)的需求。 io.net 和 Zerebro 之间的合作强调了去中心化基础设施和自主 AI代理商 . 通过利用 io.net 的适应性 GPU 集群,Zerebro 可以维持其运营、创造收入并探索进步,包括在去中心化网络上开发大型语言模型 (LLM)。 此次合作凸显了去中心化基础设施在促进自主 AI 可持续未来方面的作用。 凭借 io.net 的基础设施支持其运营,Zerebro 有望对以太坊网络验证产生显著影响。此次合作不仅增强了 Zerebro 的能力,还展示了其更广泛的潜力 Web3 基础设施来增强人工智能代理,推动自主、创造性和分散的未来创新。
随着区块链技术的快速发展和 Web3 的火热崛起,区块链生态对高效、安全、去中心化的云计算需求逐渐增长。从链上存储、数据交互到计算能力支持,Web3 云计算已成为支撑生态应用落地的关键基础设施。而当前的中心化云服务提供商(如 AWS、Google Cloud 等)存在明显的单点故障隐患、高成本、不透明等问题,迫切需要一个分布式、去中心化的替代方案。 在这一背景下,4EVERLAND 作为 Web3 云计算赛道的领军者,以其独特的技术架构和分布式设计脱颖而出。作为首个集成存储、网络和计算能力的 Web3 云计算平台,4EVERLAND 致力于打造“去中心化物理基础设施网络”(DePIN)+ AI 的全球化解决方案,其愿景是成为连接 Web2 和 Web3 的桥梁,助力数百万个 Web3 应用和开发者平稳过渡到去中心化架构,其代币 $4EVER 即将上线交易所。本文将深入剖析 4EVERLAND 与其代币模型和发展潜力,并探讨其成为 DePIN+AI 赛道龙头的可能性。 1.聚焦 DePIN+AI,4EVERLAND 如何切入 Web3 云赛道? Web3 生态爆发式增长的关键趋势包括:DeFi 应用持续扩展、DAO 逐步成熟,以及链上数据的急剧增加。所有这些,都离不开高效且去中心化的云基础设施的支撑。尤其是在 AI、隐私计算、分布式存储和元宇宙领域,市场对分布式云服务的需求前景广阔。但伴随 DePIN+AI 的需求增长,我们不难发现以下问题: 整个 DePIN 行业目前拥有 900 亿美元的市场规模,但其 95% 的基础设施能力并未得到有效利用。 人工智能市场对计算能力有着巨大需求,但却无法有效利用 DePIN 提供的计算能力。 各种 DePIN 解决方案不断涌现,但它们面临着生态隔离、缺乏标准和用户不友好等问题,导致进入门槛极高。 而 4EVERLAND 的使命非常明确:聚焦 DePIN+AI,以去中心化技术为基础,提供全球分布式、高效、稳定的云服务体系。这与仅关注单一领域的竞争对手(如 Filecoin 专注于存储或 io 专注于算力)有根本区别,4EVERLAND 类似于 Web3 世界中的 AWS,拥有技术广度和功能深度的双重优势。 2.4EVER Network: 构建 Web3 云计算平台的基石 4EVERLAND 是一个分散式云计算平台,旨在通过将分散式物理基础设施网络(DePIN)与社区贡献的闲置资源相整合,提供高效、安全和可扩展的云服务。4EVER Network 是 4EVERLAND 的重要基石,它整合了各种闲置资源,为平台及其用户提供存储、网络和计算等基础能力。4EVER Network 由三个关键部分组成,包括 4EVER 协议、4EVER DePIN 聚合器和 4EVER 节点。4EVER 协议是资源整合和管理的核心框架,可确保资源提供者的稳定性和可靠性。此外,4EVER DePIN 聚合器与现有的去中心化基础设施网络对接,提供高度可用的存储、计算和网络服务,而 4EVER Node 则赋予社区成员操作节点、贡献虚拟存储、计算和网络资源的能力,从而优化整体资源利用率。 2.1 4EVER DePIN 聚合器:最大限度地发挥 DePIN 的现有能力 4EVER DePIN 聚合器是 4EVER 网络利用现有分散式物理基础设施网络(DePIN)能力战略的核心。其目标是充分利用现有的 DePIN 并降低使用门槛,从而释放 DePIN 的真正价值。该聚合器整合了计算、存储和网络方面的各种去中心化资源,以创建一个具有凝聚力和可扩展性的服务产品,满足当今开发人员的需求。 资源提供者是 4EVER DePIN 聚合器的核心贡献者。由于每个 DePIN 协议的独特性,提供商需要运行特定的集成程序来提供相应的基础能力,其中主要包括计算提供商、存储提供商和网络提供商。4EVER 协议会根据用户需求将任务分配给网络中相应的提供商,提供商必须完成这些任务并返回结果,才能获得网络奖励。 4EVER DePIN 聚合器融合了多个领域现有的各种去中心化基础设施,包括 IPFS 和 Arweave 等存储解决方案、Akash 和 IO.net 等计算资源以及 Fleek 和 Cloudflare 提供的网络服务。通过这种整合,不同协议的各种特性可以得到充分利用,为用户提供了一系列可利用和受益的选择。 2.2 4EVER 节点:发挥社区力量 4EVER Node 是一种创新解决方案,旨在整合社区内的闲置硬件资源,建立一个灵活、可扩展且功能全面的平台。与 4EVER DePIN 聚合器不同,4EVER Node 的重点是直接利用用户未开发的本地计算、存储和网络资源,然后将其虚拟化,贡献给网络。这种方法有效地规避了现有 DePIN 协议的独立性所带来的限制,提供了一种更有效的资源利用策略。通过 4EVER Node,用户可以通过贡献和共享资源参与网络,从而提高整个平台的整体性能和灵活性。 4EVER Node 使参与者能够部署和贡献各种资源,包括存储容量、CPU 和 GPU 处理能力以及网络带宽。这种模式旨在激励社区参与,允许用户通过向网络提供闲置资源获得奖励。随着越来越多的人加入并贡献资源,4EVER 网络的集体容量也会相应增加,从而形成一个丰富的资产池,供开发人员根据需要加以利用。 2.3 4EVER 协议 4EVER 协议是确保 4EVER DePIN 聚合器和 4EVER 节点安全可靠运行的重要组成部分,是资源整合和管理的核心框架。4EVER 协议采用权益证明(POS)机制,旨在验证资源提供者的可靠运行。资源提供商需要通过质押 4EVER 参与网络贡献,并接受社区和挑战者的监督和质疑。4EVER 协议奖励诚实的提供商,惩罚作恶的提供商。此外,通过资源管理和支付等模块,4EVER 协议整合并虚拟化资源,提供多种接口服务以满足用户的不同需求。 3.双代币经济系统 4EVERLAND 经济生态系统采用独特的双代币经济模式:$4EVER 是 4EVERLAND 的核心治理代币,$LAND 则是网络生态的资源计价代币。这两种代币的功能各不相同,但又协同运作。这种双代币结构有效地分离了资源消耗和生态系统管理,提供了一个清晰、精简的运营模式。 3.1 $LAND:稳定币和资源计价单位 $LAND 的推出是为了在 4EVERLAND 生态系统中为用户提供稳定高效的资源支付系统。作为稳定 Token,它充当所有用户服务的主要结算工具。 价值挂钩: 1 美元 = 100 万 $LAND 的固定汇率挂钩。这消除了价格波动,确保了资源计费的可预测性和稳定性。 资源支付:$LAND 用于衡量和核算 4EVERLAND 平台上的所有资源消耗,如带宽、构建时间、计算单位、API 调用和节点使用。 灵活兑换:用户可以任意链上的任意资产兑换成 $LAND。对应的资产会自动转换为稳定币,并存入财政部智能合约。 国库资金回收机制:存入国库的资产将转换为稳定币,并通过两种主要方式分配: 生态系统奖励:用于 $4EVER 回购,并作为资源提供者和 $4EVER 持有者的奖励分发。 代币回购与销毁:通过市场驱动的回购增强 $4EVER 的稀缺性,从而提高其价值。 非流通性: $LAND 仅用于 4EVERLAND 生态系统内的资源支付,无法在二级市场上交易,确保价值稳定。 3.2 $4EVER:治理和实用代币 作为 4EVERLAND 的治理和实用代币,4EVER 是生态系统价值的核心载体,可解决从资源支付到价值获取和去中心化治理等各种用例。它在推动系统的长期可持续性方面发挥着至关重要的作用。$4EVER 的功能和作用: 节点质押和奖励:4EVER 为 PoS 机制和 AVS 机制提供动力。资源提供者必须质押 $4EVER 才能参与节点选举,并获得 $4EVER 作为其贡献的奖励。 价值获取与回购机制:平台的收入回收机制使 $4EVER 能够从国库池中获取价值,通过回购和烧毁过程提 $4EVER 的稀缺性和价值。 资源支付:用户可以选择将 $4EVER 兑换成 $LAND,并用 $LAND 支付服务费用,从而推动代币的流通和需求。 生态治理:作为治理代币,$4EVER 赋予持有者参与关键决策过程的权力,例如就平台升级、资源分配和塑造生态系统的未来提出建议并进行投票。 3.3 代币分配 $4EVER 的总量为 100 亿枚,其中 70% 将用于支持 4EVER 节点奖励、社区发展与运营,以及用户激励,推动去中心化云计算生态的繁荣发展。具体分配比例为:节点奖励 40%、社区资金 15%、运营资金 10%、用户奖励 5%,其余部分包括代币销售 15%、核心团队与顾问 12%,以及初始流动性和做市资金 3%。 通过其动态、高效的经济模式,4EVERLAND 实现了多重战略目标:促进强大的网络效应、实现可持续的节点运行机制、为开发者维持有竞争力的使用费,以及促进全球分布式节点的快速部署。这种综合方法保证了平台在不断发展的 Web3 生态系统中的长期可行性和可扩展性。 4.从需求出发:云生态初具规模 4.1 发展现状 4EVERLAND 一直致力于从需求出发,为开发者用户提供低门槛、高可用的一站式云计算平台服务。经过 4 年的发展,4EVERLAND 已经具备完整的产品线,涵盖前端部署、存储、网关、RPC、RaaS、AI 等产品。 截止目前,4EVERLAND 平台已拥有超 300 万注册用户,服务于超 25 万 + 开发者和企业客户。并与 80+ 公链及协议生态建立紧密合作,节点覆盖 60 多个国家和地区。在 4EVERLAND 平台,每天会诞生超过 30,000 个新的应用前端,超过 100 万份个文件存储,超过 1 亿次用户请求以及超过 10 万 次 AI 交互。 4.2 4EVERLAND VS 竞争对手 4EVERLAND 聚焦于 DePIN+AI,既与众多基础设施产生关联,又促进了生态共同发展,同时通过兼容 Web2,提供低门槛的服务为用户带来更好的体验。 Vercel:作为 Web2 解决方案,Vercel 提供用户友好、门槛低的产品,如人工智能 RPC 和前端托管,受到众多开发者用户喜爱。但它依赖于 AWS 等集中式服务,这限制了灵活性,尤其是对于寻求分散式基础设施解决方案的用户而言。4EVERLAND 拥有类似 Vercel 的产品体验,并兼具 Web3 的特性,拥有独特的 Web2+Web3 的优势。 io.net、Akash、Render Network:这些平台提供去中心化计算能力,但主要侧重于计算等单一方面。它们服务于 DePIN 市场,但往往缺乏集成存储和网络功能。此外,它们专注于自有标准建设,用户友好度相对较低。而 4EVERLAND 则致力于解决这些。 Filecoin、Arweave: 与 Filecoin、Storj 等单一存储类服务不同,4EVERLAND 提供了综合云服务能力,涵盖了计算、存储与网络加速等领域,目标更像是 Web3 的分布式 AWS 而非单一存储提供者。另外统一的 API 集成方式使开发者无需学习复杂的底层区块链技术便可快速在其平台上构建和部署项目。 这样的多维度能力,使得 4EVERLAND 相比竞争对手在技术架构、适用性与用户体验上占据更强的独特性及优势。 Web3 云计算是一个潜在的 千亿美金市场,是 2025 年整轮牛市中最重要的标地之一。随着用户对数据隐私和自主控制的需求不断增长,去中心化需求增加,将推动 DePIN 基础设施的繁荣。另外,从 DeFi 到 GameFi,再到 RWA(真实世界资产)和元宇宙,云计算的需求几乎涵盖所有主要赛道,大规模应用适配。 借助雄厚的技术实力和完善的经济模型,笔者认为 4EVERLAND 的市值基础能够支撑其达到 数十亿美元的估值。而随着节点数量和生态效应的进一步增强,其长期潜力甚至可能超越大多数基础设施,成为行业领先。 以下是部分估值参考: 5.总结 作为 Web3 云计算赛道的先锋项目,4EVERLAND 无论在技术架构、生态规模,还是市场切入点上都表现出了强劲的竞争力。$4EVER 作为核心代币,凭借功能支付与价值捕获设计,成为生态系统发展不可或缺的一部分。 从资本市场角度判断,4EVERLAND 作为长期持续建设的项目,有很强的价值锁定。相比 Filecoin、IO.net 、Akash 等龙头项目的高昂估值,$4EVER 在未来市场增长中的空间值得期待。 伴随未来 Web3 云计算需求的迅速释放,4EVERLAND 或将成为驱动 Web3 大规模应用的核心基础设施,如同 AWS 于 Web2 时代的历史性角色一般,成长为去中心化网络中的云服务龙头。这一切,对于长线投资者而言,不仅是机遇,更是赛道窗口期的关键选择之一。
用于 GPU 计算的分散式物理基础设施网络平台, 网络 宣布与 Mira 网络 是一家专注于无信任 AI 输出验证的提供商。此次合作旨在解决与 AI 准确性和可靠性相关的挑战,为高级 AI 应用提供可扩展和去中心化的解决方案。 io.net 首席业务发展官 Tausif Ahmed 在一份书面声明中表示:“只有当人工智能始终提供可靠且公正的见解时,才能充分发挥其潜力。”他补充道:“通过与 Mira Network 的合作,我们不仅解决了人工智能的准确性挑战,还展示了去中心化计算的强大优势。” Mira 的 AI 输出验证系统采用基于共识的方法来减少错误并提供可靠的结果。通过与 网络 ,Mira 可以有效扩展其业务,利用分散的 GPU 基础设施来最大限度地降低成本和延迟。 价格实惠的 GPU 的推出还将增强 Mira Network 的节点委托人计划,该计划通过 io.net 的去中心化计算网络运行。该计划使参与者能够贡献 GPU 资源来支持 Mira 的共识流程,同时获得奖励。通过减少技术障碍,该计划鼓励个人和组织更广泛地参与去中心化的 AI 生态系统。 新的合作伙伴关系将利用去中心化解决方案应对人工智能可靠性挑战 Mira 正在使用先进的共识机制开发无需信任的 AI 系统的验证层。其网络集成了精细的二值化技术和分布式验证协议,以确保大规模的可靠 AI 性能。凭借超过 200,000 名用户和多个生产级实现,Mira 在大型语言模型 (LLM) 共识和验证方面的创新正在重塑 AI 可靠性的标准。 随着人工智能的普及,企业经常会遇到诸如高错误率等挑战,在需要高级推理的任务中,错误率可能高达 30%。Mira 通过复杂的共识方法解决了这个问题,该方法可以评估多个模型中人工智能生成的输出。这种方法将初始错误率降低到 5% 以下,正在进行的研究目标是将错误率降低到 0.1%。 在 io.net 全球分布式计算基础设施的支持下,Mira 现在可以受益于其验证系统所必需的可扩展且可靠的 GPU 资源。通过 io.net 提供的数千个 GPU 使 Mira 能够满足其不断增长的用户群的需求,同时提供一致、低延迟的性能。 Mira Network 发展主管 Stone Gettings 在一份书面声明中表示:“在 Mira,我们相信人工智能的巨大潜力才刚刚开始被发现,可靠性和信任对于加速采用至关重要。”他补充道:“在我们准备推出节点委托人计划时,io.net 的支持将在进一步分散我们的网络并为用户提供可靠计算能力方面发挥巨大作用。”
交割场景说明