穿透 io.net 的 AB 面:一场被低估的 AI 革命?
如果我说 io.net 的核心底色,是「草根」,你会怎么看?
融资 3000 万美元,获 Hack VC、Multicoin Capital、Delphi Digital、Solana Lab 等顶级资本青眼,怎么看都不是那么「接地气」,尤其是叠加 GPU 算力 /AI 革命的标签,无一不是高大上的代名词。
然而,喧嚣的社区议论之下,关键的线索往往被忽视,尤其是 io.net 可能给全球算力网络带来的深刻变革——不同于 AWS、Azure、GCP 的「精英化」定位,io.net 本质上是在走平民化路线:
错位补充被忽视的「腰部 + 长尾」算力需求,聚集闲置的 GPU 资源,打造一个企业级、去中心化的分布式计算网络,将更多增量 / 存量算力资源赋能更为广泛的中小型用户的 AI 创新,用低成本、高弹性实现全球 AI 创新的「生产力再解放」。
AI 浪潮背后,被忽视的算力生产关系潜流
什么是本轮 AI 浪潮及未来数字经济时代的核心生产力资源?
毫无疑问,算力。
根据 Precedence Research 的数据显示,全球人工智能硬件市场预计将以 24.3% 的复合年增长率(CAGR)增长,到 2033 年将超过 4,735.3 亿美元。
即便抛开预测数据,从增量和存量的逻辑角度展望,我们也可以明眼可见地发现,未来算力市场发展过程中,注定将长期存在两个主要矛盾:
- 增量维度,呈指数级趋势的算力需求侧增长,注定远大于呈线性趋势的算力供给侧增长;
- 存量维度,头部效应之下算力被「掐尖」,腰部和长尾玩家无米下炊,但大量分布式 GPU 资源又被闲置,供需双边严重错配;
增量维度:算力需求远大于供给
首先是增量维度,除了 AIGC 大模型的极速膨胀之外,医疗、教育、智能驾驶等无数处于爆发初期的 AI 场景都在快速铺开,这无一不需要海量的计算资源,因此当下市场对 GPU 算力资源的缺口不仅将持续存在,甚至还在不断扩大。
也就是说,从供需角度看的话,在可预见的未来,市场对算力的需求一定是远远大于供给,且需求曲线在短期内还是呈现指数级上升的趋势。
而供给侧则由于受限于物理规律和现实生产因素,无论是制程工艺提升还是大规模建厂扩产能,至多都只能实现线性增长,这也就注定了 AI 发展的算力瓶颈会长期存在。
存量维度:腰部和长尾玩家的供需严重错配
与此同时,在算力资源有限且面临严重增长瓶颈的情况下,亚马逊云科技(AWS)、微软 Azure、谷歌云平台(GCP)三家就合计占据了六成以上的云计算份额,处于明显的卖方市场。
它们囤积高性能 GPU 芯片,垄断大量算力资源,而腰部和长尾的中小算力需求方不仅没有议价权,还不得不面临高资金成本、KYC 进入门槛、租赁霸王条款等诸多问题,此外传统云服务巨头出于收益比考量,也难免忽视「腰部 + 长尾」用户的差异化业务诉求(譬如时间更短、更即时、体量更小的租赁需求等等)。
但实际上,在云服务巨头的算力网络之外,大量 GPU 算力却闲置无用,譬如全球还有数十万家第三方独立互联网数据中心(IDC)训练任务小出现资源浪费,甚至包括加密矿场和 Filecoin、Render、Aethir 等加密项目的海量算力闲置。
据 io.net 官方估算,目前仅美国一地的 IDC 显卡闲置率就高达 60% 以上,这就产生了一个颇具讽刺意味的供需错配悖论:数以万计的中小型数据中心、加密矿场等运营商的过半算力资源被日常浪费,无法带来有效营收,但腰部和长尾的 AI 创业者却又在忍受高成本、高门槛的云巨头算力服务,甚至更多样化的创新需求无法得到满足。
旱的旱死,涝的涝死,明确了这两个基本前提,其实我们就能一看看出目前全球 AI 发展合全球算力市场的核心矛盾所在——一方面 AI 创新遍地,算力需求不断膨胀,另一方面,一众「腰部 + 长尾」的算力需求和闲置 GPU 资源却又无法被有效满足,游离在当前的算力市场之外。
这个问题不只是 AI 创业者日益增长的算力需求同落后的算力增长之间的矛盾,更是广大「腰部 + 长尾」AI 创业者、算力运营商和不平衡不充分的供需错配之间的矛盾,所以远超中心化云服务商的解决能力范畴。
正因如此,市场需要也在呼唤新解。试想一下,如果这些手握算力的运营商,可以灵活地选择在空闲时出租算力,是不是就可以以低成本获得一个和 AWS 类似的计算集群?
要知道新建一个如此大算力的数据网络是极其昂贵的,这就催生出了专门针对中尾部闲置算力资源、中小型 AI 创业者的算力撮合平台,以调动这些零散的闲置算力资源,与中小模型训练及大模型在医疗、法律、金融等细分场景进行专门撮合。
不仅能够满足中尾部的多元化算力需求,也将是对现有以中心化云巨头为主的算力服务格局的错位补充:
- 手握海量算力资源的云服务巨头负责大模型训练、高性能计算等「急难险重需求」;
- io.net 等去中心化云算力市场负责中小模型计算、大模型微调、推理部署等更多元化的「灵活低成本需求」;
其实就是提供一条更具包容性的成本效益和算力质量之间的动态平衡供需曲线,这也更符合市场优化资源配置的经济学逻辑。
故 io.net 等分布式算力网络本质上就是一个融合「AI+Crypto」的解决方案,即用分布式协作框架结合代币激励的基础经济手段,来满足潜力巨大但又处于被流放状态的中尾部 AI 市场需求,允许中小 AI 团队按需求定制化搭配和购买大云无法提供所需的 GPU 计算服务,实现全球算力市场与 AI 发展的「生产力再解放」。
所以说白了,io.net 并不是 AWS、Azure、GCP 的直接竞争对手,反而是与它们携手优化全球算力资源配置、共同做大市场蛋糕的「错位补充战友」,只是分管不同层级的「成本效益&算力质量」需求的战线罢了。
甚至不排除 io.net 通过聚合「腰部 + 长尾」的供需双边玩家,再造一个不亚于现有头部三家云巨头体量的市场份额。
io.net:全球 GPU 算力撮合平台
正因为 io.net 是基于 Web3 分布式协作 + 代币激励来重塑中尾部算力市场的生产关系,所以我们其实可以在其中窥见 Uber、滴滴等共享经济的影子,即类似于 Uber、滴滴的面向 GPU 算力的撮合交易平台。
众所周知,在没有 Uber、滴滴之前,广泛意义上用户「即叫即有」的打车体验是不存在的,因为若干个私家车是一个庞大而又无序的闲置车辆网络,你要是想打车,只能在路边招手等待,或向每个城市对应的出租车中心公司申请调度,耗时、不确定性高,还属于卖方强势市场,对绝大部分普通人来说并不友好。
而这其实也是目前整个算力市场供需双方的真实写照,正如上文所言,腰部和长尾的中小算力需求方不仅没有议价权,还不得不面临高资金成本、KYC 进入门槛、租赁霸王条款等诸多问题。
那具体来看的话,io.net 究竟是如何实现「全球 GPU 算力集散地 + 撮合市场」的定位,或者说要想帮助中长尾用户获得算力资源,需要什么样的系统架构和功能服务?
灵活且低成本的撮合平台
io.net 最大的属性,就是轻资产的算力撮合平台。
也即和 Uber、滴滴一样,自身不涉及风险极高的 GPU 硬件等重资产的实际运营,而是将中长尾的零售算力(很多在 AWS 等大云处被视为二等算力)供应联系起来,通过撮合匹配,盘活原先处于闲置状态的算力资源(私家车)和亟需算力的中尾部 AI 需求(打车人)。
其中 io.net 一端连着中小型 IDC、矿场、加密项目等成千上万的闲置 GPU(私家车),另一端链接数以亿计中小型公司的算力需求(打车人),然后 io.net 作为撮合平台进行中间调度,就像是一个经纪商对无数笔买单、卖单进行一一匹配撮合。
这就通过聚集闲置的算力,用低廉的成本和更灵活的部署配置形式,来帮助创业者训练更个性化的中小 AI 模型,极大提高了资源的利用率,其中的优势则很明显,无论市场过冷过热,只要存在资源错配,实现撮合的平台需求都是最旺盛的:
- 供给侧,中小型 IDC、矿场、加密项目等闲置算力资源供给方只需与 io.net 对接,既不用专门成立 BD 部门,也无需因算力规模小而被迫折价卖给 AWS 等,反之可直接将闲置算力以极低摩擦成本,按市场价甚至更高价格匹配到合适的中小算力客户,从而获得收益;
- 需求侧,原本在 AWS 等大云面前没有议价权的中小算力需求方,也可以通过 io.net 这个资源管道,对接更小规模、无需许可、无需等待、无需 KYC、部署时间更灵活的算力,自由挑选、组合自己所需要的芯片来组成「集群」,完成个性化的计算任务;
本身中尾部的算力供给方和需求方,在 AWS 等大云面前都存在类似的议价权弱、自主权低等痛点,io.net 则将腰部和中长尾的供应与需求盘活,提供这样一个撮合平台,让供需双方都能以比 AWS 等大云更优的价格、更灵活的配置形式来完成交易。
从这个角度看,类比淘宝等平台,早期出现低劣算力也是平台经济无法杜绝的发展规律,而 io.net 也针对供应方还是需求方设置了一套声誉系统,根据计算性能、对网络参与度来累计分数,获得奖励或优惠。
去中心化 GPU 集群
其次,虽然 io.net 是零售型供需双方之间的撮合平台,但现在的大模型等算力场景都是需要若干张显卡共同进行计算——不只要看你这个撮合平台能聚合多少闲置的 GPU 资源,还要看平台上分散的算力之间联系有多紧密。
也就是说,这张囊括不同地域、不同规模中小型算力的分布式网络,需要实现「分散但又集中」的算力架构:可以根据不同场景的灵活计算需求,将若干分布式的 GPU 放到同一个框架下进行训练,并确保不同 GPU 的沟通协作要非常迅速,至少实现足堪使用的低延迟等特性。
这就完全不同于某些去中心化云算力项目只能受限于同一机房 GPU 的使用困境,背后的技术实现则涉及到 io.net 产品组合的「三驾马车」:IO Cloud、IO Worker、IO Explorer。
- IO Cloud 基本业务模块为集群(Clusters),是一个可以自我协调完成计算任务的 GPU 群组,人工智能工程师可以根据自己的需求来自定义想要的集群,它也与 IO-SDK 无缝集成,为扩展 AI 和 Python 应用程序提供全面的解决方案;
- IO Worker 提供一套用户友好的 UI 界面,允许供需双方在 Web 应用程序上有效管理其供应操作,范围包括与用户帐户管理、计算活动监控、实时数据显示、温度和功耗跟踪、安装协助、钱包管理、安全措施和盈利计算相关的功能;
- IO Explorer 主要为用户提供全面统计数据和 GPU 云各个方面的可视化图。它通过提供对网络活动、重要统计数据、数据点和奖励交易的完整可见性,使用户能够轻松监控、分析和了解 io.net 网络的各数据细节;
正因以上的功能架构,io.net 允许算力供给方可以轻松共享闲置的计算资源,大大降低了准入门槛,需求方也无需签订长期合同、忍受传统云服务中常见的漫长等待时间,就能快速组建具有所需 GPU 的集群,获得超强算力和优化的服务器响应等服务。
轻量级的弹性需求场景
再具体一点,谈及 io.net 和 AWS 等大云的错位服务场景,主要集中在一些大云不具性价比的轻量级弹性需求,其中大家能够想到的诸如中小 AI 创业项目的细分领域模型训练、大模型微调等多元化场景,均在此之列。
此外,还有一个容易被大家忽视的普遍适用场景:模型推理。
众所周知,GPT 等大模型的早期训练,需要借助上万张高性能 GPU、以超强算力、海量数据进行长时间的高质量计算,这也是 AWS、GCP 等大云的绝对优势领域。
但训练好之后,主要的算力需求就成了细水长流的模型推理,这个阶段对于算力的需求,也要远远高于训练阶段——基于已经训练好的模型进行推理的,也就是我们普通用户和 GPT 等模型的日常对话互动场景,反倒占据了 80%-90% 的 AI 计算份额。
有意思的是,推理过程的整体算力更为平缓,或许只需要几十张 GPU 数分钟就可以得出答案,且对网络延迟、并发性的要求更低;同时还有一点,绝大部分 AI 公司可能也不会单独训练自己的大模型,而只是选择围绕 GPT 等少数头部大模型进行优化、微调,而这些场景都天然适合 io.net 的分布式闲置算力资源。
少数派的高强度高标准应用场景之外,更广泛的、日常的轻量级场景也是一块亟待开发的处女地,看起来很零碎,但市场份额甚至更大——据美银最新报告,高性能计算在数据中心总可用市场(TAM)中只占很小一部分,仅约 5% 的份额。
简言之,不是 AWS、GCP 等用不起,而是 io.net 更具性价比。
Web2 BD 的胜负手
当然最后的最后,io.net 等面向分布式算力资源的平台,核心竞争力还是在于 BD 能力,这才是关键的胜负手。
除了英伟达高性能芯片催生出显卡掮客这一奇景之外,其实困扰很多中小 IDC 等算力运营商的最大问题,就是「酒香也怕巷子深」。
所以从这个角度看的话,io.net 其实坐拥一个同赛道项目难以复刻的独家竞争优势——有一支直接驻地硅谷的 Web2 BD 团队,他们都是浸淫算力市场商务领域多年的老炮,不仅了解中小型客户的多元化场景,更是掌握一众 Web2 客户的终端需求。
据 io.net 官方披露,目前已有二三十家 Web2 公司表达了算力购买 / 租赁意愿,愿意因为更低成本、更灵活算力服务来尝试或试错(有些可能在 AWS 根本等不到算力),试错且单个客户都至少需要几百上千张显卡(折合每个月数十万美元的算力订单)。
这种需求端的真实终端付费意愿,本质上也会吸引更多的闲置算力资源在供给端主动涌入,从而最容易率先实现 Web2&Web3 的破圈,形成先发的网络规模效应。
Token 化的算力生态结算层可能
正如上文所言, io.net 是基于 Web3 分布式协作 + 代币激励来重塑中尾部算力市场,其中后者主要是采用 IO 和 IOSD 的双代币模型:
- 代币 IO,效用包括支付算力租赁费用、给予 IO Worker 分配激励、奖励 AI 与 ML 部署团队持续使用网络、平衡部分需求和供给、为 IO Worker 计算单位定价以及社区治理等;
- 稳定币 IOSD,与美元挂钩,只能通过销毁 IO 来获得,旨在为 io.net 平台提供一个稳定的价值存储和交易媒介;
此外 io.net 也考虑支持供给方通过抵押 IO 来提高被租用的概率,需求方也可抵押 IO 来优先使用高性能 GPU,进而允许围绕抵押功能开发完整的生态系统,来捕获整个算力生态产生的增量价值。
这其实就又引出了一个问题,既然 io.net 聚集了庞大的闲置算力资源,那能不能更进一步,直接结合 Crypto 的算力代币化玩法,给予 GPU 更大的链上金融可能性?
譬如 io.net 未来完全有可能基于庞大的算力网络,搭建一条算力专用链,通过提供无许可、无准入门槛的 Token 化基础设施服务,使任何人、任何设备都能够直接将算力 Token 化(譬如将 A100、H100 转换为标准化代币或 NFT),进而允许交易、质押、借贷、放贷和杠杆。
这相当于为用户创造了一个广阔的 GPU 算力链上市场,全球各地的用户和资金都可以自由并且高效地进入,我们可以简单设想两个场景,来一窥未来围绕算力的链上金融市场可以拥有怎样的想象空间。
1.证券型算力 Token
譬如 io.net 上某个算力运营商拥有若干张 A100 或 H100 显卡,但他此时有资金需求或想提前落袋为安,那就可以在 io.net 上将这部分显卡对应的算力价值打包为一个 NFT 或 FT——其中该 Token 代表对应显卡未来一年(或某段时间)算力现金流的折现,可以以 IO 定价。
由于绝大部分普通投资者并没有直接购买、持有、运行 AI 算力的机会,这类 Token 就给市场交易员提供了一个博弈未来一段时间算力价格涨跌的机会,拥有大量算力而现金流紧张的运营商也获得了资金杠杆,可以随时随地根据实际需求进行灵活流动性变现。
期间该 Token 背后的显卡由 io.net 提供运营服务,后续对应算力赚取的现金流按比例分成(Token 持有人获得 0.9,运营节点获得 0.1)。
且因为是标准化代币,所以也可以像其它 Token 一样在 CEX 或者 DEX 中自由流通交易,这样也进一步形成自由进出的实时算力定价,将 GPU 算力真正转化为具备全球流动性的资源。
2.债券型算力 Token
此外,还可以通过发行债券型 Token 集资购买高性能显卡,增加网络算力,其中债券本金相当于显卡设备自身的价值,债券利息则是未来显卡算力租赁出去的现金流收入,意味着显卡的潜在算力出租价值和未来收益就是 Token 的市场价值,持有 Token 就可以获得真实的 RWA 收益。
这相当于为全球用户创造了一个广阔的 GPU 算力市场,全球各地的用户和资金都可以自由并且高效地进入 GPU 算力市场,而无需担心高门槛、高资金,进一步将真实显卡和各种去中心化金融产品完全打通,为后续更多更丰富的针对用户的配套服务打下了基础。
更为关键的是,整个过程都以 IO 作为主要的交易 / 流转货币,使 io.net/IO 有望成为整个全球算力生态的结算层 / 结算货币,且这个围绕算力代币化的链上金融市场的远景,几乎可以再造一个类似 io.net 去中心化算力网络叙事的估值空间。
小结
总的来看,Web3 作为一种新型生产关系,天然适配代表新型生产力的 AI,这也是技术和生产关系能力的同时进步,从这个角度看,io.net 的核心逻辑,正是通过采用「Web3+ 代币经济」的经济基础架构,来改变传统云服务巨头、中长尾算力用户、全球闲散网络计算资源之间的生产关系:
针对 AI 算力供需的现实痛点提供解决方案,构建一个囊括并服务「腰部 + 长尾」GPU 算力资源 & 用户需求的双边市场,优化算力资源的供给和配置,带来全球 AI 发展尤其是中小型 AI 创新的生产力大解放。
所图愿景无疑宏大,如果能够成功,大概率会成为全球 GPU 算力生态的核心撮合基础设施与价值结算层,料将获得最佳的估值溢价,极具想象空间,但也无疑充满挑战。