Aethir与GAIB和GMI Cloud合作,推出由H200 GPU驱动的去中心化AI计算
Aethir 与 GAIB 和 GMI Cloud 宣布合作
去中心化云基础设施提供商 Aethir 已与 AI 计算经济层 GAIB 以及专注于 AI 和 AGI 的云服务提供商 GMI Cloud 合作,将最先进的 H200 Tensor Core GPU 集成到其去中心化计算生态系统中。这标志着 H200 GPU 在 Web3 领域首次投入生产,为企业和开发人员提供了高性能计算技术。
H200 Tensor Core GPU 是最新的高性能图形处理单元 (GPU),专为加速 AI 和机器学习工作负载而设计。 H200 基于创新的 Hopper 架构构建,与前代产品 H100 相比,在内存容量、带宽和计算效率方面均有显著提升。这些增强功能使 H200 成为企业和开发人员处理复杂深度学习和生成式 AI 应用的理想选择。此外,此次合作还将使 GPU 资源在全球范围内更易于访问且更具成本效益。
通过这一举措,Aethir、GAIB 和 GMI Cloud 将为企业客户提供处理要求苛刻的 GPU 任务所需的强大计算能力,包括大型语言模型 (LLM) 训练和 AI 推理。这种集成为企业提供了一种访问最新 GPU 技术的全新去中心化方式,从而加速了大规模 AI 应用的开发。
GAIB 引入了一种由真实 AI 现金流支持的新型收益资产。GMI Cloud 在 GAIB 网络上质押物理 H200 GPU,然后将其再质押到 Aethir,使这些计算资源可供任何需要它们的人使用。未来,GAIB 将把这些 GPU 及其收益代币化并上链。这将使用户能够直接投资、交易和拥有 GPU 作为资产。通过购买 GPU NFT,用户可以获得由支持 Web2 和 Web3 AI 需求的底层 GPU 产生的奖励和收益。
作为此次合作的重要合作伙伴,GMI Cloud 还利用其在云技术方面的专业知识和技术资源,在优化将 H200 GPU 集成到去中心化网络中方面发挥着至关重要的作用。GMI 在云基础设施方面的丰富经验确保了 H200 GPU 的潜力能够得以实现,推动了 AI 开发的创新并提高了全球开发人员的可访问性。
GMI Cloud 创始人兼首席执行官 Alex Yeh 表示:“ 我们的使命是通过高效、按需的 GPU 云为人类在 AI 方面的雄心赋能。我们不只是在构建云,我们还在创造 Al 时代的支柱。通过与两家强大的行业参与者联手,GMI Cloud 正在改变开发人员和数据科学家使用 NVIDIA GPU 的方式,推动人工智能创新,造福所有人。”
Aethir 首席执行官 Daniel Wang 表示: “通过此次整合,我们在全球范围内提供企业级分散式 GPU 计算。通过利用我们庞大的网络,我们为下一代人工智能开 发人员提供了他们所需的工具,以高效构建、训练和部署强大的模型。”
GAIB 首席执行官 Kony 表示: “GAIB 正在通过构建一个经济层,将 GPU 转变 为流动性强、可交易的收益资产,从而解决投资非流动性计算资产和高进入门槛的 挑战。这种方法释放了新的投资机会,提高了市场效率,并加速了人工智能经济的增长。”
关于 Aethir
Aethir 是一家专注于 AI 的企业级 “GPU-as-a-service”服务提供商。其去中心化的云计算基础设施使 GPU 提供商能够与需要强大 GPU 来处理苛刻的 AI/ML 工作负载的企业建立联系。凭借不断增长的超 40, 000 个顶级 GPU 网络(包括超 3, 000 个 NVIDIA H100),Aethir 可随时随地提供大规模的企业级 GPU 计算。
在 Framework Ventures、Merit Circle、Hashkey、Animoca Brands、Sanctor Capital 和 Infinity Ventures Crypto (IVC) 等投资者的支持下,Aethir 已获超 1.4 亿美元的融资,为去中心化计算的未来铺平道路。
关于 GAIB
GAIB 旨在成为未来 AI 计算的经济层。该公司正在通过将 GPU 及其相关收益代币化来创建一种新型收益资产。GAIB 这个名字不仅受到电影《沙丘》(Dune)的启发——未知或未来(he unseen or the future),还专注于三个领域:GPU、AI 和金融化。GPU 是 AI 时代的新资产,计算是 AI 时代的新货币。就像《沙丘》中的香料一样,GAIB 正在解放价值数万亿美元的 AI 和计算市场 。
谁控制了计算,谁就控制了宇宙。真正实现 AiFi、代币化 GPU、GPU 支持的稳定币等。
关于 GMI Cloud
GMI Cloud 正在为 AI 驱动的未来奠定基础,确保未来的技术推动我们的世界向前发展。
GMI Cloud 不仅仅是裸机,它还使用户能够在最先进的模型上进行训练、微调和运行推理。它的集群已准备好使用高度可扩展的 GPU 容器和预配置的流行 ML 框架。