AI行业面临企业级GPU稀缺和成本高昂带来的瓶颈。

人工智能行业正在努力解决训练复杂模型所需的 GPU 的稀缺性和高成本问题。 DEKUBE 推出了一种用于分布式 AI 训练的网络解决方案,通过利用消费级 GPU 实现 AI 开发的民主化。

人工智能(AI)行业对训练大型语言模型 (LLM) 的计算能力面临着指数级的需求。由于 Nvidia 的 H100 和 A100 等高端图形处理单元 (GPU) 的稀缺性和高成本,该行业的需求正面临瓶颈。

在强调高端 GPU 的重要性和稀缺性时,Oracle 创始人兼董事长拉里·埃里森 (Larry Ellison)分享的一则轶事生动地强调了这一情况。在与估值2 万亿美元的 GPU 制造商 Nvidia 首席执行官兼创始人黄仁勋共进晚餐时,埃里森讲述了他和埃隆·马斯克如何发现自己处于“乞求”获得 Nvidia 企业级技术的境地。

再加上技术和生产限制,高端 GPU 的稀缺导致大公司近乎垄断,从而抑制创新并使较小的实体和研究人员处于不利地位。

最终用户 GPU 中未开发的计算能力

然而,大量消费级和以前专用于挖矿的 GPU中蕴藏着尚未开发的计算能力,这些 GPU 具有实现人工智能开发民主化的潜力。尽管如此,解决消费级 GPU 在内存、计算能力和带宽方面的限制至关重要,因为这些因素传统上使得它们不适合训练广泛的人工智能模型。

DEKUBE旨在通过创建由消费级 GPU 提供支持的全球最大的人工智能训练网络之一来彻底改变人工智能基础设施。这种消费级 GPU 的创新使用开启了大规模分布式人工智能训练,培育了一个既灵活又经济高效的网络。该平台的方法使人工智能开发民主化,让 Llama2 70B 和 Grok 314B 等复杂的法学硕士触手可及。这一能力使 DEKUBE 在行业中脱颖而出,标志着在使先进的人工智能变得可访问和可实现方面取得了重大飞跃。

DEKUBE 计划的一大亮点是 GPU 挖矿活动,用户可以通过简单的界面将 GPU 连接到网络并赚取 DEKUBE 积分。这些积分随后可以在主网启动时转换为代币,为社区参与提供激励,并为网络贡献者提供切实的奖励。

克服AI训练的效率瓶颈

该公司的战略解决并克服了跨区域协作法学硕士培训中与数据传输和同步相关的关键效率瓶颈。 DEKUBE 的方法允许将家用 PC 中的消费级 GPU 集成到具有企业级 AI 计算能力的网络中。

DEKUBE 的技术通过优化流程的各个方面,包括网络传输层、LLM、使用的数据集和训练流程,提供了全面的解决方案。该优化可以有效利用普通消费级 GPU 的计算资源,解决计算能力严重短缺以及训练大型 AI 模型相关的高成本问题。

DEKUBE 已成功在其分布式计算能力网络上部署Llama2 70B,利用广泛的消费级 GPU。此次部署说明了利用更广泛可用的硬件来训练复杂的人工智能模型的可行性,这可能会影响该领域更广泛的采用和创新。

计划部署的 Grok 314B 是最大的开源法学硕士之一,拥有3140亿个参数,预计将进一步测试人工智能中分布式计算的极限。通过将 Grok 集成到其网络中,DEKUBE 旨在增强高水平人工智能技术的可扩展性和可访问性。

该平台得到了业界的广泛关注和支持,近百位技术专家历时三年精心打造。著名的人工智能企业家和全球领先的矿工为最新一轮融资做出了贡献,筹集了20至3000万美元,用于在2024年第二季度建立最广泛的分布式人工智能训练基础设施,在线运行超过 20,000 个 GPU。

随着测试网预计于2024年5月推出,DEKUBE 旨在大幅降低 AI 模型开发人员的算力采购成本和周期,加速全行业的技术进步。

DEKUBE未来将继续为开源LLM开发者和团队提供计算资源支持,投资和孵化优秀的AI项目,并成为他们与Web3之间的桥梁,推动行业创新和发展。

更轻松地访问高端 GPU 可以为创新铺平道路,促进更广泛的访问,并使更广泛的受众能够为人工智能领域的进步做出贡献。通过挖掘消费级 GPU 的潜力并克服计算能力稀缺和高成本的挑战,DEKUBE 将自己置于人工智能领域变革运动的最前沿。

声明:本文所述观点并非519TGY链上之家的立场,并不构成对购买、持有或出售任何数字资产(包括加密货币、硬币和代币)或进行任何投资活动的邀约或建议,本文仅供参考。投资存在风险,请自行评估。转载需注明来源,违者必究!