

随着 Dyna Robotics 不断扩大其 GPU 集群规模,训练任务开始给对象存储访问路径造成巨大压力

借助 Alluxio S3 写缓存,小对象 PUT 延迟降至约 4-6 毫秒,提升幅度达到 5-8 倍;而大对象写入在低延迟且稳定状态下,每个 Alluxio worker 可持续保持 6GB/s 以上速度,随着 Alluxio worker 的增加,性能几乎呈线性扩展。

企业级数据访问加速平台领导者 Alluxio 宣布上线 Oracle 云市场(Oracle Cloud Marketplace),正式成为 OCI(Oracle Cloud Infrastructure )全球合作伙伴之一。这一里程碑式的合作标志着双方将为共同客户提供更便捷的AI基础设施解决方案,通

Alluxio 是一款云原生数据加速层。随着当今计算性能已远超数据访问能力,Alluxio 旨在弥合高性能 GPU 计算与分布式云存储之间的鸿沟,解决现代 AI 基础设施面临的关键 I/O 和数据搬运挑战。 去中心化对象存储库架构 DORA(Decentralized Object Reposito

云对象存储(Amazon S3,GCS,Azure Blob,阿里云OSS等)本身就是大规模存储的高性价比之选,而加上 Alluxio 这一层“超级加速器”,即可瞬间解锁亚毫秒延迟和线性扩展能力。无需改动现有 S3 架构,你的 S3 就能直接进化为高性能 AI 数据引擎!

Alluxio凭借其在人工智能和数据分析领域的创新技术与卓越表现,成功入选由权威科技媒体CRN评选的【2025 CRN AI 100 榜单】,并跻身“15家最热门人工智能数据与分析公司”之列。

在Alluxio近期举办的线上技术讲座中,Coupang资深后端工程师Hyun Jun Baek 分享了Coupang如何利用分布式缓存加速机器学习模型训练。本文提炼了Hyun分享的核心观点,重点介绍了Coupang的分布式缓存方案如何重塑其跨区域混合云机器学习平台。 👉 观看完整视频分享 👈 Co

近日,Alluxio 宣布与芝加哥大学 LMCache 实验室开发的 vLLM Production Stack 项目达成战略合作。作为大语言模型(LLM)推理领域的开源项目,vLLM Production Stack 旨在为 LLM 推理提供高效的集群级全栈解决方案。

从业务痛点剖析到Alluxio解决方案应用,再到企业价值收益,深入挖掘跨境电商企业实战经验,赋能更多电商领域负责AI和大数据的相关从业者,在自身业务中开展更多的创新应用。

哔哩哔哩是中国年轻一代的标志性品牌及领先的视频社区, 经过十年多的发展,围绕用户、创作者和内容,构建了一个源源不断产生优质内容的生态系统,B站已经涵盖7000多个兴趣圈层的多元文化社区,曾获得QuestMobile研究院评选的“Z世代偏爱APP”和“Z世代偏爱泛娱乐APP”两项榜单第一名并入选“BrandZ”报告2019最具价值中国品牌100强。

火山引擎对象存储 TOS 是火山引擎提供的海量、安全、低成本、易用、高可靠、高可用的分布式云存储服务。通过网络,用户可以在任何应用、任何时间、任何地点管理和访问 TOS 上的数据。

近期,我们推出了全新的Alluxio Enterprise AI产品。新产品的一项关键创新是采用了新一代架构 DORA——去中心化对象存储架构。本文探讨了我们对DORA 架构的开发过程,包括开发契机、设计决策和架构实现。 一、从数据分析转向AI工作负载 Alluxio自 2016 年推出企业版以来,
京公网安备 11010802040260号