
AI 应用虽受益于云存储的扩展性和成本优势,却始终受困于延迟问题。为了弥合差距,Alluxio AI
最新的 MLPerf Storage v2.0 测试结果(文末“阅读原文”可跳转查看)显示,Allu
近日,AI 与数据加速平台 Alluxio 正式推出 Alluxio Enterprise AI 3
近日,Alluxio 宣布与芝加哥大学 LMCache 实验室开发的 vLLM Production Stack 项目达成战略合作。作为大语言模型(LLM)推理领域的开源项目,vLLM Production Stack 旨在为 LLM 推理提供高效的集群级全栈解决方案。
近日,Alluxio发布Alluxio Enterprise AI 3.5 版本。该版本凭借仅缓存写入模式(Cache Only Write Mode)、高级缓存管理策略以及Python的深度集成等创新功能,大幅加速AI模型训练并简化基础设施运维,助力企业高效处理海量数据集、优化AI工作负载性能。
AI驱动的工作负载常因海量的数据管理复杂度高导致效率瓶颈以及训练周期延长。
在当前的技术环境下,搜索、推荐、广告、大模型、自动驾驶等领域的业务依赖于海量数据的处理和复杂模型的训练。这些任务通常涉及从用户行为数据和社交网络数据中提取大量信息,进行模型训练和推理。这一过程需要强大的数据分发能力,尤其是在多个服务器同时拉取同一份数据时,更是考验基础设施的性能。
近期,我们推出了全新的Alluxio Enterprise AI产品。新产品的一项关键创新是采用了新
随着AI/ML学习架构从早期的预生产架构向着可扩展架构发展,数据访问始终是瓶颈。仅靠添加更快的存储硬件或中心化NAS/NFS无法完全消除性能不达标以及影响系统操作的管理问题。
下一代解决方案显著加速端到端 ML工作流 – 模型训练提速高达20倍,模型服务提速高达10倍 , GPU 利用率实现2-4 倍提升
Alluxio 2.9版本的主要新增功能包括带租户隔离的横向扩展、Kubernetes上简化管理运维的 以及强化S3 API的安全性。
英特尔公布 AI 百佳创新激励计划第七期创新团队名单,Alluxio凭借在AI模型训练优化方面高效的数据平台架构,成为17家AI智慧创新型入选企业之一。
NetApp® StorageGRID®作为全球已大规模部署的可靠对象存储,与Alluxio数据编排平台实现相互兼容,共同支持各类数据驱动型应用程序。