
AI 应用虽受益于云存储的扩展性和成本优势,却始终受困于延迟问题。为了弥合差距,Alluxio AI
Inferless 为企业提供无服务器平台,帮助企业轻松部署定制化的 LLM。LLM 推理基础设施是实现高性能、可扩展部署的核心。
最新的 MLPerf Storage v2.0 测试结果(文末“阅读原文”可跳转查看)显示,Allu
近日,AI 与数据加速平台 Alluxio 正式推出 Alluxio Enterprise AI 3
Alluxio凭借其在人工智能和数据分析领域的创新技术与卓越表现,成功入选由权威科技媒体CRN评选的【2025 CRN AI 100 榜单】,并跻身“15家最热门人工智能数据与分析公司”之列。
在Alluxio近期举办的线上技术讲座中,Coupang资深后端工程师Hyun Jun Baek 分
近日,Alluxio 宣布与芝加哥大学 LMCache 实验室开发的 vLLM Production Stack 项目达成战略合作。作为大语言模型(LLM)推理领域的开源项目,vLLM Production Stack 旨在为 LLM 推理提供高效的集群级全栈解决方案。
分享嘉宾 陈得泳 中国联通大数据平台 SRE 工程师,致力于基于开源生态构建稳定、高效、安全、低成本
从业务痛点剖析到Alluxio解决方案应用,再到企业价值收益,深入挖掘跨境电商企业实战经验,赋能更多电商领域负责AI和大数据的相关从业者,在自身业务中开展更多的创新应用。
近日,Alluxio发布Alluxio Enterprise AI 3.5 版本。该版本凭借仅缓存写入模式(Cache Only Write Mode)、高级缓存管理策略以及Python的深度集成等创新功能,大幅加速AI模型训练并简化基础设施运维,助力企业高效处理海量数据集、优化AI工作负载性能。
AI驱动的工作负载常因海量的数据管理复杂度高导致效率瓶颈以及训练周期延长。
“Solidigm 和 Alluxio 联合推出了高效的分布式 AI 缓存方案。通过将 Solidigm 的 D5-P5336 用作读缓存,D7-PS1010 用于 checkpoint 写入,并搭配 Alluxio 的低操作开销解决方案,我们帮助客户实现了大规模 AI 场景下成本和性能的最佳平衡。优化后的方案充分利用了Solidigm D7-PS1010 Gen5 TLC SSD 的写入带宽和 D5-P5336 Gen4 QLC SSD 的读取带宽,同时将 TLC 和 QLC SSD 的写放大系数保持在 1.02。
在当前的技术环境下,搜索、推荐、广告、大模型、自动驾驶等领域的业务依赖于海量数据的处理和复杂模型的训练。这些任务通常涉及从用户行为数据和社交网络数据中提取大量信息,进行模型训练和推理。这一过程需要强大的数据分发能力,尤其是在多个服务器同时拉取同一份数据时,更是考验基础设施的性能。