登录社区云,与社区用户共同成长
邀请您加入社区
暂无图片
摘要: YiheCode Server通过软硬解耦的微服务架构,解决了AI落地中算力碎片化难题。其核心设计包括: 控制平面(中心服务器)与数据平面(边缘计算)分离,支持X86/ARM异构部署; 边缘盒子动态纳管,适配英伟达GPU、华为昇腾等NPU芯片; 基于Docker的容器化交付,确保环境一致性,简化私有化部署流程。 系统通过边缘计算调度和轻量通信协议,实现算法推理与硬件解耦,降低95%开发成本
上周三凌晨2点,当我看到显示,冷启动日志真正的信创AI,不需要妥协。它不需要Python胶水,不需要Docker黑盒,不需要外挂.so——它就是一个干净、快速、可审计的二进制文件,在麒麟OS上安静运行。作者后记这37个坑,我替你踩过了。这200ms,我替你争到了。现在,轮到你了——从这45MB开始,从你的信创项目开始。
更重要的是,Python生态打破了领域边界,支持计算机视觉与自然语言处理的跨模态融合,让开发者能够基于统一的语言环境,灵活组合不同工具构建复杂的多模态AI系统,真正实现“一套语言,全栈智能”。(df .query('成绩 > 60') .groupby('班级') .agg({'成绩': ['mean', 'std']}) .reset_index() .sort_values(('成绩', 'm
服务化MindIE Benchmark工具是通过部署昇腾服务化配套包后,以调用终端命令的方式测试大语言模型在不同配置参数下的推理性能和精度,并通过表格的形式展示模型在各个阶段的推理耗时(例如FirstTokenTime、DecodeTime等),以及对应时延的平均值、最小值、最大值、75分位(P75)、90分位(P90、SLO_P90)和99分位(P99)概率统计值,最后将计算结果保存到本地csv
ReaL 是一个面向算法设计者的强化学习框架,核心目标是:将 RL 框架从完整应用演进为高性能、可复用的后端依赖。AReaL 通过 极简 API + 可扩展插件机制,把算法开发者从复杂的系统工程中解放出来,使其专注于 RL 算法、Reward 设计与Agent 行为建模,而不是分布式、通信、容错等底层细节。项目地址:https://github.com/inclusionAI/AReaL。
他介绍,中国长城作为国产算力基础设施核心厂商,深耕信创服务器领域多年,已完成基于飞腾、海光、鲲鹏三大技术路线的全栈布局,形成覆盖芯片、整机、解决方案的完整能力。未来,GBase(gbase database)数据库将以长沙为支点,持续投入技术与服务资源,携手本地生态伙伴,共同推动数据库技术与区域重点产业深度融合,为湖南乃至全国数字经济高质量发展构建安全、可靠、高性能的数据基座。通过引入AI技术,可
【项目摘要】本项目构建"虚实融合训练场+Agent协同平台+国产智算底座"三位一体技术体系,突破具身智能在仿真迁移、多机协同等工程瓶颈。采用云-边-端架构,集成高保真仿真(1000+并行)、多智能体协同(延迟<50ms)和全栈信创适配(鲲鹏/海光+国产GPU)。实现10万节点并发、100PFLOPS算力支撑,零样本迁移成功率>95%,端到端延迟<5ms。项目总
本文探讨了AI算法在硬件上的部署适配落地过程。核心思路是通过NPU调度器将算法拆分为并行计算任务,并由AI编译器生成的Task在NPU硬件上并行执行。文章以华为Ascend芯片为例,详细介绍了NPU调度器的层级架构和工作原理,包括Stream/Task/Block三级并行模型。同时分析了软件调度器的局限性,提出硬件调度器(HTS)方案,通过专用硬件模块实现细粒度任务调度。最后从AI推理引擎角度,阐
随着多模态语音大模型的快速发展,语音理解与生成任务对算力平台的适配能力提出了更高要求。本文记录在Atlas 800I A2AI处理器上完成 Fun-Audio-Chat-8B 模型迁移适配的完整流程,涵盖环境搭建、依赖管理、模型下载及常见问题排查,为同类项目提供可复用的技术参考。参考链接:https://github.com/FunAudioLLM/Fun-Audio-Chat问题原因解决方案Py
本文详细记录了在昇腾Atlas 800I A2平台部署Evo2基因组语言模型的完整流程。主要内容包括:1) 从UCSC数据库下载染色体FASTA数据并合并;2) 配置YAML文件进行数据预处理;3) 解决环境依赖问题,包括Megatron-LM路径设置和Apex编译;4) 处理运行时卡顿等异常情况。文章提供了从数据准备到环境配置的全流程技术方案,特别针对昇腾NPU环境下的常见问题给出了解决方案,为