鲲鹏×研扬科技:加速普惠AI应用,激发千行万业数字化潜能
供稿:工控网
人工智能技术的爆发式增长,推动了AI大模型向千行万业渗透。在2025年政府工作报告中更是提出,持续推进“人工智能+”行动,将数字技术与制造优势、市场优势更好结合起来,支持大模型广泛应用。在宏观政策导向与行业发展趋势下,市场对于能够支撑大模型高效运行的技术解决方案需求极为迫切。
然而,高昂的训练与推理成本一直是大模型应用普及的瓶颈。一方面,大模型训练与推理的算力消耗巨大,传统云端部署虽功能强大,却面临数据隐私泄漏风险、网络延迟及成本高昂等问题;另一方面,高敏感行业需要解决数据越权访问、敏感信息泄露及xPU计算环境安全漏洞等挑战。
站在人工智能发展的关键转折点,DeepSeek的出现具有重要意义,它有力地证明了在边缘端应用场景中,完全能够以更低的成本投入,依托更优化的模型架构实现高效运作。在DeepSeek问世之前,业界普遍将研发重点集中于数据中心基础设施的规模化扩展,主要通过持续提升计算资源的部署规模以及增加模型参数量(如从百万级到千亿级)来驱动模型精度的优化和训练迭代周期的压缩。这种技术路径本质上遵循了"规模扩展法则(Scaling Law)",即通过算力与数据规模的线性增长换取模型性能的指数级提升。
但随着行业逐步向边缘化、场景化方向演进,客户需求结构发生了显著变化。他们不再满足于传统的计算服务模式,而是希望以更高效、更低总体拥有成本的方式实现业务场景的快速部署。这就要求企业能够提供更加灵活、便捷、高效的解决方案,以满足客户在不同场景下的多样化需求。
以鲲鹏模组为智能底座,打造大模型推理一体工作站
面对市场对于高效能计算平台日益增长的需求,鲲鹏与全球工业嵌入式计算领域的领军者研扬科技的合作顺势展开,双方基于各自技术优势与资源储备,针对上述行业难题开启了一系列创新性实践探索。
鲲鹏模组作为AI开放生态的智能算力基座,其特点鲜明:硬件方面,提供主板、模组、部件等创新产品,支持多种国产GPU和昇腾NPU的灵活适配。软件方面,openEuler操作系统以其独特的sysHAX加速能力,显著提升系统性能,优化资源利用效率;实现亿级数据毫秒级检索,为大数据分析和人工智能应用提供高效支撑;openGauss的DataVec向量数据库实现亿级数据毫秒级检索,为大数据分析和人工智能应用提供高效支撑;鲲鹏BoostKit PCIPC安全能力则全方位保障AI大模型和RAG端到端的安全性,确保数据传输和存储的可靠性,让合作伙伴在开发和部署过程中无后顾之忧。
华为坚持硬件开放、软件开源的战略,鲲鹏模组能够轻松融入广泛的生态系统,支持合作伙伴快速推出自有品牌的产品,共同推动产业繁荣发展。基于鲲鹏模组,研扬科技打造了AIWS系列大模型推理一体工作站。该工作站深度融合鲲鹏生态优势,助力企业灵活构建智能化应用场景。
AIWS大模型推理一体工作站为各行业提供了高效、经济的私有化模型部署方案,显著提升了模型推理的性价比与部署灵活性,加速了AI普惠化的普及,助力了企业实现智能化转型。采用单路Smart版鲲鹏模组,具备32核性能,搭配128G内存,强大的多线程能力和内存容量为客户的应用和加速推理性能提供有力的保障。
结合昇腾或其他国产算力卡,再配以openEuler操作系统,打造出全栈自主的工作站形态。该工作站具有以下三个特点:
大模型离线部署
避免私有数据接入云端,助力全国4000万家中小微企业,以及政府、大型央国企部门、科室进行本地数据私有化部署。
静音化与小体积设计
区别于大型服务器,工作站进行了大量静音化设计,极致静音体验可选择液冷款,体积小巧。
宽温范围
适应复杂环境,温度适应范围为0~55度,可放置在办公室、杂物间、小型机柜等场所。
在DeepSeek出现后,研扬与鲲鹏产品线紧密合作,仅用7天便完成了DeepSeek蒸馏版模型(70B、32B、14B)在工作站的适配和性能优化。在通义千问QwQ - 32B发布后,研扬科技更是第一时间将QwQ-32B进行了实测部署,仅用3 - 4天便全部部署到工作站上。基于QwQ-32B的测试结果显示,AIWS工作站并发数达50路,系统吞吐量469 token/s,单路速度26token/s,推理效率显著提升。基于鲲鹏+昇腾的推理工作站搭配QwQ-32B大模型底座这套黄金组合,使得用户以经济高效的方式实现本地化AI部署。
以工厂安全生产场景为例,研扬推出的基于鲲鹏模组的推理工作站,部署DeepSeek R1 32B模型,将工厂安全生产操作手册等资料做为本地知识库挂载进大模型,打造专属的AI安全助手,将产线工人安全培训的效率极大提高。以往,生产员培训需要研读大篇幅的手册文档,且无法结合实际操作场景发现问题,借助AI专属安全助手,生产员可以通过智能问答,全局搜索,场景化考题,自动纠错等功能,快速熟悉安全生产的有关规定和操作指南。这一应用不仅将新员工入职安全培训的效率大幅提升50%,也更好的满足了企业生产安全的核心诉求,符合政策监管要求。工作站采用鲲鹏模组与openEuler操作系统,可将整体系统吞吐量提升30%,满足更多人同时使用,提供更快的响应速度,充分展现了鲲鹏模组与大模型结合在实际场景中的优势。
为进一步提升大模型在真实场景中的应用体验,实现开箱即用的便捷性,研扬科技推出 AIOS系统。该系统集成了编码助手、智能搜索、知识库、写作等模块化、矩阵化的AI应用。搭配AIOS系统,可实现一键开启高效推理全流程服务。在客户专业场景中,AI工作站应作为专属助手。例如,在安全生产领域,可搭载安全手册等数据到数据库,用RAG方式让大模型输出员工培训、考试等内容;在政务领域,科室可借助其进行政策解读、时间轴输出、报告生成等;还可应用于AI程序员、医疗、司法助手等面向用户具体场景的尝试。
此外,AIOS系统包括软硬件安装、调试和部署在内的全方位专业服务,并支持私有化部署,用户仅需简单操作,即可实现与DeepSeek的无缝对接,一键启动DeepSeek高效推理全流程服务。
携手鲲鹏,驱动AI普惠新生态
通过鲲鹏与研扬科技的紧密合作,AIWS大模型推理一体工作站及AIOS系统,正为各行业的智能化转型注入新动能,推动产业向高效率、高智能、高安全方向演进。
研扬科技与鲲鹏保持着紧密且深度的合作关系。2024年,研扬便加入了首批KPN伙伴计划。依托鲲鹏在硬件产品、计算技术和生态建设方面的深厚积累,为研扬提供高性能的鲲鹏模组;研扬则发挥自身擅长定制化服务的专长,将边缘AI快速落地到千行百业。在鲲鹏产品线的大力支持下,研扬科技研发周期缩短30%,人员投入减少20%,高效合作成果显著。
随着双方合作的不断深入,研扬科技将持续优化和拓展AIWS大模型推理一体工作站的功能和应用场景。在技术创新方面,基于鲲鹏系列模组,丰富AIWS系列产品线;借助openEuler操作系统提升系统吞吐量;持续升级大模型底座,提升AI专属助手性能,更好地服务客户。在应用拓展上,探索更多行业的应用可能性,推动人工智能技术在更多领域的深度融合,使客户能以更低成本在本地运行大模型推理任务,高效快速地进行智能化升级,为AI下沉千行百业贡献更多智慧与力量。