凌华科技发布AES-100 边缘智能服务器

​AES-100边缘智能服务器,颠覆传统服务器,架构让人工智能边缘部署更轻松

供稿:工控网

全球领先的边缘计算解决方案提供商—凌华科技推出基于华为Ascend Atlas200的全新边缘智能服务器AES-100,突破固有服务器的设计理念,采用分布式AI节点加弹性灵活的处理器设计方案,可在紧凑的1U空间内布置多路边缘处理单元,也可以根据场景和需求不同搭配不同的CPU模块,适用于广泛的AI边缘应用。


image.png

AES-100视频分析服务器架构图


产品亮点


•AES-100采用华为Atlas200边缘智能计算核心,在1U空间内最多可支持24路Ascend310并行处理,最高具备了528TFLOPS算力;


•每个Atlas-200可独立部署任务,达到物理隔离部署不同的算法;

灵活多变的计算核心,可搭配Intel、兆芯、飞腾等多种处理器,适应不同的工作环境和要求,还可满足国产化CPU加国产化AI模块的需求;


•提供高网络吞吐能力,标配支持4路千兆网路和1路管理网口;


•高可靠性,提供双冗余电源;


•单瓦算力优秀,整机可达到1.38TFLOPS/W;


与传统的集中式算力架构相比,AES-100采用的分布式多路AI节点能够有效地降低硬件成本。


算力架构

传统集中式算力架构

分布式算力架构

产品特点

CPU+GPU的异构计算,多个GPU通过PCIE链接到两颗处理器,如:双路4PU服务器、双路8GPU服务器;

每颗AI SOC芯片是一个完整的小算力节点,配置独立的CPUAI核心、编解码核心、显存、存储和操作系统;

CPU主要职责

负责数据预处理,如视频软解码,CPU性能要求较高,根据GPU数量增加,CPU的性能也要增加;

系统CPU:负责任务调度,对CPU性能要求不高;

SOC CPU:负责数据预处理;

编解码核心:负责视频编解码;

内存主要职责

GPU显存之间数据交换,一般配置的内存容量要大于GPU的显存总容量,GPU数量越多,需要配置的内存容量也越大;

系统内存:负责任务调度,对内存容量要求不高;

SOC 内存:相当于显存,用于数据交换;

成本对比

CPU和内存的性能要求高,成本占比高

CPU和内存的性能要求低,成本占比低


在高算力的场景下,采用分布式算力架构的硬件成本可大幅度下降。AES-100可以广泛应用在城市道路对行人、机动车以及非机动车的特征结构化数据分析,可极大提高在海量视频中对目标的查找速度;监所等特殊场合发生的一场行为进行检测,并及时发出报警,有效提升视频监控的价值,保障工作人员及在押人员的安全。


了解更多关于凌华科技。


【关于凌华科技】


凌华科技(股票代号:6166)引领边缘计算,是AI人工智能驱动世界的推动者。我们制造并开发用于嵌入式、分布式与智能计算的边缘硬件与软件解决方案,全球超过1600家客户信任凌华科技,选择我们作为其关键任务的重要伙伴,从重症监护室的医疗计算机到全球第一辆高速自动驾驶赛车,都有我们的足迹。


凌华科技是英特尔、NVIDIA、AWS和SAS的重要合作伙伴,并加入了英特尔顾问委员会、ROS 2技术指导委员会以及Autoware自动驾驶开源基金会。我们积极参与了开源技术、机器人、自主化、物联网、5G等超过24个标准规范的制定,以驱动智能制造、网络通信、智能医疗、能源、国防军工、智能交通与信息娱乐等领域的创新。


凌华科技拥有1800多名员工和200多家合作伙伴。25年以来,我们秉持并推动当今和未来技术的发展,创新科技,转动世界。


请关注凌华科技LinkedIn,微信公众号(ADLINKTECH),或访问adlinktech.com.cn。


发布时间:2022年6月16日 14:43 人气: 审核编辑:王妍
更多内容请访问(工控网

我有需求