研扬科技 | 首款深度学习AI服务器——AI Machine ARC-628横空问世
在人工智能和智能机器新时代,深度学习正以与历史上其他计算模型截然不同的方式改变着世界。互动语音、视觉搜索和视频推荐是我们日常使用的众多人工智能服务中的几项。
准确性和响应速度是决定用户是否采用这些服务的关键因素。随着深度学习模型的准确性和复杂性越来越高,CPU 已经无法再提供响应灵敏的用户体验。
为此AAEON ,推出外扩型深度学习2U 模块化服务器AI Machine ARC-628,其可以搭载 3片NVIDIA 采用革命性的 NVIDIA Pascal™ 架构的 Tesla P4,AI Machine ARC-628专为处理深度学习工作负载,启用智能响应人工智能服务而打造,可显著提升其运作效率。
AI Machine ARC-628服务器是AAEON 基于Intel平台开发的一款高性能,高可靠,灵活配置双路服务器。
最大可以支持内存容量2TB。
集成高性能SATA控制器,支持最多达8块前置热插拔2.5寸SAS/SATA硬盘,后置2块系统盘。
可以放置3块 PCIEX16加速器产品,如此强大的扩展性足以支撑HPC任务的运行。
更多的PCI-E插槽、更高速率的PCI-E总线让用户轻松实现高密度计算。适合深度学习,高性能低功耗计算。
搭配 3 片 Tesla P4 ,凭借小巧外形和50W/75W的功耗进行加速。
可以同时进行105路 720P 30frames/s H.264 视频流进行转码和推理。
为智能视频识别提供了高性价比的选择。
AI Machine ARC-628是一款为满足对空间部署和高性能要求的深度学习,高性能计算、图形工作站等应用场景。该产品体现了计算、性能、扩展性和密度的完美融合。
深度学习服务器
高性能计算GPU节点服务器
全新处理器架构带来性能飙升
真正工业级可靠和可用性
IO 超强扩展
强大的处理性能
采用Intel E5-2600V3/V4系列处理器,为用户的各项应用提供更高的性能。Intel Xeon E5-2600V3/V4系列处理器同前代产品相比,进行了各项重大的改进,包括处理器可以支持更多核心,升级4通道内存控制器,并支持最高2400MHz的DDR4 ECC内存,内存带宽性能最大可提升35%。2TB的大内存支持,ECC 内存自动纠错,拒绝蓝屏。
极大的提高了系统性能,处理器之间采用更多、更快的QPI总线,大幅提升CPU之间协作效率,实现了内存,存储,处理能力和GPU的高性能组合。
真正工业级可靠和可用性
提供更高的内存带宽和更低的内存存取延时,大幅度提高系统可靠性和可用性,完全杜绝了内存故障引起的系统宕机,蓝屏不再出现。
丰富的可扩展性
每颗CPU搭配8根内存插槽,内存容量可扩展至2TB,提供灵活且强大的内存配置选择。
6根I/O扩展槽,提供PCI-E 3.0插槽,可配置3块高性能GPU。
使用Intel 最新的C612芯片组,支持SATA ,SATA RAID扩展,最多支持10个 SATA ,给用户更多选择。
远程管理
集成IPMI2.0,专用KVMLAN ,轻松实现远程管理,为服务器系统大规模部署和分布式应用提供强大的管理能力,允许从任何地点通过网络访问,安装,配置和控制远端服务器,硬件级别的访问和控制,与操作系统无关,提供完全的兼容性,高安全性,所有传输的数据均经过加密。
RAID 阵列卡可选
通过硬件阵列控制器,可以大幅提升磁盘IO性能和安全性,减少机器的负载,哪怕突然断也可以将数据安全写入磁盘,降低磁盘风险和故障。
高密度
采用2U机架式设计,独特的高密度机架式服务器散热结构设计,集高性能,高密度与高可靠性于一身。
更多产品请登录研扬科技官网咨询在线客服或直接拨打服务热线:400-770-6868