研扬推出MAXER-2100 导入AI技术为自动光学检测注入力量
专业物联网及人工智能边缘运算平台研发制造大厂—研扬科技,正式推出其首款AI推论服务器产品系列—MAXER-2100。MAXER-2100是一款2U机架式AI推论服务器,由Intel Core i9-13900处理器驱动,旨在满足高性能计算需求。
MAXER-2100搭载第12代和第13代Intel Core LGA 1700插槽类型 CPU,最高可达125W,并整合了 NVIDIA GeForce RTX 4080 SUPER GPU。除了标配的 NVIDIA GeForce RTX 4080 SUPER,该产品还兼容于NVIDIA L4 Tensor Core和NVIDIA RTX 6000 Ada GPU,并已获得NVIDIA认证作为边缘系统。
研扬在产品发布时强调,MAXER-2100凭藉高性能CPU和领先的GPU,能够执行复杂的AI算法和数据集,同时处理多条高分辨率影片串流,并利用机器学习优化大型语言模型(LLM)和推论模型。
为满足低延迟操作需求,MAXER-2100提供最高128GB的DDR5系统存储器,通过双通道SODIMM插槽。存储方面,包括一个M.2 2280 M-Key NVMe插槽和两个支持RAID的可热插拔2.5英寸SATA SSD槽。系统还提供丰富的多功能扩充选项,包括一个PCIe [x16]插槽、一个M.2 2230 E-Key WiFi插槽和一个带微型SIM卡槽的M.2 3042/3052 B-Key插槽。
MAXER-2100在机构连接埠设计方面,拥有四个RJ-45埠,其中两个运行速度达到2.5GbE,另外两个则为1GbE,并且配备了四个USB 3.2 Gen 2接口,速度达到 0Gbps。在工业通讯方面,MAXER-2100通过DB-9埠支持 RS-232/422/485 接口。显示接口包括HDMI 2.0、DP 1.4和VGA,充分发挥其搭载的 NVIDIAGeForce RTX 4080 SUPER GPU的优异图形能力。
MAXER-2100凭藉其1000W电源供应器、125W CPU、整合的NVIDIA GEFORCE RTX 4080 SUPER GPU及可能的额外扩展卡,尺寸仅为17英寸 x 3.46英寸 x 17.6英寸(431.8mm x 88mm x 448mm),极致精简。这得益于采用三风扇的创新散热架构,优化CPU和关键机箱零件的空气流动,同时降低系统噪音。
研扬指出,该系统主要针对三大用户分类—有边缘计算需求的客户、需要中央管理系统的客户和使用AI的企业客户。这些组织和企业主要需要具有可扩充功能的服务器级边缘推论系统,以应用于自动光学检测(AOI)和智能城市解决方案等领域。
研扬智能平台产品处资深协理薛绍周表示,MAXER-2100可以透过其内建的周边接口或网络连接埠整合,同时运行多个 AI 模型,处理多条高分辨率影像串流。凭藉其高性能CPU、强大GPU、大容量存储器和高速网络接口,MAXER-2100能够处理 50-100+条高分辨率影像串流,是应对实时影片分析应用的理想解决方案。
研扬的第二大目标市场是那些需要远程多设备管理功能的客户,例如运行诊断、部署或优化AI模型,或在边缘设备上储存本地数据。谈到产品对此类客户的适用性,薛绍周表示:「通过MAXER-2100,我们的客户可以利用K8S、OTA和OOB管理,更新和扩充边缘设备操作,应对智能城市、交通和企业AI应用中的多个AI工作负载管理挑战。」
研扬表示,对于企业AI客户而言,透过利用MAXER-2100,企业可以有效地运用其数据来构建和部署由LLM驱动的高级AI解决方案,包括自然语言处理、内容生成和客户互动自动化。MAXER-2100带来的主要好处是数据在边缘处理和储存的安全性,以及在运行期间训练和优化推论模型的能力。
更多MAXER-2100的产品信息,请上研扬官网查询,有小量需求的客户,可透过eShop购买。
研扬科技集团(研扬)是台湾专业物联智能解决方案研发制造大厂,成立于1992年。研发制造并行销全球IoT及AI边缘运算解决方案,另有嵌入式电脑主板及系统、工业液晶显示器、强固型平板电脑、工控机、网络安全设备以及相关配件等,提供OEMODM客户及系统整合商完整且专业之软硬件解决方案。同时,研扬科技有专属团队提供定制化服务,协助您从研发初期发想到产品制作、量产到售后服务,提供一贯之专业谘询与服务,为您量身打造高品质产品。研扬科技目前提供多款AI边缘运算产品及智能城市、智能零售及智能制造等系统整合和解决方案。研扬是英特尔钛金级会员,同时也是NVIDIA的菁英级夥伴(Elite partner)。欲了解更多详细信息请参考研扬科技官方网站。