「AMD AI技术日」展现开放架构的优势 助力AI应用快速普及
拜人工智能(AI)应用蓬勃发展之赐,政府推动「百工百业用AI」的策略下,鼓励企业开发AI创新应用以解决产业痛点,从软硬整合、数据应用到场域导入,协助产业界突破算力、数据与人才瓶颈。这场由数发部数码产业署与AMD共同主办「AI国际技术日」活动,于2025年10月30日汇集AMD技术团队、工研院及开发者社群,成为一场聚焦于AI高效能运算开放平台与企业AI部署实务的科技飨宴。
活动由AMD台湾区商用业务处资深业务副总经理林建诚开场,由于生成式AI的蓬勃发展,AI相关的技术发展更是一日千里,AMD为了链结开发者社群与企业用户,积极举办技术相关的研讨会。
林建诚指出,AMD在AI落地应用有几个重要的优势,首先,AMD的x86架构对台湾产业界而言是长久以来是比较熟悉的开发环境,容易上手,第二,AMD作为开放架构的推动者,其ROCm的软件生态系统提供强大的使用者友善的环境,助力AI应用的发展,第三、AMD多样化的产品线,能满足使用者在成本效益与弹性配置的需求,适合企业用户拥抱AI应用的发展趋势。
数码发展部数码产业署林俊秀署长在致词中表示,全球AI技术正快速发展。数产署与国际大厂一直都保持密切合作,如今面对技术驱动的新时代,更需要及时引进国际技术与趋势、强化连结,让台湾产业能力与国际同步。
2025年,数码产业署与多家国际企业合作,包括像是与AMD等国际大厂携手办理国际技术日活动,将最新AI技术引入台湾,协助产业掌握发展趋势。林俊秀署长也分享,数码发展部持续透过算力、数据、人才、行销、资金等五大政策工具,协助产业提升能量,并促进国际合作、推动台湾AI生态系发展。
AMD引领开放式生态系加速产业创新 展现全方位AI解决方案
AMD资深业务协理黄伟乔精辟简要的介绍AMD多样化产品线与解决方案,协助企业打造AI智能应用。AMD采取三大重要的AI策略,首先就是、强大算力引擎与卓越产品线,凭藉EPYCTM CPU、Instinct GPU、Ryzen AI CPU、Radeon AI GPU、以及Versal自行调适系统单芯片(SoC)等产业界高度评价的端对端AI运算完整解决方案,加速企业的AI部署,为AI、云端、终端及嵌入式工作负载推出广泛的解决方案与产品组合。
第二,AMD拥抱开放系统的架构,为客户打造多元选择,除了整合领先业界的GPU、CPU之外,还加入UALink(Ultra Accelerator Link)联盟,强化CPU、GPU与交换器(Switch)间高速I/O数据交换标准;另外,AMD支持开放的超以太网络(UEC)标准规格的网络卡,对于机架式机柜解决方案则支持OCP联盟的技术平台,这些一系列积极支持开放标准,加速生态系统的整合。
第三,AMD以ROCm的开放式软件堆叠提供完整堆叠开发(Full Stack Development),同时开发应用程序前端和后端的程序,包括整合驱动程序、开发工具和API,可编写从低端核心到终端用户应用的设计,并同步拥抱开放软件架构与开源软件社群,尤其以支持开源夥伴Hugging Face合作提供的AI模型,纳入在Windows与Linux上对PyTorch框架的支持,以及在速度上强调只要新硬件一上线就能用地同步支持的决心,提供直接支持相关模型移转到AMD生态系统一系列的实际辅助,这些帮助都让使用者有感,以更完整的框架支持、硬件兼容性与开发工具,让企业与开发团队可以从实验性开始打造长远的AI应用。
AMD与工研院合作建立GPU高速运算平台 催生算力分享服务
黄伟乔进一步强调,为有效提供完整的AI应用开发软件堆叠与技术支持,协助使用者专注AI应用开发工作,节省环境建置时间成本,AMD与工研院合作建置以GPU高速运算平台为主的AI算力池,提供工研院数据中心开放给台湾的开发者来申请使用之外,并开放让产业界申请使用,免费分享算力给予国内产/学/研公开申请,助攻人工智能应用研发,再者,AMD也提供自家GPU免费算力使用的申请与服务,透过以点数申请来提供使用者体验AI算力运用的奖励计划与的方案。
AMD资深技术顾问郑凯元随后专章介绍支持开放生态系的ROCm软件堆叠。透过先进的软件工具,ROCm提升AMD Instinct GPU支持AI、ML和HPC工作负载,广泛应用在AI模型、训练与调校技术,由于ROCm所提供的多样化的开源软件,让使用者选择AMD旗下的不同硬件更具备充分的弹性,对精打细算的开发团队而言,直接享受高CP值的效益是最为受用的好处,无论从语言模型、FRAMEWORK的优化,加速引擎,到Triton支持,AMD ROCm架构都显现其重要价值。
目前AMD透过教学影片、官方博客文件等教育与技术资源的分享与输出,提供最新的使用者指南、容器映像档(Docker Images)、训练影片,网络研讨会等信息,快速满足使用者的需求,而且目前每周都有大量文件更新,让开发者掌握新技术的开发节奏。
再者,为了解决终端客户在环境上安装与使用上的挑战,AMD特别制作许多兼容的容器安装影像档,以及使用者操作指引等实时支持,降低使用与安装的门槛。
另外,值得一提的,ROCm除了支持多个不同AI大型语言模型(LLM)之外,在推论工作负载中也提供高性能的跃升,对vLLM及SGLang等新兴框架深度优化,以及对分散式推论技术的增强,显示AMD正从单纯硬件供应商快速转型为软硬件整合方案提供者。
ROCm支持扩展至Ryzen消费级电脑 满足边缘AI应用的核心需求
AMD对于大型语言模型的支持以AMD Instinct MI350系列GPU为核心,因为MI350产品线非常适合需要大存储器容量的AI负载的运行优势;另一方面,针对中、小型模型配置可用诸如AMD Radeon AI PRO R9700 GPU为主的工作站等级的系统,对于小型的语言模型支持,AMD着重于Ryzen AI 300系列的AI PC等级的电竞笔记本电脑或消费级笔记本电脑系统,由于ROCm 对消费级芯片扩大支持,并聚焦于降低推论延迟与提升能源效率,甚至能实现接近实时响应速度,满足边缘AI应用核心需求。
AMD策略性地将ROCm支持扩展至Ryzen消费级笔记本电脑与工作站,并同时涵盖Linux 与 Windows操作系统,当中做为AI PC用途也进行AI推论的积极支持,这对初阶开发者用户而言,可以体验Ryzen AI平台运行AI模型的一般性应用场景,另外对于支持更大参数数量的AI模型,AMD推Ryzen AI MAX硬件平台来因应,展现省电的高CP值优势,加上x86 Windows支持,为台湾使用者提供众多使用优势。
张欧佑豪是AMD的资深技术顾问,他专章介绍Ryzen AI MAX系列APU特殊定位与其卓越的硬件性能,Ryzen AI MAX支持最高16核心桌机等级CPU,40个运算单元的独显等级GPU并搭配可支持Copilot+ PC 的 50 TOPS NPU,为了发挥此芯片的强大运算能力,AMD特地配置了全新的存储器界面,提供高达256 GB/s的存储器带宽,确保所有运算单元能发挥最大效能。
Ryzen AI MAX系列适用于轻量级工作站、移动笔记本电脑,桌上型的EDGE AI工作站,除了效能提升之外,存储器容量也提升,再加上省电效能的卓着效益,这都是Ryzen AI MAX系列主要的优势。其非常适合在办公室或是在边缘节点上运行大型语言模型的应用,因为笔记本电脑上仍需运行大型语言模型才能有真正的应用效益,而AMD的Ryzen AI MAX工作站可以充分满足这个需求。
ROCm的开发环境的安装、测试与建置操作简易 容易上手
接下来由工研院技术顾问黄彦勳先生介绍ROCm的开发环境的安装、测试与建置操作,教导使用者可以在从工作站到AI PC一系列系统安装驱动程序的展示,由于企业在经费限制下与实际应用的不同的需求,常常需要面对使用本地端建置或是云端AI部署的选择,选择买一台本地端AMD的AI服务器或是使用云端租借之前,黄彦勳建议使用者先做一个简单POC专案,先试做或是测试两者的适合性,再做决定,尤其是考虑数据安全与隐私的基本要求,如果是高隐私的数据需求时,那最好选本地端的服务器了。
无论是从本地服务器或云端平台上安装ROCm,基本上大致相同,手动安装或是直接使用容器影像档来安装完整的开发环境,端视使用者的需求,一般使用者也可以直接到GitHub上去查找适当的ROCm用的Docker Images。
接着黄彦勳继续介绍ROCm平台的AI应用,分别考量使用在本地端、云端或是AI PC的多方使用情境,以不同的算力平台使用,凭藉着企业内设立的自动化应用目标所需而定,考量企业AI应用主要的目标聚焦用AI来提升效率,所以他也列举常用的企业AI使用情境做为快速导览。
常见的范例如自动光学瑕疵检测系统(AOI)的范例,使用AMD的AI PC笔记本电脑往往可以一次支持生产在线多个AOI的应用。另外,他另外举出实际使用诸如Claude进行自动程序撰写的应用,但是使用LLM无法从头到尾写出完整生成整个专案的程序,所以他也提醒,最后还是需要仰赖人工介入来解决问题。
另一个常见的应用如AI Mentor的高层次的助理,透过RAG(Retrieval-Augmented Generation,检索增强生成)指令或外挂,在特别的数据库中来辅助生成所需要的答案,应用在如旅游业的自动订房服务,或是延伸到企业用户的自动客户服务的问答,这些都是专属领域的问答式自动客服的广泛应用。
但是他也不讳言表示,要做到一个大型的复杂应用时,需要使用多模态(Multi-Modal)的应用框架模式,意指在一台电脑中需要挂上好几个LLM做为多工使用的场景,以同时处理和生成多种数据类型的复杂专案,例如做一个可以用语音控制的机器人,这通常会需要用到诸如Whisper模型先将语音转文字的功能,再透过LLM去理解文字的意涵,接着驱动机器人的特定指令以执行任务,这些都是常见的一系列AI应用的范例,让与会者可以按图索骥,作为参考。
小算力轻量级平台运行AI应用 Ryzen AI平台的AI PC应用加分
黄彦勳特别专章介绍AI PC的建置,透过较小的算力轻量级平台运行AI应用,由于Ryzen AI平台的AI加速都是透过NPU来做的,传统的Yolo或是ResNet模型都已经有完善的NPU支持,而一般的主流模型则需要经过转换成ONNX格式才能支持NPU的加速,由于NPU是针对加速特定AI架构的功能来设计的,所以如果是新的模型有时是NPU无法识别,就只能转到GPU上去执行,甚至有时需要用程序改写才能使用。
安装的方式与ROCm不同,透过装好Ryzen AI的环境后才能开始部署AI应用,AMD在GitHub或官网上准备许多转换完成的AI模型可以让使用者下载使用,由于Multi-Modal的应用框架模式在Ryzen AI电脑中挂上好几个LLM做为多工使用的场景变得重要,让LLM装在本地端的硬件上运行、创建复杂度高的应用就成为黄彦勳的重点。
通常在ROCm上使用Ollama的开源软件管理本地端LLM服务,但是他特别建议在AI PC上转成使用Lemonade Server来提供OpenAI API支持GPU与NPU加速功能,Lemonade的安装直接使用Windows 11的安装包,提供使用者选择下载享用的模型,Lemonade也提供内建浏览器模式来设定参数管理Lemonade Server与支持的模型。
另外在实际示范上,黄彦勳展示打造自动化行事历与新闻摘要与查找的RSS READER系统,透过Gmail传递摘要的功能,都有相当的启发性。AMD提供Instinct GPU、Radeon AI等级GPU,以及搭载于AI PC的Ryzen AI处理器,还有用Xilinx FPGA卡的加速模型应用,多个规格与层次的硬件提供使用者弹性与未来扩充上的优势选择。
最后由AMD的资深技术顾问陈信宏与工研院技术顾问联袂登台做最后压轴,针对AMD与工研院如何提供资源与服务来协助台湾企业与开发社团找寻多种辅助的方案,首先在AMD方面,除了参考AMD官方网站与博客数据之外,如果要得到免费体验AMD的AI强大运算的优势,可以找寻由AMD与DigitalOcean合作的AMD Developer Cloud的服务,当中以申请者所取得一些点数来免费体验AMD GPU高速使用情境,使用者需要上网申请使用帐号,目前有25小时免费的使用机制,当然也有付费的机制以支持大型与长期合作客户的需求。
而工研院的协助使用者使用AMD架构AI应用,除了提供工研院数据中心给台湾企业与研究单位的申请使用之外,为了企业使用AI应用普及化与人才培育的需要,目前也提供课程教导Ryzen AI PC的使用,以及使用不同的AMD硬件来做AI模型加速的课程,欢迎各界报名参与。
现今生成式AI及大型语言模型的能力已不仅限于回答问题等基础的应用,AMD期盼携手台湾企业与开发者社群,探询AI推论、决策和自主移动的能力与更多的可能性,并为AI应用普及化时代铺设康庄大道。





