OpenStack Day Taiwan登场 OpenStack进化OpenInfra
- 郑斐文
台湾开源领域的年度盛会「OpenStack Day Taiwan」盛大登场,2018年呈现崭新的面貌,OpenStack蜕变为OpenInfra。OpenInfra承袭OpenStack精神与架构,进一步广纳开源技术夥伴,继续在云端世界成长茁壮。2018年主题聚焦「开放架构的智能、技术融合的创新」为核心,探讨多云架构与部署、容器开发、分散式储存、软件定义等议题,并从AI、边缘运算、5G物联网等领域出发,展示各项实际的案例分享及技术交流。
OpenStack Day Taiwan Committee委员长陈中欣作为引言人,他指出2018年活动邀请到多位重量级讲师分享OpenInfra最新趋势,名称将扩大到更广泛的议题,邀请更多生态链夥伴一起加入。包含多云架构与部署方面,有私有、公有、混合云IT基础架构与服务业者;在Infra、5G与物联网领域,探讨Edge Computing 、5G、物联汇流、IoT装置、应用服务开发实务案例。
软件定义一切则看到软件定义存储、网络、基础设施应用趋势,最后还有近年最夯的话题AI人工智能 ,探讨深度学习(Deep Learning)、机器学习(Machine Learning)。他最后指出,希望今天与会者能带着丰硕的收获,并期待台湾IT与开源的发展更上层楼。
解密OpenStack发展现况 OpenStack市场规模达61亿美元
接着上场的是OpenStack基金会执行董事Jonathan Bryce,他带来OpenStack的发展变化并解释OpenStack改名OpenInfra的原因。基金会认为,随着用户整合和开放源代码技术,在各种垂直产业运作后,基础设施实际上要比OpenStack涉及的范围更多。因此OpenInfra象徵更多开放代码、开放设计、开放开发、开放社区,让软件基础设施开源给更多企业。
接着,Jonathan Bryce举出几项关键数据,第一,根据基金会调查,当前OpenStack基础架构所运作的CPU核心数量,在全球已超过1,000万个。第二,预估未来12个月内,全球高达71%企业为使用OpenStack的用户,并部署到其生产环境。第三,也是最后一项相当重要的数据,2018年的OpenStack市场规模,估计上看61亿美元。
Jonathan Bryce接着展示OpenStack的多元架构,包含底层的shared services,往上一层有networking、bare metal、storage应用及compute运算,再往上层还有application lifecycle、workload provisioning及web fronted、API proxies。其中,最重要的消息是Nova提供的vGPU支持,将执行多个版本之间的升级,且允许用户一次从多个版本的原始版本,升级到用户期望的最终版本。比过去18个月前,单一版本的维护将扩展到更多维运分部。
接着,他提到OpenStack现在不单单只用于数据中心,同时也开始被应用到科学研究及基础设施的运作,像是交通、医疗、零售等各行各业。正因为各领域对OpenStack、云端、基础架构的需求不同以往,现在更需要AI机器学习、容器、ML、serverless,也间接促使数据中心之外的边缘运算其开源软件有更多需求。
这也导致系统结构正朝多样化发展,包含ARM、x86、power架构,又或是用户在GPU和FPGA的环境下,容纳各种开源解决方案一起搭配使用,包含Airship、Kara Containers等超过35种的开源方案。
这个论述也引导听众思考,过去云端都在标准硬件基础上协作,但现在云端的生态变的更加多样化,像是因应AI和机器学习的各项技术,唯有选择开源,才是最能解决问题的最佳路径。
不过Jonathan Bryce建议,OpenStack基金会意识到,开源不单单只是开放式基础设施的代码转换,更重要的是建立开放式基础设施社区(community),而社区中最最关键的要素在于「人」。不论是全球大型企业像是AT&T、GAP、腾讯,又或是只有两三个人的小型公司,都可透过开源做更多云端共享的生意。
因此,从OpenStack过渡到OpenInfra,背后的意义即是从社区角度取代过去的基础架构角度。对此,基金会过去一年拟定出新的整合战略,这项战略集合四个重要元素,第一是找寻最共享的案例识别,第二步将整个社区进行协作,第三步建立新技术,到第四步则是朝向终端到终端的测试。
分别这四项策略,Jonathan Bryce进一步解释,透过共同案例的使用情境找到一起使用开源的环境及机会,就像容器的使用,发展出安全、储存等相关议题,甚至产制出边缘云端白皮书。这些白皮书已经翻译成多种语言让全世界多国使用,达到共同协作的目的。跨社区的协作,就有OpenStack基金会跟ONF、MEF、OPNFE、Linux Foundation彼此协作。
第三项新技术部分,基金会推出一系列开源专案,包含Kata Containers、Zuul,并宣布未来将有StarlingX和Airship等项目即将释出。Jonathan Bryce说明,Kata Containers是基于虚拟化容器技术,可提供容器性能、虚拟机隔离、效率及安全技术。此专案结合Hyper.SH的runv及Intel的Clear Containe。
至于Zuul已推出第三版本,是OpenStack社区开发,专用于软件开发及测试,是目前最大的开源项目CI系统之一。Zuul单项任务由Ansible编写,支持Gerrit、GitHub,可在OpenStack之外使用。最后,Jonathan Bryce总结,从OpenStack到OpenInfra是基金会对开放精神的昇华。未来不仅让开源软件无所不在,更把开源成为一种生活态度。
云原生生态的持续发展之路 诉求开放、生态及创新
云原生运算基金会(Cloud Native Computing Foundation;CNCF),成立的宗旨就是致力推广Github上快速成长的开源技术,像是Kubernetes、Prometheus、Envoy等,协助开发人员开发出更快更出色的产品。大陆云原生运算基金会董事Keith Chan针对云原生生态的持续发展动态,分别在开放、生态及创新议题,探讨目前云原生运算基金会的现况。
首先,Keith Chan点出「开放是开源的必要性」概念,开源已经是全球贸易过程以及商业模式中扮演重要的角色。为何需要开源甚至使用开源?因为我们现阶段已经发展到一个使用开源软件作为商业模式的时代。以微软为例,透过开放跟开源让更多用户使用,而非不再做封闭式的软件。不能充分利用这种共享革命的企业,未来将不具有竞争力:他们落后于市场,浪费研发资金,并且不能独自创新。
接着他举例,企业启动新的开源项目的5大理由。其一是加速开源解决方案,分摊开发成本;第二是将市场商品化,降低非战略性软件组建的价格;第三通过产品建立生态系统推动需求;第四与他人合作吸引顾客并强化协作关系;最后一点则是为你的客户提供自我支持,打造可自行调整代码的能力。
而企业推动开源的下一步则要打造生态圈。Keith Chan解释,企业如何用开源与其他竞争者之间,找到自己产品或技术方案的优势?他认为这是一个动态循环过程,从项目、产品、收益三项要素不断调整,透过开源找到自己商业模式。例如在开源应用层项目开发出自身的新产品,再将收益返回投注到开源社区,成为一股正向循环。而这中间基金会将扮演建立信任及维护生态的角色。因此成功的开源项目取决于会员、开发者、市场。
Keith Chan以Linux为例,指出Linux基金会远远大于Linux,可以发现目前涉及的领域横跨安全、网络、云端、汽车、区块链到网际网络,都有使用到Linux开源,且目前已超过100多个不同开源项目。而云原生基金会属非营利机构,隶属Linux基金会,于2015年12月成立,全球目前累积250个会员,即使是非会员也可使用开源项目。云原生会员厂商类型从开源开发商到终端用户都包含,终端用户社群目前高达58家,包含像是ADIDAS、京东、Didi等各种产业厂商。
接着Keith Chan说明云原生基金会专案成熟度的发展,从一开始的沙箱时期,到孵化期,以及到毕业期的顶点。目前已经产生了毕业期的专案项目:容器调度平台Kubernetes。Kubernetes经历第四次改版后,在2018年3月释出1.10版,支持在线正式环境所需的容器丛集管理机制。
1.10版特色在于Kubelet TLS Bootstrap,也就是强化网安方面功能,在新的Kubelet自动建立网安凭证,可减少手动设定的繁琐。目前不论是闭源或开源项目都放在云原生资源社区(I.cncf.io),可在里面找到各类的社区工具项目,也可查询与Kubernetes的云原生相兼容项目。
至于最后的创新,Keith Chan提到目前CNCF的组织架构,包含管委会、市场推动委员会、技术监督委员会、终端用户协会。技术监督委员会目前有9位席次,其工作项目主要是依据新项目的纳入,让会员跟委员会讨论,了解更进一步技术发展,让开源保持中立性。终端用户协会就是终端用户所组成,让基金会更了解用户需求,让开源发展更了解市场实际的应用情况。市场推动委员会就是让kubernetes这类推广更贴近市场。
目前CNCF推出了关于Kubernetes的软件一致性认证,后续可使用新标志和更加灵活地使用Kubernetes商标,未来CNCF也将继续提供世界各地的云原生领域专家做交流。
Kata container 的发展现况及与gVisor比较
接着在第三场次的分享,由HyperHQ共同创始人暨CTO王旭带来一场技术底蕴深厚的知识飨宴。HyperHQ公司发布的开源项目Hyper,是一项能在Hypervisor直接运行Docker Image运行引擎。
Hyper最大特色在于Secure as VM, Fast as Container,不需安装完整的操作系统但却有兼容的特徵,可将Docker容器的快速优势,以及虚拟机的安全特徵合二为一。不过王旭在这场分享,他讨论更多的是Kata container,这项OpenStack基金会释出的容器基础建设开源专案。
首先,王旭解释容器发展进度达十几年,观察container的发展变化有几项特徵,包含分时操作系统中的进程、相关进程ps aux | less、Chroot文件系统限制、namespaces和cgroup的更多隔离、Docker和Docker的镜像让OS商品化,以及OCI和CRI的标准化。接着他解释,Intel跟Hyper到2017年两个项目一起推进合并,推出Kata container,到2018年推出1.0版本。经过2个月第一版推出后又做了新的功能即将发布1.1版本。Kata container把Intel跟Hyper两个核心要素整合在一起。
而Kata container的相关应用特徵,可支持公有云、私有云、容器即服务,以及边缘运算等情境。现在该容器更可支持多项操作系统,像是CentOS 7版、Fedora 26及27版、Ubuntu 16.04及17.10版。正因为结合Intel的轻量级虚拟化技术Clear Containers,还有兼容开放容器OCI标准的runV技术,达到兼顾VM安全性跟速度优势可达到一百多毫秒,及容器技术的轻量性。王旭进一步提及,当时Kata container设计想法,目的要让这项技术能够和硬件架构脱钩,所以除了OCI之外,也还有支持兼容Kubernetes的容器Runtime界面。
王旭也观察到另一项特殊的现象,也就是针对Kata container的信息安全议题成为近年讨论越来越多的显学。他举例,2016年当时在KubeCon会议中,探讨到网安或安全的议题中,只有一个,而随着时间发展,成长到2017年的5个,甚至在今年的讨论议题中,高达18个与网安相关。显示大家对系统的生产过程更严肃看待安全议题。
接着王旭提及Kata container及gVisor的比较差异,gVisor是Google发布的新型沙箱gVisor,不需运行完整VM的容器可提供安全隔离。和Kata container相比,gVisor主要可在Linux系统,其设计做了不同的权衡。
最后,王旭总结Kata containerr几项要素,说明Kata Containers像runC容器运行时,可采用虚拟化技术实现安全,并可支持VM其他加速技术。虽然虚拟化,但Kata轻巧而快速布局,Kata Containers支持多种架构像是x86_64、arm64、ppc64le等。
大型AI云端平台架构与服务 国网发展AI 五大战略
接着上场的是国家高速网络与计算中心博士赵逢毅,以大型AI云端平台架构与服务为题,说明国网如何协助台湾发展国家AI技术的5项战略。首先,目前国家发展AI战略策共有科技大擂台、AI研发平台、AI创新研究中心(包含66个计划)、智能机器人创新基地及半导体射月计划。
由此延伸出的AI平台整体架构,就可勾勒出以云端资源管理软件及基础设施为基底,涵盖CPU、GPU高运算主机、高效能储存以及学术研究网络TWAREN。而透过数据的介接、综整、重构、分群,加上AI、大数据、HPC的软件平台,将跨足到医疗、机械、半导体、环境、绿能及民生等实际应用。
赵逢毅接着介绍目前台湾外较熟知的大型AI计算平台硬件架构 ,包含NVIDIA Saturn V高速AI主机,提供660节点,5280颗GPU。日本AIST ABCI 的人工智能主机目标明确就是做AI跟大数据。至于台湾的国网中心大型AI云端主机,有250个GPU nodes、1+PB blockt储存、10+PB扩充云端物件储存、30+PB Tape Archieve System。目前规划希望明年带入更多AI硬件,做未来储存及运算的延伸需求。
探讨完硬件项目,接着转换到对软件相关的观察。全球的AI软件服务平台,目前较知名的案例包含NVIDIA的AI 软件服务(DL Framework worlflow-NGC),以及AIST透过数据蒐集整理跟建模训练,做到一整个连贯的循环。还有日本富士通API影像识别、自然语言处理、知识空间处理等三项服务将会上线。当然还不可忽视AWS从底层架构、平台、应用服务设计皆围绕在SageMaker,以及微软的Azure和IBM的云端服务。
至于现行国网中心的GPU云服务架构,提供服务对像包括:五大AI研究中心66项计划与半导体射月计划13项子计划,以容器单一平台单一授权机制交给使用者操作。
至于未来的长程目标,赵逢毅指出,国网中心将提供企业 SLA 等级的 AI-HPC 服务(计算资源与储存空间)、nVidia NGC 台湾合作示范站(提供官方认证 AI 框架云计算服务及官方 DLI 认证讲师群)、提供 Data Mart 服务及使用者社群经营(涵盖语音、影像、生医、灾防、智能机械等数据市集,还有数据集、演算法、训练过之模型、教案、案例)。最后还有Learn to Learn人工智能服务(自动模型生成及超参数调校)。
换句话说,这项大型AI云端平台软件,未来将有大数据分析处理平台(VM/容器)、AI 平行化训练丛集(GPU容器)、AI HPC 大规模训练丛集。希望在设施内提供AI最佳化模型产生服务,计算方式跟参数给定,提高模型训练效率,像是跨节点 AI-HPC 平行运算、最佳化超参数集合调校、AI辅助模型训练资源配置。实际产生的效益有降低AI建模门槛、加速模型落地时程、专业DLI团队辅助。
最后,赵逢毅说明在国际上台网中心扮演的角色,TWCC 着眼于 AI-HPC 的云服务,提供不同的弹性的服务模式,透过云端资源管理软件以统整CPU、GPU 或其他公有云的运算服务,如 AWS EC2、Microsoft Azure、Google GCE 等公有云平台,除了有效提升台湾AI 运算平台的整体使用率,与公有及私有云平台互为融合,以单一管理界面、一致化特性、一次性部署,将研究人员的运算服务在全世界的云平台迅速落地。
既然中华民国政府提供大量资源鼓励AI相关研发,并且在创新的氛围下,现在是一个好的机会从事 AI 相关事业的时机。国网中心将建置相关之软硬件平台供产 官学研界使用,实现「专注以终为始」及「找夥伴、打群架、结交盟主」最终目标。
AIoT创新应用正热 边缘运算的趋势与商机
AIoT创新在近几年逐渐受重视,早在2013年当时IoT多用在智能电网跟居家监控,撷取的数据都偏小量。到了2018年,数据应用的数量更庞大,软硬件开始朝向AI整合,也是为何边缘运算(Edge Computing)有大幅布局的原因。工研院ISTI产业分析师魏伊伶指出,边缘运算兴起跟AI + IoT的应用有关。
但是在AI某些应用情境,云端运算架构开始遭遇挑战,例如终端应用如自驾车、无人机,产生大量数据后云端架构用网络回传运算结果,其过程造成带宽有限、通讯延迟、数据隐私与机密、缺乏网络涵盖等痛点。
正是数据低延迟及传送频率的特性, 未来将在下述几个应用快速产生对边缘运算的需求。车联网、增实境(AR)与虚拟实境(VR),这类使用高分辨率影像实时传输与识别的创新应用,对网络带宽与延迟要求极高(网络传输延迟时间需小于10ms)。又或是AI技术广泛导入各类应用与设备中,AI技术需要采用GPU等大量平行运算资源来协助完成运算,而数据量的不断增加也加重网络带宽压力,以云端数据中心完成所有运算任务模式耗时且成本高
魏伊伶进一步解释究竟什麽是边缘运算,Edge Computing是指将数据的处理与运算,透过嵌入或外加运算设备在靠近数据源或用户端处完成运算,以缩短网络传输的延迟,并快速获得数据分析的结果。其优势可提供更好的用户体验,透过分层运算概念加速驱动用户服务的反应速度。以及提高网络带宽效率,透过本地进行运算,降低网络传输数据的带宽压力。预估至2022年,将有高达75%数据在边缘端完成处理甚至储存
所以边缘运算设备的型态可说是动态(无人车、手机)或静态(基站)甚至混合的,整体解决方案并无一体适用的架构,而是会依据不同垂直应用需求调整。边缘设备放置地点,也会因不同厂商解决方案而有差异。而根据市场规模预测,全球云端运算产业产值到2021年将达33亿美元。年复合成长率达22%,主要成长动力将来自于储存与网通设备。
至于边缘运算产业链发展现况,工研院ISTI观察,垂直应用解决方案是商机切入点,其中IoT平台是建构经济规模的发展关键。由下往上的路径来看, 目前投入边缘硬件设备厂商仍以国际信息大厂为主,透过调整原有服务器、网通设备等设备规格切入,多以定制化垂直应用解决方案模式协助客户布建。若从上而下,云端服务业者从IoT平台切入,以解决设备互通与数据分析为核心,建构平台联网经济规模。
至于产业发展代理,B2B方向将从物联网应用商机较快发酵,像是智能城市、制造、车联网、医疗等。而B2C市场以智能家庭为主,未来将是Apple、Amazon、小米等类型服务商主导市场。经济规模将是边缘运算的竞争核心,云端服务厂扩大其平台联网数量为策略;信息硬件厂透过垂直应用解决方案提供、跨领域产业结盟扩大设备布建。
最后,针对台湾业者若想投入边缘运算产业,其建议发展策略方向,魏伊伶指出两个特点。第一种模式为链结国际平台业者,例如(云端服务大厂或开源专案等,一起建构策略合作关系,发展软硬整合解决方案或切入其硬件供应链。第二种模式可锁定潜力应用领域,例如选定未来可能优先导入边缘运算之应用,从应用需求整合或开发数据分析能力,以政府或企业专案累积应用布建实战经验。
四大分论坛齐上场 聚焦多云、IoT、软件及AI
OpenStack Day Taiwan下午场次活动更加多元热闹,分别有四项「多云架构与布署」、「Infra、5G与物联网」、「软件定义一切」、「 AI人工智能」分论坛,各分论坛带出实际的案例分享及技术交流。在Track A的多云架构与布属,首先由Red Hat解决方案架构师黄秉钧 ,解释Open Hybrid Cloud如何协助数码转型,说明打造新时代云环境。
黄秉钧讨论,近期OpenStack更新在Queens平台,新版本提供新一代功能实作,相关应用包含升级(OpenStack service做到容器形式,更方便使用) 、储存(整合file做一系列整合,提供基础建设更多储存需求)、安全(新增金钥的管理控制)、Networking(SDN的整合控制)及管理营运(相关的整合应用)等方案。
后续场次有数码无限软件总经理陈文裕的AI及大数据科学混合云 (Hybrid AI and Data Science Cloud),陈文裕指出数码无限从2008年耕耘至今做混合云平台,专注在混合云端管理,完全支持开放云端平台,并提供最先进数据分析人工智能等专业模块。
他观察OpenStack生态系基于数据储存,数据收容有更大规模的收容。数码无限在2017年针对AI跟数据分析,提出具体可行的前瞻云端创新服务,包含快速容器运算服务、机器学习运算服务、数据库服务、数据仓储服务、多云运行能力。
正因OpenStack基于开源生态,可做到AI跟数据分析及仓储的管理,尤其制造产业,因终端边缘的设备越来越多,因此AI跟数据科学云的架构下,利用OpenStack在不同于公有云场景的发挥。该场次后续还有台湾云协/工业技术研究院资通所技术经理黄俊杰,带来Enable Multi-tenant ML and DNN training Platform in OpenStack and Kubernetes ,以及资策会工程师周育纬介绍iServCloud (OpenStack) & AWS混合云相关技术应用。
至于Track B则专注探讨于 Infra、5G与物联网,首先有InwinSTACK首席技术开发师金山探讨App相关应用在IoT及边缘运算的相关案例。Wind River区域销售副总裁韩青则带来Secure On-Premise Software Platform for Critical Infrastructure 。
台湾云协/工业技术研究院资通所技术副理曹伯瑞,则带来Open Cuju: Enable Low Latency Fault Tolerance in NFVI的演说,接着是立端科技CTO李明树探讨边缘运算Edge computing - SD-IOT powered by AI under 5G infrastructure。
台湾云协/工业技术研究院副组长李肇棠进一步讨论From Rack Scale Architecture to NFVI,他先提到工研院RSA(disaggreted rack architecture)的技术发展,第一个解决问题目的,很多服务器在PCIe连接起来,第二解决问题让服务器分享网卡降低成本。至于SR-IOV NIC的分享功能,第二步与PCIe串连后,发展出ethernet over PEIe的技术。
再到储存部分,则是透过SRIOV 或非SRIOV卡片,都可使用到储存设备,在分配到不同的服务器,这也是工研院发展出来的技术。
而在Track C部分,主题锁定于 软件定义一切,SUSE资深云技术架构师苏显扬以OpenStack与K8S为基础,讨论如何建构SDI加速企业AI与数码转型 。而NetApp云端基础架构事业群资深顾问李新夏 ,讨论主题则聚焦在Docker和Kubernetes 的储存整合方案NetApp Trident。
他提及Trident是一套容器的动态持续储存协调程序,具备开放原始码的储存资源配置程序,可有助于提升DevOps效率,目前也原生支持许多热门应用程序的容器平台,像是Kubernetes、Red Hat OpenShift、Docker Enterprise Edition。
下一场有Nokia总监廖伟任,说明SDN for Cloud, Hybrid Cloud and Beyond,以及东森购物架构师王伟任上台分享Openstack容器的快速部署,带来Openstack Containerization-Deploy OpenStack in Minutes 的演说。最后则是台湾公司Gemini Open CloudCEO 符儒嘉探讨Cloud Resource Management for DNN training and AI Inference 。
最后一场Track D分论坛则探讨近几年相当热门的议题:AI人工智能。首先由英属开曼群岛商捷鼎创新亚太区业务经理林裕焜,说明企业如何有效释放AI潜能,同时要兼顾效能与数据安全性的全快闪储存方案。
太奇云端总经理李承勳则说明运用人工智能,在影像分析上的实际案例分享,以及安图斯科技解决方案架构与整合处处长蓝郁修,介绍如何透过打造未来AIoT及移动应用的OpenStack混合云。
最后两场分别是MoBagel移动贝果CEO锺哲民,带来台下个10年企业导入AI分析的挑战与分享心得,以及技嘉/工研院副组长Allen Tzeng分享,深度学习云平台营运经验与产业应用。
Allen Tzeng解释,工研院两年前准备投入AI,发现基础架构机器费用高达数百万,决定在工研院让所有研究单位一起共享,建造一个工研院所属的机房。而建造机房的过程,发现数据很重要,但最终还需高速的运算环境。而在营运后发现真实状况,ITRI DNN Farm应用平台带来的启发思考包含,你的数据多大?框架为何?经历两年平台的营运,只做DNN(deep network)训练,做到5层以上,知道使用的目标族群客户是谁。
工研院锁定的TA就是有许多数据量,而且是熟知framework技术熟稔会使用的精准客户。正因为每个月做客户服务实时回应做深度沟通,了解客户真正的问题跟痛点,解决基础建设跟Wi-Fi的需求。因此ITRI DNN Farm的价值在一站式的软件AI训练,提供高速运算,以及稳定度跟可规格化、运算资源共享等优势。后来跟市场竞品对照后,确定这项产品的方向没有错,从买机器到盖机房总共历时半年建立,证明选择对的架构方向、正确的专案是可行的。