NVIDIA推Project Megatron 提升Transformer模型训练效率
- 涂翠珊/综合报导
NVIDIA的DGX SuperPOD超级电脑可将训练BERT语言模型的时间,缩短到1个小时以内,比起以往动辄数个星期的训练过程,可说节省了不少时间。NVIDIA并推出了Project Megatron,目的在进一步提升训练Transformer语言模型的...
会员登入
会员服务申请/试用
申请专线:
+886-02-87125398。
(周一至周五工作日9:00~18:00)
+886-02-87125398。
(周一至周五工作日9:00~18:00)
关键字