NVIDIA推Project Megatron 提升Transformer模型训练效率 智能应用 影音
DFORUM
hotspot

NVIDIA推Project Megatron 提升Transformer模型训练效率

  • 涂翠珊综合报导

NVIDIA的DGX SuperPOD超级电脑可将训练BERT语言模型的时间,缩短到1个小时以内,比起以往动辄数个星期的训练过程,可说节省了不少时间。NVIDIA并推出了Project Megatron,目的在进一步提升训练Transformer语言模型的...

会员登入


【范例:user@company.com】

忘记口令 | 重寄启用信
记住帐号口令
★ 若您是第一次使用会员数据库,请先点选
【帐号启用】

会员服务申请/试用

申请专线:
+886-02-87125398。
(周一至周五工作日9:00~18:00)
会员信箱:
member@digitimes.com
(一个工作日内将回覆您的来信)

关键字