GitHub超9千星:一个API调用27个NLP预训练模型

广告位广告位广告位点此查看详情

  彩库宝典2019全年资料BERT-base和BERT-large分手是110M和340M参数模子,而且很难正在单个GPU上应用引荐的批量巨细对其举办微调,来得回杰出的职能(正在群众半环境下批量巨细为32)。

  目前一经包蕴了PyTorch完毕、预磨练模子权重、运转剧本和以下模子的转换器材:

  防卫,这里要应用分散式磨练和16- bits 磨练,你需求装置NVIDIA的apex扩展。

  项目中供给27个预磨练模子,下面是这些模子的完善列外,以及每个模子的简短先容。

请尊重我们的辛苦付出,未经允许,请不要转载【2019白姐另版先锋诗】_白姐另版四不像_白姐解密另版的文章!
下一篇:没有了