怎样把图片缩小到200k 怎样把图片缩小

机器之心编辑部
在最新的博客文章中,谷歌公布了一个新的 NLP 模型,在文本分类任务上可以达到 BERT 级别的性能,但参数量仅为 BERT 的 1/300 。
【怎样把图片缩小到200k 怎样把图片缩小】

怎样把图片缩小到200k 怎样把图片缩小

文章插图
怎样把图片缩小到200k 怎样把图片缩小

文章插图
怎样把图片缩小到200k 怎样把图片缩小

文章插图
怎样把图片缩小到200k 怎样把图片缩小

文章插图
怎样把图片缩小到200k 怎样把图片缩小

文章插图
怎样把图片缩小到200k 怎样把图片缩小

文章插图
怎样把图片缩小到200k 怎样把图片缩小

文章插图
在实验中,研究者得到了两个模型的 AUC 信息 。在没有任何预训练、只在监督数据训练的情况下,pQRNN 的 AUC 是 0.963,用到了 130 万个量化(8-bit)参数 。在几个不同数据源进行预训练并在监督数据上进行微调之后,BERT 模型得到的 AUC 是 0.976,用到了 1.1 亿个浮点参数 。
为了鼓励社区在谷歌研究成果的基础上做出进一步改进,谷歌还开源了 PRADO 模型 。
项目地址:https://github.com/tensorflow/models/tree/master/research/sequence_projection
博客链接:https://ai.googleblog.com/2020/09/advancing-nlp-with-efficient-projection.html

    推荐阅读