bert的一系列资料

骑猪看日落 2022-02-25 12:46 266阅读 0赞

1.bert-as-service

https://github.com/hanxiao/bert-as-service

2.参考文献

  • 两行代码玩转 Google BERT 句向量词向量
  • hanxiao/bert-as-service
  • google-research/bert
  • 利用Bert构建句向量并计算相似度

3.预训练模型下载链接:https://linux.ctolib.com/article/wiki/99669

The links to the models are here (right-click, ‘Save link as…’ on the name):

  • BERT-Base, Uncased: 12-layer, 768-hidden, 12-heads, 110M parameters
  • BERT-Large, Uncased: 24-layer, 1024-hidden, 16-heads, 340M parameters
  • BERT-Base, Cased: 12-layer, 768-hidden, 12-heads , 110M parameters
  • BERT-Large, Cased: 24-layer, 1024-hidden, 16-heads, 340M parameters
  • BERT-Base, Multilingual Cased (New, recommended): 104 languages, 12-layer, 768-hidden, 12-heads, 110M parameters
  • BERT-Base, Multilingual Uncased (Orig, not recommended) (Not recommended, use Multilingual Cased instead): 102 languages, 12-layer, 768-hidden, 12-heads, 110M parameters
  • BERT-Base, Chinese: Chinese Simplified and Traditional, 12-layer, 768-hidden, 12-heads, 110M parameters

我们发布了论文中的BERT-Base和BERT-Large模型。

Uncased表示在WordPiece tokenization之前文本已经变成小写了,例如,John Smith becomes john smith。Uncased模型也去掉了所有重音标志。

Cased表示保留了真实的大小写和重音标记。通常,除非你已经知道大小写信息对你的任务来说很重要(例如,命名实体识别或词性标记),否则Uncased模型会更好。

Each .zip file contains three items:

  • A TensorFlow checkpoint (bert_model.ckpt) containing the pre-trained weights (which is actually 3 files).
  • A vocab file (vocab.txt) to map WordPiece to word id.
  • A config file (bert_config.json) which specifies the hyperparameters of the model.

发表评论

表情:
评论列表 (有 0 条评论,266人围观)

还没有评论,来说两句吧...

相关阅读

    相关 XHTML学习资料

    今天开始学习XHTML,虽然以前也制作过网页,但我还是想重温一下。因此借这一空闲的时间重新学习并整理一下 HTML的基本知识: 一、HTML的基本结构 <HTML> --