发表评论取消回复
相关阅读
相关 NLP-信息抽取-三元组-联合抽取-“结构化预测”模式-2022:OneRel【单模块、单步解码的实体关系联合抽取方法】【直接识别三元组、更好捕获三元组间的相互依赖】【在小数据集上表现不好】
实体关系抽取算是这两年比较火热的NLP任务之一,熟悉JayJay的同学们都知道,JayJay一直比较关心关系抽取的进展。 过去的2年,关系抽取的SOTA也一直被追逐赶超、不断
相关 NLP(二十六)限定领域的三元组抽取的一次尝试
本文将会介绍笔者在2019语言与智能技术竞赛的三元组抽取比赛方面的一次尝试。由于该比赛早已结束,笔者当时也没有参加这个比赛,因此没有测评成绩,我们也只能拿到训练集和验证集。
相关 NLP(十八)利用ALBERT提升模型预测速度的一次尝试
前沿 在文章[NLP(十七)利用tensorflow-serving部署kashgari模型][NLP_tensorflow-serving_kashgari]中,笔
相关 NLP(十八)利用ALBERT提升模型预测速度的一次尝试
前沿 在文章[NLP(十七)利用tensorflow-serving部署kashgari模型][NLP_tensorflow-serving_kashgari]中,笔
相关 NLP(四十六)对抗训练的一次尝试
初次听说对抗训练是在一次实体识别比赛的赛后分享中,当时的一些概念,比如Focal Loss、对抗训练、模型融合、数据增强等都让我感到新奇,之后笔者自己也做了很多这方面的尝试
相关 NLP(四十二)人物关系分类的再次尝试
两周前的周末,笔者决定对人物关系分类进行再次尝试。 为什么说是再次尝试呢?因为笔者之前已经写过一篇文章[NLP(二十一)人物关系抽取的一次实战][NLP],当时的标
相关 NLP(四十一)使用HuggingFace翻译模型的一次尝试
本文将如何如何使用HuggingFace中的翻译模型。 HuggingFace是NLP领域中响当当的团体,它在预训练模型方面作出了很多接触的工作,并开源了许多预训练
相关 利用关系抽取构建知识图谱的一次尝试
如需阅读该文章,请访问网址: [https://www.cnblogs.com/jclian91/p/11107323.html][https_www.cnblogs.co
相关 系统学习NLP(二十六)--BERT详解
转自:[https://zhuanlan.zhihu.com/p/48612853][https_zhuanlan.zhihu.com_p_48612853] 前言 B
相关 NLP(十三)中文分词工具的使用尝试
本文将对三种中文分词工具进行使用尝试,这三种工具分别为哈工大的LTP,结巴分词以及北大的pkuseg。 首先我们先准备好环境,即需要安装三个模块:pyltp, ji
还没有评论,来说两句吧...