发表评论取消回复
相关阅读
相关 Deep Learning(深度学习)学习笔记整理系列
Deep Learning(深度学习)学习笔记整理系列 [zouxy09@qq.com][zouxy09_qq.com] [http://blog.csdn.net/zou
相关 【深度学习NLP论文笔记】《Interpretable Adversarial Perturbation in Input Embedding Space for Text》
![70][] Abstract 在CV领域,常常用对抗训练(adversarial training)来产生扰动并提高模型鲁棒性,但如果把这种方法直接应用在词嵌入空间
相关 【深度学习NLP论文笔记】《Towards Crafting Text Adversarial Samples》
![70][] Abstract 文本fool的方法:修改原始样本:删除或替换一些重要的单词,或引入新的单词。我们的算法最适用于在每个类的例子中有子类别的数据集。基于情
相关 【深度学习NLP论文笔记】《Deep Text Classification Can be Fooled》
![70][] Abstract 当前存在的加扰算法不能直接应用于文本上。三种对文本的加扰策略:插入(insertion)、修改(modification)、移除(
相关 【深度学习NLP论文笔记】《Visualizing and Understanding Neural Models in NLP》
![70][] 1 Introduction 神经网络对于NLP任务的可解释性很差。深度学习模型主要是基于word embedding词嵌入(比如low-dimensi
相关 【深度学习NLP论文笔记】《Understanding Neural Networks through Representation Erasure》
![70][] Abstract 提出一种一般方法来分析神经网络的决策:清除一些部分的表示(various parts of the representation),例
相关 【深度学习NLP论文笔记】《Adversarial Example For Natural Language Classification Problems》
一、介绍 ![70][] 图一:三个在文本分类任务中使用对抗样本的例子。分别是垃圾邮件分类、情感分析、虚假新闻检测。全是依靠同义词替换实现的。 二、背景 分类
相关 CTC(Connectionist Temporal Classification)论文笔记
1. 思想 序列学习任务需要从未分割的输入数据中预测序列的结果。HMM模型与CRF模型是序列标签任务中主要使用的框架,这些方法对于许多问题已经获得了较好的效果,但是它们也
相关 《Deep Compression》论文笔记
1. 概述 神经网络的模型是计算密集且内存密集的,这就制约了其在嵌入式设备上的使用。文章中的方法分为三个阶段:剪枝、量化训练、霍夫曼编码。量化阶段只会保留重要的filte
相关 Text Classification
Text Classification For purpose of word embedding extrinsic evaluation, especially do
还没有评论,来说两句吧...