博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
近期AI领域8篇精选论文(附论文、代码)
阅读量:4228 次
发布时间:2019-05-26

本文共 2627 字,大约阅读时间需要 8 分钟。

来源:PaperWeekly

本文共3050字,建议阅读7分钟
本文带你发掘近期8篇AI领域精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。

01

Fast and Accurate Reading Comprehension by Combining Self-Attention and Convolution

@RefluxNing 推荐

#Machine Reading Comprehension

本文是 CMU 和 Google Brain 发表于 ICLR 2018 的文章,论文改变了以往机器阅读理解均使用 RNN 进行建模的习惯,使用卷积神经网络结合自注意力机制,完成机器阅读理解任务。

其中作者假设,卷积神经网络可建模局部结构信息,而自注意力机制可建模全文互动(Interaction)关系,这两点就足以完成机器阅读理解任务。

论文链接:https://www.paperweekly.site/papers/1759

02

Feudal Reinforcement Learning for Dialogue Management in Large Domains

@xcwill 推荐

#Dialog Systems

本文来自剑桥大学和 PolyAI,论文提出了一种新的强化学习方法来解决对话策略的优化问题。

论文链接:https://www.paperweekly.site/papers/1756


03

Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN

@Zsank 推荐

#Recurrent Neural Networks

本文使用 ReLU 等非饱和激活函数使网络变得更具有鲁棒性,可以处理很长的序列(超过 5000 个时间步),可以构建很深的网络(实验中用了 21 层)。在各种任务中取得了比 LSTM 更好的效果。

论文链接:https://www.paperweekly.site/papers/1757

代码链接:https://github.com/batzner/indrnn



04

Joint Training for Neural Machine Translation Models with Monolingual Data

@paperweekly 推荐

#Neural Machine Translation

本文提出的方法可以认为是从源语言到目标语言翻译的学习与从目标语言到源语言翻译的学习的结合。中英翻译和英中翻译都使用初始并行数据来训练,在每次训练的迭代过程中,中英翻译系统将中文句子翻译成英文句子,从而获得新的句对,而该句对又可以反过来补充到英中翻译系统的数据集中。

同理,这个过程也可以反向进行。这样双向融合不仅使得两个系统的训练数据集大大增加,而且准确率也大幅提高。

论文链接:https://www.paperweekly.site/papers/1750

05

Attentive Recurrent Tensor Model for Community Question Answering

@Zsank 推荐

#Question Answering

社区问答有一个很主要的挑战就是句子间词汇与语义的鸿沟。本文使用了 phrase-level 和 token-level 两个层次的 attention 来对句子中的词赋予不同的权重,并参照 CNTN 模型用神经张量网络计算句子相似度的基础上,引入额外特征形成 3-way 交互张量相似度计算。

围绕答案选择、最佳答案选择、答案触发三个任务,论文提出的模型 RTM 取得了多个 state-of-art 效果。

论文链接:https://www.paperweekly.site/papers/1741

06

Biased Importance Sampling for Deep Neural Network Training

@chlr1995 推荐

#Importance Sampling

Importance Sampling 在凸问题的随机优化上已经得到了成功的应用。但是在 DNN 上的优化方面结合 Importance Sampling 存在困难,主要是缺乏有效的度量importance 的指标。 

本文提出了一个基于 loss 的 importance 度量指标,并且提出了一种利用小型模型的 loss 近似方法,避免了深度模型的大规模计算。经实验表明,结合了 Importance Sampling 的训练在速度上有很大的提高。

论文链接:https://www.paperweekly.site/papers/1758

代码链接:https://github.com/idiap/importance-sampling

07

Question Answering on Knowledge Bases and Text using Universal Schema and Memory Networks

@guotong1988 推荐

#Knowledge Base

传统 QA 问题的解决方法是从知识库或者生文本中推测答案,本文将通用模式扩展到自然语言 QA 的应用当中,采用记忆网络来关注文本和 KB 相结合的大量事实。

论文链接:https://www.paperweekly.site/papers/1734

代码链接:https://github.com/rajarshd/TextKBQA



08

Deliberation Networks: Sequence Generation Beyond One-Pass Decoding

@paperweekly 推荐

#Sequence Labeling

编码器 - 解码器框架在许多任务中取得了可喜的进展,包括机器翻译、文本摘要、QA、对话系统、图像标记等,但它还没有涉及审议。

审议是人们日常生活中的一种常见行为,如阅读新闻、撰写论文/文章/书籍,在本文中,团队将审议过程引入到编码器 - 解码器框架中,并提出用审议网络进行序列生成。

论文链接:https://www.paperweekly.site/papers/1749

转载地址:http://gpfqi.baihongyu.com/

你可能感兴趣的文章
【转载】嵌入式系统 Boot Loader 技术内幕
查看>>
【转载】uboot学习笔记
查看>>
分布式消息中间件(rabbitMQ篇)
查看>>
JAVA程序员养成计划之JVM学习笔记(2)-垃圾收集管理
查看>>
JAVA程序员养成计划之JVM学习笔记(3)-JVM性能监控
查看>>
POJ 3580
查看>>
POJ 2482
查看>>
POJ 3363
查看>>
[LeetCode] 849. Maximize Distance to Closest Person @ python
查看>>
axi总线介绍
查看>>
Linux内核中ioremap映射的透彻理解
查看>>
ffs的另外一种实现方法
查看>>
strtol的用法
查看>>
工作队列的使用
查看>>
让vim显示空格,及tab字符 vim 多行注释
查看>>
利用mmc_test.c研究mmc模块
查看>>
tasklet、wait_queue、completion、work_queue用法总结
查看>>
int (*func(int)) (int *,int)
查看>>
在Ubuntu上下载、编译和安装Android最新内核源代码(Linux Kernel
查看>>
Linux内核同步机制API函数:宏:spin_lock_init ( )
查看>>