技术控

    今日:109| 主题:49179
收藏本版 (1)
最新软件应用技术尽在掌握

[其他] cs.CL weekly 2016.10.10-2016.10.14

[复制链接]
活在當下 发表于 2016-10-15 15:58:06
79 2

立即注册CoLaBug.com会员,免费获得投稿人的专业资料,享用更多功能,玩转个人品牌!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
【对话系统】【迁移学习】面向具体任务的对话系统由于数据不充分,面临难以训练的尴尬境地。解决这一问题的方法之一是用迁移学习来做,本文提出了一种基于POMDP的迁移学习框架。并且在购买咖啡的实际场景中得到了应用,取得了不错的效果。港科大杨强老师是迁移学习领域的专家,而迁移学习是解决机器学习中领域数据过小问题的一种有效方法,现有的特有对话系统面临着这个问题,尤其是要求对话系统具有个性化的特点时。本文对于研究语音对话系统和聊天机器人都有一定的启发性。
      Dialogue Session Segmentation by Embedding-Enhanced TextTiling  

  【chatbot】【上下文处理】本文研究的内容是开放域聊天机器人context处理的问题,当前聊天的内容很大程度上都会与之前的聊天内容有相关,但并不是每一句都相关,因此算好相关度很有必要。
      Exploiting Sentence and Context Representations in Deep Neural Models for Spoken Language Understanding  
  【对话系统】【深度学习】本文是steve young组的一篇新文,旨在探索CNN表示对话句子和LSTM表示上下文信息在对话理解问题上的效果,相比于传统方法,DNN方法鲁棒性更强。
      Latent Sequence Decompositions  

  【seq2seq】本文研究的内容是对seq2seq框架中输入和输出序列进行有意义分解的问题,而不是简单地分解为char,提出了一种Latent Sequence Decompositions框架,在语音识别问题上取得了不错的效果。其实不仅仅是语音识别问题,在用seq2seq框架时总会遇到OOV的问题,char是一种方法,但信息量太少,如果能够将word sequence分解为更加有意义的子序列,既兼顾了信息量,又降低了词表维度。对英文系的语言效果好一些,中文效果应该不会那么明显。
      Diverse Beam Search: Decoding Diverse Solutions from Neural Sequence Models  

  【seq2seq】seq2seq框架中在解码阶段,常常会用beam search来从左至右、贪心地生成N个最好的输出,不仅仅效率低下,而且在很多复杂任务中效果不好。本文提出了一种新的搜索算法。算法会在解空间内exploration和exploitation,通过设定diverse的目标进行训练,得到结果。相比之下,本文的方法更加高效。并且在image caption、VQA和MT等任务中进行了验证。
      Gated End-to-End Memory Networks  

  【seq2seq】【memory networks】端到端的记忆网络在简单的机器阅读理解任务上取得了不错的效果,但复杂的事实问答和对话理解相关的任务处理的并不好,原因在于记忆单元与模型之间交互复杂。本文针对该问题,提出了一种Gated记忆网络,取得了不错的效果。本文模型在机器阅读理解bAbI dataset和task-oriented 对话系统任务DSTC2中均取得了非常好的结果。
      Neural Paraphrase Generation with Stacked Residual LSTM Networks  

  【paraphrase】本文提出用多层残差LSTM网络来做paraphrase的任务,得到了比之前seq2seq以及seq2seq+attention更好的效果。转述在某个角度上和标题生成(句子level摘要)类似,方法可借鉴。
      SentiHood: Targeted Aspect Based Sentiment Analysis Dataset for Urban Neighbourhoods  

  【观点挖掘】【数据集】本文给出了一个观点挖掘的数据集,数据源来自Yahoo问答中与London相关的提问。这个数据集适合这样的场景,一段评论中包含了多个entity的多个aspect的观点,相互之间有一些比较。
      Domain-specific Question Generation from a Knowledge Base  

  【问题生成】问答系统是一个热门研究领域,其关注点在于如何理解问题然后选择或者生成相应的答案。而本文研究的问题是如何根据知识图谱生成高质量的问题。提出高质量的问题难度很大,且看本文内容。
      Compressing Neural Language Models by Sparse Word Representations  

  【语言模型】【提升效率】本文解决的是在学习语言模型时输出层词表过大的问题,词表过大导致效率过低,本文针对这一问题,提出了一种压缩方法,常见词用dense向量来表示,而罕见词用常见词的线性组合来表示。
  一周资源  

      CCL & NLP-NABD 2016论文集  

  由Springer出版的CCL & NLP-NABD 2016论文集已经公布,并在10月10日-11月10日期间可以免费下载。免费下载方式如下:(1)访问会议首页;(2)点击该页面最新“会议论文下载”中的链接;(3)点击新页面的“Download Book (PDF, 35547KB)”按钮。
      北京大学万小军老师组开源自动摘要小工具PKUSUMSUM  

  本组推出文档自动摘要小工具PKUSUMSUM,集成多种无监督摘要提取算法,支持多种摘要任务与多种语言,采用Java编写,代码完全开源,欢迎批评指正,也欢迎同行一起完善该工具。
      斯坦福大学NLP组2016年秋季paper阅读周计划  

  斯坦福大学NLP组2016年秋季paper阅读周计划,挺多篇都是对话系统相关的。
  广告时间  

  PaperWeekly是一个分享知识和交流学问的民间组织,关注的领域是NLP的各个方向。如果你也经常读paper,也喜欢分享知识,也喜欢和大家一起讨论和学习的话,请速速来加入我们吧。
    微信公众号:PaperWeekly
    微博账号:PaperWeekly(      http://weibo.com/u/2678093863)   
    知乎专栏:PaperWeekly(      https://zhuanlan.zhihu.com/paperweekly)   
    微信交流群:微信+ zhangjun168305(请备注:加群 or 加入paperweekly)
友荐云推荐




上一篇:Raspberry Pi Want a Cracker?
下一篇:Node.js 模块系统
酷辣虫提示酷辣虫禁止发表任何与中华人民共和国法律有抵触的内容!所有内容由用户发布,并不代表酷辣虫的观点,酷辣虫无法对用户发布内容真实性提供任何的保证,请自行验证并承担风险与后果。如您有版权、违规等问题,请通过"联系我们"或"违规举报"告知我们处理。

董兴瑞 发表于 2016-10-16 09:06:24
鼎力支持!!
回复 支持 反对

使用道具 举报

魂凝静幽 发表于 2016-10-19 01:56:54
活在當下表述之事与本人无关,只是本着“看贴回贴,繁荣网络、利人利己”的原则
回复 支持 反对

使用道具 举报

*滑动验证:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

我要投稿

推荐阅读

扫码访问 @iTTTTT瑞翔 的微博
回页顶回复上一篇下一篇回列表手机版
手机版/CoLaBug.com ( 粤ICP备05003221号 | 文网文[2010]257号 )|网站地图 酷辣虫

© 2001-2016 Comsenz Inc. Design: Dean. DiscuzFans.

返回顶部 返回列表