神经网络中的注意力机制 / Attention is all you need



报告人唐乾桐
报告时间2019-05-29
讨论组语法理论与语言工程
关键词Attention;Transformer;Analysis Methods;可解释性;深度学习
摘要或简介

Google Brain两年前提出的Transformer,至今仍是nlp界的宠儿,时下各种state-of-the-art的模型都基于他们。

Attetion和Transformer究竟是什么?语言学在这里有没有用武之地?本报告想着重谈这两点。

发布人Ford
发布范围全网
讨论记录

下载次数6681
浏览次数5708

下载文献(643.6 KB) 查看幻灯片(2.0 MB)  登录后可执行更多操作


© CCL of   Peking University  2019