网页
资讯
视频
图片
知道
文库
贴吧
地图
采购
进入贴吧
全吧搜索
吧内搜索
搜贴
搜人
进吧
搜标签
日
一
二
三
四
五
六
签到排名:今日本吧第
个签到,
本吧因你更精彩,明天继续来努力!
本吧签到人数:0
一键签到
成为超级会员,使用一键签到
一键签到
本月漏签
0
次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行
补签
。
连续签到:
天 累计签到:
天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
05月09日
漏签
0
天
人工智能吧
关注:
122,819
贴子:
1,013,621
看贴
图片
吧主推荐
视频
游戏
7
回复贴,共
1
页
<<返回人工智能吧
>0< 加载中...
DeepMind 出品,必属精品,呵呵
只看楼主
收藏
回复
LJ人工智能
2B
13
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
Learning to Transduce with Unbounded Memory
http://arxiv.org/pdf/1506.02516v3.pdf
OrochiZ
2B
13
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
机翻
学习转导与无界内存
递归神经网络(RNNs)提供了一个令人信服的工具,在一个简单的顺序方式处理自然语言输入。
许多自然语言处理(NLP)的任务可以被看作是转导的问题,即学习转换一个字符串转换成另一种。
机器翻译是转导的一个典型的例子,最近的结果表明,深RNNs不得不编码长源串和产生相干的翻译的能力。
虽然优雅,RNNs的应用,转任务需要隐藏层足够大的存储可能会遇到的,这意味着浪费在更短的字符串,并在模型和内存参数的数量之间有很强的相关性最长的字符串表示。
在本文中,我们使用了一些语言风格的合成转任务,探索RNNs的学习远射reorderings和替换的能力。
此外,灵感来自于堆栈数据结构的神经网络实现以前的工作中,我们提出和评估基于神经网络栈,队列传导模型和双端(双端队列)。
堆栈算法非常适合于处理在自然语言中观察到的层次结构和我们hypothesise其神经类似物将提供一种有效的和可学习的转导的工具。
我们的模型提供简单RNNs以及最近提出的神经图灵机(NTM),它实现了具有读取功能强大的随机存取存储器和写入操作之间的中间地带。
神经栈,队列和双端还提供了一个逻辑上无界的内存,同时允许有效的固定时间push和pop操作。
我们的结果表明,该模型提出了工作,特别是神经双端队列,能够始终如一地学习范围有挑战性转导的。
而基于longshort长期记忆深RNNs(LSTM)细胞可以当在相同长度的如在训练看到输入测试学会一些转导,它们不能始终如一地推广到更长的字符串。
相比之下,我们的顺序存储器的算法能够学习重现产生转导的算法,常常要概括完美地输入远远超出在训练中遇到过。
2026-05-09 10:00:33
广告
不感兴趣
开通SVIP免广告
Pallashadow
9S
12
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
这篇和6越份的是一样的,格式改了一点
http://tieba.baidu.com/p/3994985451
Pallashadow
9S
12
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
为什么要“呵呵”
LJ人工智能
2B
13
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
还有这篇:Deep Reinforcement Learning with Attention for
Slate Markov Decision Processes with
High-Dimensional States and Actions
@Pallashadow
登录百度账号
扫二维码下载贴吧客户端
下载贴吧APP
看高清直播、视频!
贴吧页面意见反馈
违规贴吧举报反馈通道
贴吧违规信息处理公示