奇迹小说
人工智能注意力机制:体系、模型与算法剖析

人工智能注意力机制:体系、模型与算法剖析

作者: 傅罡 著

49.62万48人 正在读

已完结现代当代当代文学
目录 (205章)
倒序
正文
001 人类注意力与计算机注意力——从认识自我到改造世界002 人类注意力与计算机注意力——从认识自我到改造世界-1.1 本源思考:哲学中的注意力003 .1.1 早期哲学的朴素观点004 .1.2 注意力视为一般认知现象005 .1.3 注意力作为重要研究对象006 人类注意力与计算机注意力——从认识自我到改造世界-1.2 心路历程:心理学中的注意力007 .2.1 实验心理学中的注意力008 .2.2 认知心理学中的注意力(1)009 .2.2 认知心理学中的注意力(2)010 .2.2 认知心理学中的注意力(3)011 人类注意力与计算机注意力——从认识自我到改造世界-1.3 深入脑海:认知神经科学中的注意力012 .3.1 认知神经科学的研究基础和方法013 .3.2 认知神经科学中的注意力研究(1)014 .3.2 认知神经科学中的注意力研究(2)015 .3.2 认知神经科学中的注意力研究(3)016 人类注意力与计算机注意力——从认识自我到改造世界-1.4 改造世界:计算机科学中的注意力017 .4.1 人工智能为什么要讨论注意力?018 .4.2 注意力与计算机视觉019 .4.3 注意力与自然语言处理020 .4.4 注意力机制的多模态应用021 人类注意力与计算机注意力——从认识自我到改造世界-参考文献022 计算机视觉中的注意力023 计算机视觉中的注意力-2.1 注意力模型的分类024 .1.1 客观与主观:自下而上的注意力与自上而下的注意力025 .1.2 目的与手段:视觉显著性检测与视觉注意力机制026 .1.3 掩膜与权重:硬性注意力与柔性注意力027 .1.4 特征与位置:特征域注意力与空间域注意力028 .1.5 自己与相互:自注意力与互注意力029 计算机视觉中的注意力-2.2 视觉显著性检测原理与模型剖析030 .2.1 注视点预测(1)031 .2.1 注视点预测(2)032 .2.1 注视点预测(3)033 .2.1 注视点预测(4)034 .2.1 注视点预测(5)035 .2.1 注视点预测(6)036 .2.1 注视点预测(7)037 .2.2 显著物体检测(1)038 .2.2 显著物体检测(2)039 .2.2 显著物体检测(3)040 .2.2 显著物体检测(4)041 .2.2 显著物体检测(5)042 .2.2 显著物体检测(6)043 .2.2 显著物体检测(7)044 .2.2 显著物体检测(8)045 .2.2 显著物体检测(9)046 .2.2 显著物体检测(10)047 计算机视觉中的注意力-2.3 注意力机制的计算机视觉应用与模型剖析048 .3.1 目标搜索与识别(1)049 .3.1 目标搜索与识别(2)050 .3.1 目标搜索与识别(3)051 .3.2 细粒度分类(1)052 .3.2 细粒度分类(2)053 .3.2 细粒度分类(3)054 .3.2 细粒度分类(4)055 .3.3 神经网络中的通用注意力模块(1)056 .3.3 神经网络中的通用注意力模块(2)057 .3.3 神经网络中的通用注意力模块(3)058 .3.3 神经网络中的通用注意力模块(4)059 .3.3 神经网络中的通用注意力模块(5)060 .3.3 神经网络中的通用注意力模块(6)061 计算机视觉中的注意力-参考文献(1)062 计算机视觉中的注意力-参考文献(2)063 自然语言处理中的注意力——“前Transformer”的时代064 自然语言处理中的注意力——“前Transformer”的时代-3.1 机器翻译与Seq2Seq模型065 .1.1 机器翻译066 .1.2 Seq2Seq模型067 自然语言处理中的注意力——“前Transformer”的时代-3.2 自然语言处理中注意力机制的起源068 .2.1 Seq2Seq模型的问题069 .2.2 注意力Seq2Seq模型070 自然语言处理中的注意力——“前Transformer”的时代-3.3 经典算法剖析071 .3.1 全局注意力与局部注意力机制072 .3.2 层级注意力机制073 .3.3 自注意力机制(1)074 .3.3 自注意力机制(2)075 .3.3 自注意力机制(3)076 自然语言处理中的注意力——“前Transformer”的时代-3.4 注意力机制的形式化表示077 自然语言处理中的注意力——“前Transformer”的时代-参考文献078 “只要注意力”的Transformer079 “只要注意力”的Transformer-4.1 Transformer的诞生080 “只要注意力”的Transformer-4.2 Transformer的编码器-解码器架构081 .2.1 编码器结构082 .2.2 解码器结构083 “只要注意力”的Transformer-4.3 Transformer的输入与输出084 .3.1 词嵌入085 .3.2 位置编码086 .3.3 Transformer的输出087 “只要注意力”的Transformer-4.4 Transformer的注意力机制088 .4.1 缩放点积注意力089 .4.2 多头注意力090 .4.3 编码器与解码器中的注意力模块091 “只要注意力”的Transformer-4.5 一些其他问题092 .5.1 BatchNorm与LayerNorm093 .5.2 模型训练的Teacher Forcing模式094 .5.3 序列预测的Beam Search方法095 “只要注意力”的Transformer-参考文献096 自然语言处理中的预训练范式与Transformer的“一统江湖”097 自然语言处理中的预训练范式与Transformer的“一统江湖”-5.1 语言建模098 .1.1 从统计语言模型到神经网络语言模型099 .1.2 单向语言模型与双向语言模型100 .1.3 自回归语言模型与自编码语言模型101 自然语言处理中的预训练范式与Transformer的“一统江湖”-5.2 自然语言处理中的预训练范式102 .2.1 “预训练+微调”范式103 .2.2 “预训练+提示”范式104 自然语言处理中的预训练范式与Transformer的“一统江湖”-5.3 预训练模型概览105 自然语言处理中的预训练范式与Transformer的“一统江湖”-5.4 基于Transformer的预训练模型106 .4.1 GPT:Transformer的“右手”(1)107 .4.1 GPT:Transformer的“右手”(2)108 .4.2 BERT:Transformer的“左手”(1)109 .4.2 BERT:Transformer的“左手”(2)110 .4.2 BERT:Transformer的“左手”(3)111 .4.2 BERT:Transformer的“左手”(4)112 .4.3 Transformer-XL与XLNet:从任意长输入到“更好的BERT”(1)113 .4.3 Transformer-XL与XLNet:从任意长输入到“更好的BERT”(2)114 .4.3 Transformer-XL与XLNet:从任意长输入到“更好的BERT”(3)115 .4.3 Transformer-XL与XLNet:从任意长输入到“更好的BERT”(4)116 .4.3 Transformer-XL与XLNet:从任意长输入到“更好的BERT”(5)117 .4.3 Transformer-XL与XLNet:从任意长输入到“更好的BERT”(6)118 .4.4 RoBERTa与ALBERT:“鲁棒版BERT”与“瘦身版BERT”(1)119 .4.4 RoBERTa与ALBERT:“鲁棒版BERT”与“瘦身版BERT”(2)120 .4.4 RoBERTa与ALBERT:“鲁棒版BERT”与“瘦身版BERT”(3)121 .4.4 RoBERTa与ALBERT:“鲁棒版BERT”与“瘦身版BERT”(4)122 .4.5 MASS、BART与UniLM:序列到序列的模型(1)123 .4.5 MASS、BART与UniLM:序列到序列的模型(2)124 .4.5 MASS、BART与UniLM:序列到序列的模型(3)125 .4.5 MASS、BART与UniLM:序列到序列的模型(4)126 .4.5 MASS、BART与UniLM:序列到序列的模型(5)127 .4.5 MASS、BART与UniLM:序列到序列的模型(6)128 .4.6 ERNIE“双雄”:借助外部数据的增强模型(1)129 .4.6 ERNIE“双雄”:借助外部数据的增强模型(2)130 .4.6 ERNIE“双雄”:借助外部数据的增强模型(3)131 .4.6 ERNIE“双雄”:借助外部数据的增强模型(4)132 .4.6 ERNIE“双雄”:借助外部数据的增强模型(5)133 .4.7 XLM:跨语种预训练语言模型134 .4.8 GPT-2.0与GPT-3.0:超级模型(1)135 .4.8 GPT-2.0与GPT-3.0:超级模型(2)136 .4.8 GPT-2.0与GPT-3.0:超级模型(3)137 .4.8 GPT-2.0与GPT-3.0:超级模型(4)138 自然语言处理中的预训练范式与Transformer的“一统江湖”-参考文献139 计算机视觉中的Transformer140 计算机视觉中的Transformer-6.1 视觉Transformer模型概览(1)141 计算机视觉中的Transformer-6.1 视觉Transformer模型概览(2)142 计算机视觉中的Transformer-6.2 卷积还是注意力?143 计算机视觉中的Transformer-6.3 Transformer的计算机视觉应用与算法剖析144 .3.1 图像分类与通用主干网络(1)145 .3.1 图像分类与通用主干网络(2)146 .3.1 图像分类与通用主干网络(3)147 .3.1 图像分类与通用主干网络(4)148 .3.1 图像分类与通用主干网络(5)149 .3.1 图像分类与通用主干网络(6)150 .3.1 图像分类与通用主干网络(7)151 .3.1 图像分类与通用主干网络(8)152 .3.1 图像分类与通用主干网络(9)153 .3.1 图像分类与通用主干网络(10)154 .3.1 图像分类与通用主干网络(11)155 .3.1 图像分类与通用主干网络(12)156 .3.2 目标检测(1)157 .3.2 目标检测(2)158 .3.2 目标检测(3)159 .3.2 目标检测(4)160 .3.3 图像分割(1)161 .3.3 图像分割(2)162 .3.4 自监督预训练模型(1)163 .3.4 自监督预训练模型(2)164 .3.4 自监督预训练模型(3)165 .3.4 自监督预训练模型(4)166 .3.4 自监督预训练模型(5)167 .3.4 自监督预训练模型(6)168 .3.4 自监督预训练模型(7)169 .3.4 自监督预训练模型(8)170 计算机视觉中的Transformer-参考文献(1)171 计算机视觉中的Transformer-参考文献(2)172 多模态机器学习中的注意力机制173 多模态机器学习中的注意力机制-7.1 多模态技术发展史174 多模态机器学习中的注意力机制-7.2 多模态机器学习面临的挑战175 多模态机器学习中的注意力机制-7.3 视觉语言多模态模型176 .3.1 视觉语言任务简介(1)177 .3.1 视觉语言任务简介(2)178 .3.2 视觉语言模型中的注意力机制179 多模态机器学习中的注意力机制-7.4 经典多模态模型剖析180 .4.1 早期单任务视觉语言模型(1)181 .4.1 早期单任务视觉语言模型(2)182 .4.1 早期单任务视觉语言模型(3)183 .4.1 早期单任务视觉语言模型(4)184 .4.1 早期单任务视觉语言模型(5)185 .4.1 早期单任务视觉语言模型(6)186 .4.2 视觉语言预训练模型(1)187 .4.2 视觉语言预训练模型(2)188 .4.2 视觉语言预训练模型(3)189 .4.2 视觉语言预训练模型(4)190 .4.2 视觉语言预训练模型(5)191 .4.2 视觉语言预训练模型(6)192 .4.2 视觉语言预训练模型(7)193 .4.2 视觉语言预训练模型(8)194 .4.2 视觉语言预训练模型(9)195 .4.2 视觉语言预训练模型(10)196 .4.3 提示驱动CV模型(1)197 .4.3 提示驱动CV模型(2)198 .4.3 提示驱动CV模型(3)199 .4.3 提示驱动CV模型(4)200 .4.4 新型生成模型(1)201 .4.4 新型生成模型(2)202 .4.4 新型生成模型(3)203 .4.4 新型生成模型(4)204 多模态机器学习中的注意力机制-参考文献(1)205 多模态机器学习中的注意力机制-参考文献(2)
精选推荐
领导力法则

领导力法则

[中国纺织出版社]

陆禹萌

已完结当代文学

销售心理学

销售心理学

[中国纺织出版社]

兰华

已完结当代文学

销售就是玩转情商

销售就是玩转情商

[中国纺织出版社]

王威

已完结当代文学

销售员情商实战训练

销售员情商实战训练

成功的销售需要高智商,更需要高情商。一个销售员的销售业绩,往往与他的情商成正比。本书从十个方面详细讲述了有效运用情商,提高销售业绩的方法和技巧。通过实际销售案例和销售心理学理论指导,以及实战点拨和情商拓展训练,帮助读者全方位、快速提高情商。故事性、多版块、碎片化的内容设置,有效降低读者阅读疲劳,提高阅读兴趣,不论是奔波在路上的销售小白,还是带领团队奋勇向前的销售经理,都能从中找到适合自己的销售软技巧。

刘军

已完结当代文学

让未来的你,感谢现在勇敢的自己

让未来的你,感谢现在勇敢的自己

[中国纺织出版社]

王介威

已完结当代文学

行为心理学:华生的实用心理学课

行为心理学:华生的实用心理学课

[中国纺织出版社]

(美)约翰·华生著.倪彩

已完结当代文学

行为心理学入门(完全图解版)

行为心理学入门(完全图解版)

行为心理学入门(完全图解版)是以作者多来年的心理辅导和咨询数据为素材,对现实生活中的行为心理学应用进行了形象、深入、全面的论述和解读。本书与日本心理学图解书形式相同,浅显易读,有趣又益。

武莉

已完结当代文学

自卑与超越

自卑与超越

《自卑与(全译插图典藏版)》是个体心理学研究领域的著作,也是人本主义心理学先驱阿尔弗雷德·阿德勒的很好著作。阿德勒的学说以“自卑感”与“创造性自我”为中心,并强调“社会意识”。全书立足个人心理学的观点,从教育、家庭、婚姻、伦理、社交等多个领域,以大量的实例为论述基础,阐明了人生意义的真谛,帮助人们克服自卑、不断超自己,正确对待职业,正确理解社会与性。本书直接促进了亲子教育、人格培养、婚姻与爱情、职业生涯、家庭建设、人际关系等诸多领域的长足发展,成为人们了解心理学的经典读物。

(奥)阿尔弗雷德·阿德勒

已完结当代文学

自制力:道理我都懂,为什么就是过不好人生

自制力:道理我都懂,为什么就是过不好人生

[中国纺织出版社]

邱开杰

已完结当代文学