本文是阅读论文 CURL: Contrastive Unsupervised Representations for Reinforcement Learning 的一些记录。这篇...
Reinforcement Learning with Augmented Data 阅读
这篇文章尝试将数据增强的方法用在强化学习中,并取得了很好的效果。和很多其他的好论文一样,Simple idea but very very work,值得一看。
Reinforcement Learning(强化学习) – MuJoCo 环境介绍
本文主要对 MuJoCo 环境进行简单的介绍。目前 Mujoco 最新版已经开源免费,不再需要激活许可。
Hugging Face 的 Transformers 库快速入门(一)– pipelines 使用与模型
本文是对 Hugging Face 的 Transformers 库的快速入门,包括如何快速使用该库来建立一个文本生成器,以及简单介绍「分词器」和「模型」。
Vision Transformer (ViT) 介绍
本文会介绍 Vision Transformer (ViT) ,包括对原始论文的简单解读,核心代码的讲解,和一个完整的 Vision Transformer (ViT) 的流程介绍...
Transformer 完全图解指南
本文会对 transformer 进行一个非常详细的图解介绍,其中还会包含对「multi-head attention」,「self-attention」,「attention s...
Transformer 结构介绍
本文会介绍 Transformer 的结构,主要包含 Encoder 和 Decoder 部分,其中包含的知识点有 self-attention,cross-attention,l...
自注意力和位置编码
本文会介绍「自注意力」模型,自注意力的关键就是一句话,查询、键和值都来自同一组输入。同时也会介绍位置编码的内容,来克服「自注意力」没有考虑输入的顺序。
多头注意力
在实际中,我们希望给定相同的 queries、keys 和 values,我们希望模型可以学习到不同的内容,然后将这些内容给组合起来。这就会用到「多头注意力」机制。本文会介绍「多头...
使用注意力机制的 seq2seq
这一篇中,我们介绍使用注意力机制的 Seq2Seq。我们会将「注意力机制」用在 Seq2Seq 模型上面。这样在预测词元时,如果不是所有输入词元都相关,模型将仅对齐(或参与)输入序...
17