强化学习论文 Deep TAMER: Interactive Agent Shaping in High-Dimensional State Spaces 阅读 本文是文章《Deep TAMER: Interactive Agent Shaping in High-Dimensional State Spaces》的相关阅读笔记。本文主要介... 04月06日评论 阅读全文
强化学习论文 CURL: Contrastive Unsupervised Representations for Reinforcement Learning 阅读 本文是阅读论文 CURL: Contrastive Unsupervised Representations for Reinforcement Learning 的一些记录。这篇... 03月16日评论 阅读全文
强化学习论文 Reinforcement Learning with Augmented Data 阅读 这篇文章尝试将数据增强的方法用在强化学习中,并取得了很好的效果。和很多其他的好论文一样,Simple idea but very very work,值得一看。 03月12日评论 阅读全文
强化学习环境 Reinforcement Learning(强化学习) – MuJoCo 环境介绍 本文主要对 MuJoCo 环境进行简单的介绍。目前 Mujoco 最新版已经开源免费,不再需要激活许可。 01月24日评论 阅读全文
注意力机制 Hugging Face 的 Transformers 库快速入门(一)– pipelines 使用与模型 本文是对 Hugging Face 的 Transformers 库的快速入门,包括如何快速使用该库来建立一个文本生成器,以及简单介绍「分词器」和「模型」。 12月13日评论 阅读全文
图像处理技术 Vision Transformer (ViT) 介绍 本文会介绍 Vision Transformer (ViT) ,包括对原始论文的简单解读,核心代码的讲解,和一个完整的 Vision Transformer (ViT) 的流程介绍... 11月05日评论 阅读全文
注意力机制 Transformer 完全图解指南 本文会对 transformer 进行一个非常详细的图解介绍,其中还会包含对「multi-head attention」,「self-attention」,「attention s... 10月27日评论 阅读全文
注意力机制 Transformer 结构介绍 本文会介绍 Transformer 的结构,主要包含 Encoder 和 Decoder 部分,其中包含的知识点有 self-attention,cross-attention,l... 10月24日评论 阅读全文
注意力机制 自注意力和位置编码 本文会介绍「自注意力」模型,自注意力的关键就是一句话,查询、键和值都来自同一组输入。同时也会介绍位置编码的内容,来克服「自注意力」没有考虑输入的顺序。 10月17日评论 阅读全文
注意力机制 多头注意力 在实际中,我们希望给定相同的 queries、keys 和 values,我们希望模型可以学习到不同的内容,然后将这些内容给组合起来。这就会用到「多头注意力」机制。本文会介绍「多头... 10月16日评论 阅读全文