强化学习——入门

强化学习:

强化学习作为一门灵感来源于心理学中的行为主义理论的学科,其内容涉及 概率论、统计学、逼近论、凸分析、计算复杂性理论、运筹学 等多学科知识,难度之大,门槛之高,导致其发展速度特别缓慢。

一种解释:

人的一生其实都是不断在强化学习,当你有个动作(action)在某个状态(state)执行,然后你得到反馈(reward),尝试各种状态下各种动作无数次后,这几点构成脑中的马尔可夫模型,使你知道之后的行为什么为最优。

另一种解释:

强化学习最重要的几个概念:agent,environment,reward,policy,action。environment 通常利用马尔可夫过程来描述,agent 通过采取某种 policy 来产生action,和 environment 交互,产生一个 reward。之后 agent 根据 reward 来调整优化当前的 policy。


强化学习和有监督学习的区别

  1. 有监督学习的训练样本是有标签的,而强化学习没有标签,它是通过环境给的奖惩来进行学习;我们会发现,强化学习和监督学习以及无监督学习最大的不同就是不需要大量的数据来“喂养”,而是通过自己不停的尝试来学会某些技能;
  2. 有监督学习的学习过程是静态的,而强化学习的学习过程是动态的;这里的动态和静态指的是:是否和环境进行交互;有监督学习中给什么样本就学什么,而强化学习要与环境进行交互,再根据交互所给出的奖惩来学习;
  3. 有监督学习解决的更多是感知问题,比如深度学习,而强化学习解决的主要是决策问题;因此有监督学习像是五官,而强化学习更像是大脑;举个栗子:面对一只老虎的时候,如果只有监督学习就会反映出老虎两个字,如果有了强化学习,我们就可以决定是逃跑还是战斗。

    只要问题中包含了决策和控制,就可以使用强化学习!


强化学习的主流算法

免模型学习(Model-Free) VS 有模型学习(Model-Base)

主要差异:智能体是否能完整了解或学习到所在环境的模型

  • 有模型学习:优点是对环境有提前认知,可以提前考虑和规划;缺点是如果模型和真实世界不一致,那么在实际使用场景下不会有太好的表现;
  • 免模型学习:缺点是放弃了模型学习,使得效率不如前者;优点是这种方式更容易实现,也容易在真实场景下调整到很好的状态。

    因此,免模型学习更受欢迎,得到更加广泛的支持和研究。


为什么强化学习会很慢?

  • 增量式的参数更新: 最初的算法,从输入的周围环境,到输出的AI动作之间,是靠梯度下降来完成映射的。在这个过程中,每个增量都需要非常小,才不至于让新学到的信息,把之前学到的经验覆盖了 (这叫做“灾难性干扰”) 。如此一来,学习过程便十分缓慢。

    解决方法: 情节性深度强化学习 (Episodic DRL)

  • 弱归纳偏置: 任何学习过程,都要面临“偏见-方差权衡”。所谓偏见,就是一开始限定好一些可能的结果,AI从里面找出自己想要的那一种。限定越窄,AI就可以只考虑为数不多的可能性,更快地得出结果。弱归纳偏置,就需要考虑更多的可能性,学习也就慢一些。

    解决方法: 首先限定好一个狭窄的范围,再让AI去探索。可怎么知道应该限定在哪里?答案是,借鉴过去的经验。

    Note:具体讲解参考引用中量子位的回答


强化学习与深度学习的结合(DRL,Deep Reinforcement Learning)

强化学习从根本上打破了以前利用处理数据、选取算法模型、训练与测试来解决问题的这种思维,而是从 策略、值函数、模型等角度 进行解决问题。为了能够利用数学进行通用表达,以序列决策问题为典型的马尔科夫决策过程被广泛的使用。此外,动态规划、蒙特卡罗、时序控制三种方法作为探索马尔科夫序列最佳策略的重要方法而被广泛使用,并从控制的角度教智能体如何在有限的状态下进行探索和利用

在以上的基础上,策略梯度及神经网络被广泛的应用于策略和值函数的逼近过程中。使用神经网络逼近一定程度上避免了表格存储序列空间大,查询慢等令人窒息的诟病,成为了强化学习发展的新的方向。

通常情况下,人类的学习是在真实环境下,但强化学习目前还不能普及到高复杂、具有逻辑推理与情感分析的阶段,所以拥有一个仿真环境是强化学习学习的重要基础,这也是DRL区别于其他AI算法的独特点。可以说强化学习的成功来自于其在游戏领域的成功,因为游戏只涉及策略的决策,而不需要复杂的逻辑推理 (围棋计算落子概率) 以及情感分析。

  • 深度学习的学习基础是:数据,算法模型,计算力;
  • 深度强化学习的学习基础是:仿真模拟环境,算法模型和计算力

在强化学习原理与基础、强化学习的仿真模拟环境以及深度强化学习算法基础上,真正的深度强化学习算法是什么样的?它是如何训练地?如何确定模型以及如何调整超参数等一系列的问题接踵而来。 DQN (Deep Q Network) 是里程碑式的一个 DRL 算法。


References:

? [1] 强化学习的主流算法

? [2] 强化学习是什么? - 量子位的回答 - 知乎

? [3] 强化学习是什么? - 海晨威的回答 - 知乎

? [4] 深度强化学习(DRL)探索 - DRLearner的文章 - 知乎

原文地址:https://www.cnblogs.com/xxxxxxxxx/p/11511051.html

时间: 2024-10-14 00:11:46

强化学习——入门的相关文章

gym强化学习入门demo——随机选取动作 其实有了这些动作和反馈值以后就可以用来训练DNN网络了

# -*- coding: utf-8 -*- import gym import time env = gym.make('CartPole-v0') observation = env.reset() print(observation) print("env actionspace:") print(env.action_space) print("env observationspace:") print(env.observation_space) pri

《深度学习入门基于Python的理论与实现》PDF代码学习指导

入门神经网络深度学习,推荐学习<深度学习入门:基于Python的理论与实现>,这本书不来虚的,一上来就是手把手教你一步步搭建出一个神经网络,还能把每一步的出处讲明白.理解神经网络,很容易就能入门. 深度学习真正意义上的入门书,深入浅出地剖析了深度学习的原理和相关技术.书中使用Python3,尽量不依赖外部库或工具,从基本的数学知识出发,带领读者从零创建一个经典的深度学习网络,使读者在此过程中逐步理解深度学习. <深度学习入门:基于Python的理论与实现>中文版PDF,314页,带

分享《深入浅出强化学习:原理入门》高清PDF+源代码

下载:https://pan.baidu.com/s/1RQvGYYbIkc3ob3jB6AAu0Q 更多分享资料:https://www.cnblogs.com/javapythonstudy/ <深入浅出强化学习:原理入门>高清PDF+源代码高清PDF,284页,带书签目录,彩色配图,文字可以复制.配套源代码.<深入浅出强化学习:原理入门>,作者: 郭宪 / 方勇纯 ,用通俗易懂的语言深入浅出地介绍了强化学习的基本原理,覆盖了传统的强化学习基本方法和当前炙手可热的深度强化学习方

《深入浅出强化学习:原理入门_郭宪方勇纯》高清PDF+源代码

资源链接:https://pan.baidu.com/s/1y6Fl0zUymMySZZhmBToy2Q<深入浅出强化学习:原理入门>高清PDF+源代码高清PDF,284页,带书签目录,彩色配图,文字可以复制.配套源代码.<深入浅出强化学习:原理入门>,作者: 郭宪 / 方勇纯 ,用通俗易懂的语言深入浅出地介绍了强化学习的基本原理,覆盖了传统的强化学习基本方法和当前炙手可热的深度强化学习方法.高清PDF如图: 原文地址:http://blog.51cto.com/14063572/

深度强化学习(Deep Reinforcement Learning)入门:RL base &amp; DQN-DDPG-A3C introduction

转自https://zhuanlan.zhihu.com/p/25239682 过去的一段时间在深度强化学习领域投入了不少精力,工作中也在应用DRL解决业务问题.子曰:温故而知新,在进一步深入研究和应用DRL前,阶段性的整理下相关知识点.本文集中在DRL的model-free方法的Value-based和Policy-base方法,详细介绍下RL的基本概念和Value-based DQN,Policy-based DDPG两个主要算法,对目前state-of-art的算法(A3C)详细介绍,其他

深度学习入门和学习书籍

深度学习书籍推荐: 深度学习(Deep Learning) by Ian Goodfellow and Yoshua Bengio and Aaron Courville 中文版下载地址:https://github.com/exacity/deeplearningbook-chinese R语言深度学习实践指南(Deep Learning Made Easy with R) by Dr. N.D. Lewis 下载地址:http://download.csdn.net/detail/oscer

复现深度强化学习论文经验之谈

近期深度强化学习领域日新月异,其中最酷的一件事情莫过于 OpenAI 和 DeepMind 训练智能体接收人类的反馈而不是传统的奖励信号.本文作者认为复现论文是提升机器学习技能的最好方式之一,所以选择了 OpenAI 论文<Deep Reinforcement Learning from Human Preferences>作为 target,虽获得最后成功,却未实现初衷.如果你也打算复现强化学习论文,那么本文经验也许是你想要的.此外,本文虽对强化学习模型的训练提供了宝贵经验,同时也映射出另外

[Reinforcement Learning] 强化学习介绍

随着AlphaGo和AlphaZero的出现,强化学习相关算法在这几年引起了学术界和工业界的重视.最近也翻了很多强化学习的资料,有时间了还是得自己动脑筋整理一下. 强化学习定义 先借用维基百科上对强化学习的标准定义: 强化学习(Reinforcement Learning,简称RL)是机器学习中的一个领域,强调如何基于环境而行动,以取得最大化的预期利益. 从本质上看,强化学习是一个通用的问题解决框架,其核心思想是 Trial & Error. 强化学习可以用一个闭环示意图来表示: 强化学习四元素

深度学习入门:基于Python的理论与实现 高清中文版PDF电子版下载附源代码

本书特色1.日本深度学习入门经典畅销书,原版上市不足2年印刷已达100 000册.长期位列日亚"人工智能"类图书榜首,超多五星好评.2.使用Python 3,尽量不依赖外部库或工具,从零创建一个深度学习模型.3.示例代码清晰,源代码可下载,需要的运行环境非常简单.读者可以一边读书一边执行程序,简单易上手.4.使用平实的语言,结合直观的插图和具体的例子,将深度学习的原理掰开揉碎讲解,简明易懂.5.使用计算图介绍复杂的误差反向传播法,非常直观.6.相比AI圣经"花书",