20170520 BADI增强学习

一、要求:
Tcode:FF_5 导入数据运行时,产生财务凭证之前修改某些字段值。
Exmp:
FEBRE-VWEZW
BKPF-XBLNR
FEBEP-CHECT
BSEG-ZUONR

there is a business Add-in(BADI) with the definition name FEB_BADI
that
is called immediately before the standart posting in program
RFEBBU00.
In the case, you can change the procedure of the standard posting
or make additional account assignments by changing the tables that
are to be transferred to the posting interface( FTPOST,FTCLEAR. )

To do this ,go to the sap menu and follow the path tools
->ABAP->Workbench->business Add-ins,
create an enhancement that you assing to the FEB_BADI Badi
and then implement and enhancement that
you activate the BADI, you receive a message ,

telling you that active the BADI, you receive a message ,telling you
that active implementation of this BADI already exists ,

步骤:
1.SE18: FEB_BADI
基本视图中 TYPE - with in SAP 没有打勾,
表明:自建BADI 是不可直接用的。

二、BADI 增强。
有的存在于标准程序出口,是使用的类,
我们创建的程序都是其中的方法。它有一些系统标准的东西,每当使用的时候,
系统可以给它很多参数。

测试:
1.SE19 创建Classic BADI: LE_SHP_DELIVERY_PROC
2.输入自定义名称 Implementation Name: Z_SW_TEST

3.保存出现:已移植试试Z_SW_TEST(参阅指令的长文本)
表示自动把创建的badi使用新技术,创建到new badi 中,所以需要输入自己定义的要使用的new badi 的名

4.新建一个新的技术增强点, 点击create,

5.新技术增强点名称 Enhancement Implementation z_save_test

6.再回到这个屏幕后可以选择自己建立的增强点来保存 badi,

编程注意点:1.由于使用新技术, 在定义数据或者使用语句时候不支持旧ABAP
语言。
必须使用新的定义方法或者取数据方法。

进入之后的显示界面,如果没有显示出来可以使用的内表,需要点击Signature,
可以使用的内表全是取出的数据,
不用再自己查询,
如果没有的再查数据库,

尽量使用X的,不使用Y的。例如使用IT_XLIKP,不使用IT_YLIKP,X的表示最新的数据。

SE19:
classic badi:ZEH_DELIVER_SAVE
New badi: ZEH_DELIVER_SAVE_N

时间: 2024-10-26 03:12:52

20170520 BADI增强学习的相关文章

增强学习 | Q-Learning

"价值不是由一次成功决定的,而是在长期的进取中体现" 上文介绍了描述能力更强的多臂赌博机模型,即通过多台机器的方式对环境变量建模,选择动作策略时考虑时序累积奖赏的影响.虽然多臂赌博机模型中引入了价值的概念,但方法在建模过程中本质上是以策略为优化目标,因此又常被归为基于策略的增强学习方法. 此外,增强学习方法还有基于价值以及基于模型两类主要方法.本文介绍第二类,先从描述价值目标的Q函数开始,它也常称之为Q-Learning方法. 最简单的Q函数可用"状态-动作"二维表

增强学习 | 多臂赌博机模型进阶

“模型是一个框架,用来描述分析者感兴趣的研究对象” 上文[增强学习 | 多臂赌博机模型]介绍了基本的多臂赌博机模型,即单步动作会根据反馈直接作出决策,因此多臂赌博机的目标是学习策略函数,以产生最优的执行动作.介绍了两种学习最优策略的方法,一是使用平均累积函数,二是使用神经网络拟合.相比下,神经网络具有更强的表达能力,效果也更好. 但基本的多臂赌博机模型有两个限制,一是行动与环境状态无关:二是不能处理延时累积回报,这些因素限制了基本多臂赌博机模型的描述和解决现实更复杂问题的能力. 对于行动与环境状

增强学习与马尔科夫决策过程

现有的机器学习算法根据模型的学习过程大致可以分为四类:监督式学习,无监督式学习,半监督式学习和增强学习. ① 监督式学习:从标记好的训练数据中进行模型的训练,常用来做分类和回归,例如逻辑回归.反向神经网络: ② 无监督式学习:根据数据的特征直接对数据的结构和数值进行归纳,常用来做聚类,例如周知的K-均值,谱聚类: ③ 半监督式学习:根据部分标记的和部分没有标记的训练数据进行模型的学习,常用来做回归和分类: ④ 增强式学习:作为今天要讨论的主角,是机器学习中最酷的分支之一,其通过不断的试错.反馈进

增强学习的基本概念(2)

对于增强学习的控制问题,有两个著名的基础算法:Sarsa.Q-Learning (1) Sarsa 算法流程:  对于所有状态 s 以及动作 a 进行任意初始化,将所有终止状态的 Value-Action 值设为0 迭代每一训练集episode: 初始化状态 S 根据策略Q,按照当前的状态 S,选择动作 A(如:小概率-贪婪算法) 迭代训练集的每一步: 采取动作A, 观察奖励值 R 和下一步状态 S' 根据策略Q,按照下一状态 S',选择动作 A'(如:小概率-贪婪算法) Q(S,A) := Q

增强学习 | 多臂赌博机模型

探索的终点是真理 上文介绍了了增强学习的基本框架,一个完整的增强学习框架包括状态.动作.回报.环境等基本概念,其对应的任务问题有三个主要特点: 不同的动作会有不同的回报: 回报是随时间延迟累积的: 行动回报与环境状态是相关的. 对于一些简单的增强学习任务,往往并不需要满足特点2和特点3,将这类问题称为多臂赌博机模型.它来源于赌场的多臂赌博机,即按下不同的臂会有不同额度的奖励.假设有一个Agent能够不断进行尝试找到奖励最大的臂,即建立学习函数,直接将观察状态映射为行动. 学习的最优函数将直接对应

(转) 深度增强学习与通用人工智能

深度增强学习前沿算法思想 CSDN 作者: Flood Sung 2017-02-16 09:34:29 举报 阅读数:3361 作者: Flood Sung,CSDN博主,人工智能方向研究生,专注于深度学习,增强学习与机器人的研究. 责编:何永灿,欢迎人工智能领域技术投稿.约稿.给文章纠错,请发送邮件至[email protected]本文为<程序员>原创文章,未经允许不得转载,更多精彩文章请订阅2017年<程序员>? 2016年AlphaGo计算机围棋系统战胜顶尖职业棋手李世石

Deep Reinforcement Learning 深度增强学习资源

1 学习资料 增强学习课程 David Silver (有视频和ppt): http://www0.cs.ucl.ac.uk/staff/D.Silver/web/Teaching.html 最好的增强学习教材: Reinforcement Learning: An Introduction https://webdocs.cs.ualberta.ca/~sutton/book/the-book.html 深度学习课程 (有视频有ppt有作业) https://www.cs.ox.ac.uk/p

增强学习(一) ----- 基本概念

机器学习算法大致可以分为三种: 1. 监督学习(如回归,分类) 2. 非监督学习(如聚类,降维) 3. 增强学习 什么是增强学习呢? 增强学习(reinforcementlearning, RL)又叫做强化学习,是近年来机器学习和智能控制领域的主要方法之一. 定义: Reinforcement learning is learning what to do ----how to map situations to actions ---- so as to maximize a numerica

增强学习----介绍

PS:本文为阅读周志华<机器学习>笔记 介绍-------任务与奖赏 我们如果要种西瓜,那要经过很多步骤后,才有可能种出一田好瓜,当然也有可能种出的瓜很差,或者直接给种死了.那么将种瓜的过程抽象出来,总结出一系列好的操作,归为种瓜策略,那么,这个过程,就是"增强学习". 这是一个简单的图示,其中: 机器处于环境中,状态空间为X,比如此例,状态空间可以是健康,缺水,凋亡等等,小x为状态空间X中单个状态. 机器所能采取的动作为a,比如:浇水,不浇水:所有动作构成动作集合A. 某