MonkyTalk学习-8-Agent

之前配置了很多关于AspectJ的功能,但是一直没有用到,原因在于我之前的所有学习都是在一个Demo的apk上运行的,而这个demo上已经配置好了。

下面就尝试着自己动写个工程然后学习如何添加Agent。

1. 首先创建一个Android工程,写几个Activity,这里只是简单的写了两个Activity,一个是Login,一个是Main,Login负责登录,Main负责显示登录用户,和处理注销功能。跟之前在Demo1中的差不多。

2. 转换Android项目到AspectJ

右键点击Android工程,选择Configure----Convert to AspectJ Project (如果之前的配置完成,这里是应该有这个选项的)

注意:一旦convert一次之后,不管是否成功,这个项目都变成AJ开头的,如果没有成功,只能重新创建一个工程,(有可能是我不会用,毕竟第一次接触AspectJ)

成功之后,会出现AspectJ Runtime Library目录

如图:

2. agent添加

在安装包的目录下找到agent.jar,拷贝到Android工程中的libs目录下,如果没有创建这个目录。

3. Add To AspectPath

在 添加了agent之后,选中这个agent.jar,然后---AspectJ Tools----Add to AspectPath

成功之后,在Android工程中出现Referenced Libraries目录,

4. 右击Android工程名称----Properties----Order and Export----勾选AspectJ Runtime Library

5. 更改AndroidMainfest.xml.

<uses-permission android:name="android.permission.INTERNET"/>
<uses-permission android:name="android.permission.GET_TASKS"/>

Interent 是用来连接IDE和App的,

Get_Tasks是允许程序获取应用的。

6. 完成。

到这一步在Android工程上需要修改的设置已经完毕。

安装到模拟器或者手机上即可。

7. 连接IDE和模拟器

启动了App之后,当Record按钮激活的时候,就代表两者已经连接。激活之后,就可以简单的录制,回放了。

时间: 2024-10-12 21:29:26

MonkyTalk学习-8-Agent的相关文章

MonkyTalk学习-6-Verify-WaitFor &amp; WaitForNot

因为比较看重的是Verify的功能,所以觉得深入的研究下这个功能. 这里要将的就是WaitFor和 WaitForNot功能. WaitFor 功能 1. Component = Button , MonkeyID =  “你想要找的东西”,或者* 也可以,就是单纯的等待了. 注意:Button-->Logout, Device-->* 2. 输入你想要等待的时间,默认值为10,单位秒. WaitForNot 功能 基本跟WaitFor功能相同,不同的是等待消失. 如图: 华丽丽的失败了,为啥

MonkyTalk学习-7-Verify-Verify

提供了很多的验证的方式,目前没有测试完全通过,有些不确定怎么玩. 先看官方文档 Verify - Verify that the component's value is equal to the argument. VerifyNot - Verify that the component's value is NOT equal to the argument. VerifyRegex - Verify that the component's value matches the Regul

MonkyTalk学习-4-JS脚本修改运行

JS脚本的修改和运行方面的内容, 1. 导出脚本 在录制完成或者通过Table View界面编辑过之后,会自动生成JavaScript脚本,进入JavaScript的Tab下,可以看出如下的结果 点击Export按钮,会自动生成一个.js文件,内容和在JavaScript 中看到的内容相同. 2. 能做什么 If you want to include common programming structures like flow control, loops, and random numbe

MonkyTalk学习-1-前言,环境安装,环境配置。

做移动应用自动化测试的时候,发现了一个工具叫MonkeyTalk,所以有时间就稍微研究了下. 所以有了今天的这一系列的帖子,希望能留下点东西. 今天是第一讲,关于环境安装和环境配置.当然有可能一些都是在其他网站上摘抄过来的.集合起来结合安装过程中遇到的问题,以供日后查看 前提条件: JDK 1.6, 64位 Eclipse ADT 64 位 这两个的环境配置,就部说了,基本上网上都说烂了. 1. 检查Eclipse或者ADT的Eclipse版本 为什么要检查Eclipse版本,是因为我在安装的时

MonkyTalk学习-3-脚本的参数化

提前说明,这篇文章是看了大牛的博文之后,自己实践的结果.原文在:http://blog.csdn.net/shandong_chu/article/details/38044825 1. 首先录制一个脚本,例如Login的,录制之后,如图:生成了一个Login.mt脚本 即要实现的动作是:输入用户名,输入密码登录,App还是原有的Demo的App. 2. 改造脚本,目标,改成一个灵活输入的脚本,不是固定的用户名和密码等于test的脚本 首先在Table View试图下,新增加一行,去定义user

智能Agent笔记

理性Agent:追求尽可能好的行为表现.Agent表现如何取决于环境的本质. Agent通过传感器感知环境并通过执行器对所处环境产生影响. Agent的感知序列是该Agent所收到的所有输入数据的完整历史.一般地,Agent在任何给定时刻的行动选择依赖于到那个时刻为止该Agent的整个感知序列,而不是那些它感知不到的东西.从数学角度看,我们可以说Agent函数描述了Agent的行为,它将任意给定感知序列映射为行动. 理性Agent是做事正确的Agent.考虑Agent行动的后果.当把Agent置

学习笔记TF037:实现强化学习策略网络

强化学习(Reinforcement Learing),机器学习重要分支,解决连续决策问题.强化学习问题三概念,环境状态(Environment State).行动(Action).奖励(Reward),目标获得最多累计奖励.强化学习模型根据环境状态.行动和奖励,学习出最佳策略,以最终结果为目标,不能只看某个行动当下带来的利益,还要看行动未来带来的价值. AutoEncoder属于无监督学习,MLP.CNN.RNN属于监督学习,强化学习目标变化.不明确,或不存绝对正确标签. Google Dee

Multi-armed Bandit Problem与增强学习的联系

选自<Reinforcement Learning: An Introduction>, version 2, 2016, Chapter2 https://webdocs.cs.ualberta.ca/~sutton/book/bookdraft2016sep.pdf 引言中是这样引出Chapter2的: One of the challenges that arise in reinforcement learning, and not in other kinds of learning

Q-Learning的一个简单的教程

阅读的文献中涉及到了Q-learning,是与机器学习有关的,虽然与自己方向并不相关.但作为一种思想值得学习.故翻译如下,不当之处,恳请批评指正! 原文地址:http://mnemstudio.org/path-finding-q-learning-tutorial.htm 这篇教程通过一个简单而且好理解的数字例子来介绍Q-Learning的概念.这个例子描述了一个Agent是如何通过无监督训练(unsupervised training)来学习一个未知环境的.将下面的这个例子与之后的源代码的例