qxdm中的gps日志分析

一. Snapper HS工具介绍:

用于测试和转换gps数据的工具, 下载地址: https://createpoint.qti.qualcomm.com

1. 用来分析Supl流程

导入日志方法: Settings->Input & Output (选择File Playback, 里面选择FFA Phone Log File, File(s):选择需要打开的log文件,然后点击OK)

实时抓取日志:Settings->Input & Output (选择FFA Phone, com port选择设备的com口,Use Fixes选择定位方法, Log File Output选择要保存的日志的文件,然后点击OK)

2. 用来抓取日志和查看定位流程

Setting-> Input & Output(选择FFA Phone, 界面选择com port为高通口, Use Fixes选择From Network Positions, 保存文件地址可以在Log File Output下面的黑色向右的三角哪里选择, 然后点击OK)

点击Call Flow才能看到流程, 左边是检查手机等菜单

二. QXDM工具介绍

分析modem日志的工具

1.在qxdm日志中查看星力(Ephemeris)和历书(Almanac)

通过View->GPS->GNSS Navigation  database中可以看到各个卫星的星力和历书

三. 在Android官网看着一个GNSS logger工具介绍

https://developer.android.com/guide/topics/sensors/gnss.html#control-panel

四: QCAT

使用QCAT打开qxdm日志, 然后搜索0x147B, 在View->Parser View可以分析是否download XTRA,

///no xtra data
2019 Dec 11 08:27:44.627 [01] 0x147B GNSS CD DB Report

q_GpsAlmMask {

Raw (Count) List = 0x0( 0) 0

}

q_GpsXtraWmVersionNum = 0

u_GpsXtraVersion = 0

u_GpsXtraWmId = { 0, 0, 0, 0, 0, 0 }

q_GpsXtraFileId = 0

}

u_GpsXtraFitLengthHours = 0

u_GpsXtraFitNum = 0

w_GpsXtraAppWeek = 0

// have xtra data:
2019 Dec 11 08:27:47.666 [01] 0x147B GNSS CD DB Report

q_GpsAlmMask {

Raw (Count) List = 0xFFFDFFFF( 31) 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 19 | 20 | 21 | 22 | 23 | 24
| 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32

}

q_GpsXtraWmVersionNum = 134283797

u_GpsXtraVersion = 3

u_GpsXtraFitLengthHours = 6

u_GpsXtraFitNum = 28

w_GpsXtraAppWeek = 2083

w_GpsXtraAppMs = 284400000

w_GpsXtraInjWeek = 2083

w_GpsXtraInjMs = 289684002

如何分析SUPL日志流程.

1. 用Snapper HS抓取或者打开dlf文件,这开始有讲解.

2. 用qcat打开qxdm文件, 一般是isf文件,如果不是isf文件,可以用qxdm抓换成isf文件,或者直接右键log文件,点击Convert to ISF, 就可以转换成isf文件,前提是安装了qxdm和qcat工具.

Use qcat also could view the SUPL call flow

Edit –》 filter –》in this file log –》gnss   select  event you want view

0x1386   UE to server

0x1387   server to UE

qcat里面只能看到是SUPL协议, 但是看不到具体的内容,不清楚哪条是SUPL START/SUPL INIT等等, 可以直接用qxdm查看改日志, 搜索CGPS Report Server Tx和CGPS Report Server Rx, 查看里面的内容就可以看到SUPL的详细信息.

做冷启动测试:

可以查看辅助数据的数据库状态, 来看辅助数据是否下载成功。这个可以如上看xtra数据的下载成功与否,或者如下方法:

用qcat搜过0x147B,

查看GpsEphMask和GpsAlmMask是否有数据:

GpsEphMask = 0x00000000  (# 0):[]

GpsAlmMask = 0x00000000  (# 0):[]

如果下载成功,如下:

GpsEphMask = 0x00201328  (# 6):[4,6,9,10,13,22,]

GpsAlmMask = 0x00FFFFFF  (#24):[1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,]

问题:

在模拟器测试失败,

解决: 在模拟器上测试gps,需要将NV06264设置为1054

The manufacturer chooses this value.
■ 1738 – For live GPS environment (default)
■ 1054 – For simulated GPS environment, that is, ULTS/PLTS, and so on.

从qxdm log也可以看到设置的这个值.

用qcat打开isf文件, Edit -> filter -> In This File logs -> GNSS -> GNSS Clock Report

检查里面的MinGpsWeekNumber的值就可以了.

当然也可以用qxdm进行查看, 直接搜索GNSS Clock Report这个或者0x1478

[如何检查紧急PDN]
请按照以下步骤从QXDM(.isf)日志转换为数据包日志(.pcap),并且生成的“ XXX_iface 73_IP.pcap”日志包含SUPL(带有oma-ulp)通信日志 确保

[如何将QXDM(.isf)日志转换为数据包日志(.pcap)]
使用以下命令通过PCAP Generator进行转换。
  > PCAP Generator.e [isf文件路径] [输出目标路径]

* PCAP Generator的安装路径
C:\ Program Files(x86)\ Qualcomm \ QCAT 6.x \ Bin \ PCAP Generator.exe

原文地址:https://www.cnblogs.com/wangzhe1635/p/12015280.html

时间: 2024-10-05 05:04:35

qxdm中的gps日志分析的相关文章

在CentOS7中部署ELK日志分析系统

在CentOS7中部署ELK日志分析系统 ELK原理介绍 什么是ELK ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件.新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具. Elasticsearch是实时全文搜索和分析引擎,提供搜集.分析.存储数据三大功能:是一套开放REST和JAVA API等

squid的ACL、日志分析、反向代理

一.Squid 中 ACL 的使用 (1)ACL 访问控制方式:(2)ACL 规则优先级:(3)常用的 ACL 列表类型:(4)操作演示: 二.日志分析 第一步:安装 sarg 工具第二步:安装 Apache第三步:客户机上测试 三.反向代理 修改 /etc/squid.conf 文件添加以下代码:1.基于IP地址限制:2.基于时间限制:3.基于目标地址(就是web服务器地址)可以将拒绝的目标地址添加到一个文件中 二.日志分析 安装 sarg 工具Sarg(Squid Analysis Repo

Linux中的日志分析及管理

日志文件对于诊断和解决系统中的问题很有帮助,因为在Linux系统中运行的程序通常会把系统消息和错误消息写入相应的日志文件,这样系统一旦出现问题就会"有据可查".此外,当主机遭受攻击时,日志文件还可以帮助寻找攻击者留下的痕迹.一.主要日志文件在Linux系统中,日志数据主要包括以下三种类型:[内核及系统日志][用户日志][程序日志]Linux系统本身和大部分服务器程序的日志文件默认情况下都放置在目录"/var/log"中.一部分程序公用一个日志文件,一部分程序使用单个

如何在日志分析中进行数据清洗

如何在日志分析中进行数据清洗 前提 我们在进行日志分析的时候,那么日志的数据是杂乱无章的,或则说日志的数据并不是我们都想看到的.所以我们需要对里面的数据进行清洗,说的直白一点就是要过滤里面的字符串. 下面便是我们需要去过滤的原始数据: 183.131.11.98 - - [01/Aug/2014:01:01:05 +0800] "GET /thread-5981-1-1.html HTTP/1.1" 200 18152 "http://www.baidu.com/s?wd=c

apache中部署rotatelogs日志分割和awstats日志分析

概述:rotatelogs日志分割:apache使用自带的日志分割模块rotatelogs分割日志,rotatelogs 是 Apache中自带的管道日志程序.awstats日志分析:是一款开源日志分析系统,可用来分析Apache网站服务器的访问日志,也可用来分析Samba.Vsftpd.IIS等服务的日志信息.结合crond等计划任务服务,可以对不断增长的日志内容定期进行分析.实验步骤:(一).rotatelogs日志分割1.vim编辑/etc/httpd/conf/httpd.conf配置文

非手工编译apache中awstats日志分析管理

非手工编译apache中awstats日志分析管理 实验环境:一台linux6.5 宿主机或者虚拟win7 使用的包为awstats-7.6.tar 事先设置好域名以及DNS地址解析 博主的域名为www.abc.com 1.挂载移动 2.进行脚本的配置,有y的y,该回车的回车,需要填写的内容如下 3.进入自动生成的文件中修改 4.创建目录 5.登陆apache网页以及日志管理网页,刷新awstats管理日志 6.刷新awstats管理日志后也刷新网页 末:代码脚本记录 配置apache网站设置d

Android中一个有趣的crash的日志分析

很久前写的一篇文章,发出来以作纪念:) Android中一个有趣的crash的日志分析 首先看看bugly平台中异常的统计信息,表面上是一个NullPointerException: 发生异常设备统计信息如下图,有意思的是全部都是root过的机器: 接下来看跟踪日志,在最下面可以看到这样的日志,抛出了NullpointerException: 引起异常的是com.lishu.net.LishuNet$2类,从类名看显然是某一个类的内部类. 第一个反应,当然是搜索一下应用的源代码,看看是不是有co

CentOS 7 使用ELK套件搭建日志分析和监控平台

1 概述 ELK套件(ELK stack)是指ElasticSearch.Logstash和Kibana三件套.这三个软件可以组成一套日志分析和监控工具. 由于三个软件各自的版本号太多,建议采用ElasticSearch官网推荐的搭配组合:http://www.elasticsearch.org/overview/elkdownloads/ 2 环境准备 2.1 软件要求 本文把ELK套件部署在一台CentOS单机上. 具体的版本要求如下: 操作系统版本:CentOS 6.4: JDK版本:1.

CentOS7下Elastic Stack 5.0日志分析系统搭建

一.概述 Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等. Logstash是一个开源的用于收集,分析和存储日志的工具. Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以汇总.分析和搜索重要数据日志. Beats是elasticsearch公司开源的一款采集系统监控数据的代理ag