Android Orientation Sensor(方向传感器)详解与应用

一、前言

本篇blog是我的“Android进阶”的第一篇文章,从初学Android到现在断断续续也有4个多月时间了,也算是有了一些自己的心得体会,也能自己独立做一些东西了,这都要感谢我们公司的安卓开发璟博和无所不能的鸿洋给我的帮助和指点。本系列blog将记录我在开发中、学习中遇到的较为重点的、值得记录的知识点和技巧,简单的说就不再是基础教程了。由于项目中需要用到方向传感器,所以就借此机会来学一学Android的传感器部分的知识了,自然也就是本篇blog的内容了。

二、传感器基础

官方文档说的很清楚,Android平台支持三大类的传感器,它们分别是:

a. Motion sensors

b. Environmental sensors

c. Position sensors

从另一个角度划分,安卓的传感器又可以分为基于硬件的和基于软件的。基于硬件的传感器往往是通过物理组件去实现的,他们通常是通过去测量特殊环境的属性获取数据,比如:重力加速度、地磁场强度或方位角度的变化。而基于软件的传感器并不依赖物理设备,尽管它们是模仿基于硬件的传感器的。基于软件的传感器通常是通过一个或更多的硬件传感器获取数据,并且有时会调用虚拟传感器或人工传感器等等,线性加速度传感器和重力传感器就是基于软件传感器的例子。下面通过官方的一张图看看安卓平台支持的所有传感器类型:

使用传感器的话那么首先需要了解的必然是传感器API了,在Android中传感器类是通过Sensor类来表示的,它属于android.hardware包下的类,顾名思义,和硬件相关的类。传感器的API不复杂,包含3个类和一个接口,分别是:

SensorManager

Sensor

SensorEvent

SensorEventListener

根据官方文档的概述分别简单解释一下这4个API的用处:

SensorManager:可以通过这个类去创建一个传感器服务的实例,这个类提供的各种方法可以访问传感器列表、注册或解除注册传感器事件监听、获取方位信息等。

Sensor:用于创建一个特定的传感器实例,这个类提供的方法可以让你决定一个传感器的功能。

SensorEvent:系统会通过这个类创建一个传感器事件对象,提供了一个传感器的事件信息,包含一下内容,原生的传感器数据、触发传感器的事件类型、精确的数据以及事件发生的时间。

SensorEventListener:可以通过这个接口创建两个回调用法来接收传感器的事件通知,比如当传感器的值发生变化时。

介绍了基础的分类之后,我们再看看传感器的可用性表格,不同的传感器在不同的Android版本之间是有差异的,比如有的在低版本可以用,但在高版本就被弃用,详细的数据依然看看官方的这张表格:

右上角标有1的是在Android1.5版本添加的,并且在Android2.3之后就无法使用。

右上角标有2的是已经过时的。

很明显,我们需要用到的方向传感器TYPE_ORIENTATION就已经过时了,后面再说用什么来替代它。

最后看一下常用的传感器的方法:

1.实例化SensorManager

SensorManager mSensorManager = (SensorManager) getSystemService(Context.SENSOR_SERVICE);

2.获取设备支持的全部Sensor的List

List<Sensor> deviceSensors = mSensorManager.getSensorList(Sensor.TYPE_ALL);

下面就通过这两个方法看一下手机支持哪些传感器,并以列表数据展示出来,代码很简单:

package com.example.sensordemo;

import java.util.ArrayList;
import java.util.List;

import android.app.Activity;
import android.content.Context;
import android.hardware.Sensor;
import android.hardware.SensorManager;
import android.os.Bundle;
import android.widget.ArrayAdapter;
import android.widget.ListView;

public class MainActivity extends Activity {

	private SensorManager mSensorManager;
	private ListView sensorListView;
	private List<Sensor> sensorList;

	@Override
	protected void onCreate(Bundle savedInstanceState) {
		super.onCreate(savedInstanceState);
		setContentView(R.layout.activity_main);
		sensorListView = (ListView) findViewById(R.id.lv_all_sensors);
		// 实例化传感器管理者
		mSensorManager = (SensorManager) getSystemService(Context.SENSOR_SERVICE);
		// 得到设置支持的所有传感器的List
		sensorList = mSensorManager.getSensorList(Sensor.TYPE_ALL);
		List<String> sensorNameList = new ArrayList<String>();
		for (Sensor sensor : sensorList) {
			sensorNameList.add(sensor.getName());
		}
		ArrayAdapter<String> adapter = new ArrayAdapter<String>(this,
				android.R.layout.simple_list_item_1, sensorNameList);
		sensorListView.setAdapter(adapter);
	}

}

最后看一下真机的效果图:

了解了传感器的基础知识,下面我们就具体看看我们需要用到的Orientation Sensor。

三、Orientation Sensor

安卓平台提供了2个传感器用于让我们判断设备的位置,分别是地磁场传感器(the geomagnetic field sensor)和方向传感器(the orientation sensor)。关于Orientation Sensor在官方文档中的概述里有这样一句话:

The orientation sensor is software-based and derives its data from the accelerometer and the geomagnetic field sensor. (方向传感器是基于软件的,并且它的数据是通过加速度传感器和磁场传感器共同获得的)

至于具体算法Android平台已经封装好了我们不必去关心实现,下面在了解方向传感器之前我们还需要了解一个重要的概念:传感器坐标系统(Sensor  Coordinate System)。

在Android平台中,传感器框架通常是使用一个标准的三维坐标系去表示一个值的。以方向传感器为例,确定一个方向当然也需要一个三维坐标,毕竟我们的设备不可能永远水平端着吧,准确的说android给我们返回的方向值就是一个长度为3的float数组,包含三个方向的值。下面看一下官方提供的传感器API使用的坐标系统示意图:

仔细看一下这张图,不难发现,z是指向地心的方位角,x轴是仰俯角(由静止状态开始前后反转),y轴是翻转角(由静止状态开始左右反转)。下面切入正题,看看如何通过方向传感器API去获取方向。结合上面的图再看看官方提供的方向传感器事件的返回值:

这样就和上面提到的相吻合了,确实是通过一个长度为3的float数组去表示一个位置信息的,并且数组的第一个元素表示方位角(z轴),数组的第二个元素表示仰俯角(x轴),而数组的第三个元素表示翻转角(y轴),最后看看代码怎么写。

依旧参考官方文档Using the Orientation Sensor部分内容,首先是实例化一个方向传感器:

mOrientation = mSensorManager.getDefaultSensor(Sensor.TYPE_ORIENTATION);

虽然这样做没错,但是如果你在IDE中写了这样一行代码的话,不难发现它已经过期了,但是没关系,我们先用这个看看,后面再介绍代替它的方法。

下面是创建一个自定义传感器事件监听接口:

	class MySensorEventListener implements SensorEventListener {

		@Override
		public void onSensorChanged(SensorEvent event) {
			// TODO Auto-generated method stub
			float a = event.values[0];
			azimuthAngle.setText(a + "");
			float b = event.values[1];
			pitchAngle.setText(b + "");
			float c = event.values[2];
			rollAngle.setText(c + "");
		}

		@Override
		public void onAccuracyChanged(Sensor sensor, int accuracy) {
			// TODO Auto-generated method stub

		}

	}

最后通过SensorManager为Sensor注册监听即可:

mSensorManager.registerListener(new MySensorEventListener(),
				mOrientation, SensorManager.SENSOR_DELAY_NORMAL);

当设备位置发生变化时触发监听,界面上的值改变,由于模拟器无法演示传感器效果,真机也没有root没法用屏幕投影啥的,所以就贴一张截图象征性看一下,这几个值无时无刻都在变化:

由于我在截图的时候手机是水平端平的,所以后两个值都接近于0,而第一个方位角就代表当前的方向了,好了,现在功能基本算实现了,那么现在就解决一下Sensor类的常量过期的问题。不难发现,在IDE中这行代码是这样的:

mOrientation = mSensorManager.getDefaultSensor(Sensor.TYPE_ORIENTATION);

既然过期了必定有新的东西去替代它,我们打开源代码可以看到这样的注释:

显而易见,官方推荐我们用SensorManager.getOrientation()这个方法去替代原来的TYPE_ORITNTATION。那我们继续在源码中看看这个方法:

    public static float[] getOrientation(float[] R, float values[]) {
        /*
         * 4x4 (length=16) case:
         *   /  R[ 0]   R[ 1]   R[ 2]   0           *   |  R[ 4]   R[ 5]   R[ 6]   0  |
         *   |  R[ 8]   R[ 9]   R[10]   0  |
         *   \      0       0       0   1  /
         *
         * 3x3 (length=9) case:
         *   /  R[ 0]   R[ 1]   R[ 2]           *   |  R[ 3]   R[ 4]   R[ 5]  |
         *   \  R[ 6]   R[ 7]   R[ 8]  /
         *
         */
        if (R.length == 9) {
            values[0] = (float)Math.atan2(R[1], R[4]);
            values[1] = (float)Math.asin(-R[7]);
            values[2] = (float)Math.atan2(-R[6], R[8]);
        } else {
            values[0] = (float)Math.atan2(R[1], R[5]);
            values[1] = (float)Math.asin(-R[9]);
            values[2] = (float)Math.atan2(-R[8], R[10]);
        }
        return values;
    }

再看一下这个方法的注释中的一句话:

第一行讲了这个方法的作用,计算设备的方向基于旋转矩阵,这个旋转矩阵我们当成一种计算方向的算法就OK了,不必深究,下面再看我标出来的这句话,很明显说明了我们通常不需要这个方法的返回值,这个方法会根据参数R[ ]的数据填充values[ ]而后者就是我们想要的。既然不需要返回值,那么就是参数的问题了,这两个参数:float[
] R 和 float[ ] values该怎么获取呢?继续看注释,首先是第一个参数R:

既然这个方法是基于旋转矩阵去计算方向,那么第一个参数R自然就表示一个旋转矩阵了,实际上它是用来保存磁场和加速度的数据的,根据注释我们可以发现让我们通过getRotationMatrix这个方法来填充这个参数R[ ],那我们就再去看看这个方法源码,依旧是SensorManager的一个静态方法:

    public static boolean getRotationMatrix(float[] R, float[] I,
            float[] gravity, float[] geomagnetic) {
        // TODO: move this to native code for efficiency
        float Ax = gravity[0];
        float Ay = gravity[1];
        float Az = gravity[2];
        final float Ex = geomagnetic[0];
        final float Ey = geomagnetic[1];
        final float Ez = geomagnetic[2];
        float Hx = Ey*Az - Ez*Ay;
        float Hy = Ez*Ax - Ex*Az;
        float Hz = Ex*Ay - Ey*Ax;
        final float normH = (float)Math.sqrt(Hx*Hx + Hy*Hy + Hz*Hz);
        if (normH < 0.1f) {
            // device is close to free fall (or in space?), or close to
            // magnetic north pole. Typical values are  > 100.
            return false;
        }
        final float invH = 1.0f / normH;
        Hx *= invH;
        Hy *= invH;
        Hz *= invH;
        final float invA = 1.0f / (float)Math.sqrt(Ax*Ax + Ay*Ay + Az*Az);
        Ax *= invA;
        Ay *= invA;
        Az *= invA;
        final float Mx = Ay*Hz - Az*Hy;
        final float My = Az*Hx - Ax*Hz;
        final float Mz = Ax*Hy - Ay*Hx;
        if (R != null) {
            if (R.length == 9) {
                R[0] = Hx;     R[1] = Hy;     R[2] = Hz;
                R[3] = Mx;     R[4] = My;     R[5] = Mz;
                R[6] = Ax;     R[7] = Ay;     R[8] = Az;
            } else if (R.length == 16) {
                R[0]  = Hx;    R[1]  = Hy;    R[2]  = Hz;   R[3]  = 0;
                R[4]  = Mx;    R[5]  = My;    R[6]  = Mz;   R[7]  = 0;
                R[8]  = Ax;    R[9]  = Ay;    R[10] = Az;   R[11] = 0;
                R[12] = 0;     R[13] = 0;     R[14] = 0;    R[15] = 1;
            }
        }
        if (I != null) {
            // compute the inclination matrix by projecting the geomagnetic
            // vector onto the Z (gravity) and X (horizontal component
            // of geomagnetic vector) axes.
            final float invE = 1.0f / (float)Math.sqrt(Ex*Ex + Ey*Ey + Ez*Ez);
            final float c = (Ex*Mx + Ey*My + Ez*Mz) * invE;
            final float s = (Ex*Ax + Ey*Ay + Ez*Az) * invE;
            if (I.length == 9) {
                I[0] = 1;     I[1] = 0;     I[2] = 0;
                I[3] = 0;     I[4] = c;     I[5] = s;
                I[6] = 0;     I[7] =-s;     I[8] = c;
            } else if (I.length == 16) {
                I[0] = 1;     I[1] = 0;     I[2] = 0;
                I[4] = 0;     I[5] = c;     I[6] = s;
                I[8] = 0;     I[9] =-s;     I[10]= c;
                I[3] = I[7] = I[11] = I[12] = I[13] = I[14] = 0;
                I[15] = 1;
            }
        }
        return true;
    }

依旧是4个参数,请观察30~41行之间的代码,不难发现这个旋转矩阵无非就是一个3*34*4的数组,再观察一下if语句块中的代码,不难发现给数组元素依次赋值,而这些值是从哪里来的呢?我们29行倒着看,直到第4行,不难发现其实最后的数据源是通过这个方法的后两个参数提供的,即:float[]
gravity, float[] geomagnetic,老规矩,看看这两个参数的注释:

到这里应该就清晰了吧,分别是从加速度传感器和地磁场传感器获取的值,那么很明显,应当在监听中的回调方法onSensorChanged中去获取数据,同时也验证了上面的判断方向需要两个传感器的说法,分别是:加速度传感器(Sensor.TYPE_ACCELEROMETER)和地磁场传感器(TYPE_MAGNETIC_FIELD)。

说完了getRotationMatrix方法的后两个参数,那么前两个参数RI又该如何定义呢?其实很简单,第一个参数R就是getOrientation()方法中需要填充的那个数组,大小是9。而第二个参数I是用于将磁场数据转换进实际的重力坐标系中的,一般默认设置为NULL即可。到这里关于方向传感器基本就已经介绍完毕,最后看一个完整的例子:

package com.example.sensordemo;

import android.app.Activity;
import android.content.Context;
import android.hardware.Sensor;
import android.hardware.SensorEvent;
import android.hardware.SensorEventListener;
import android.hardware.SensorManager;
import android.os.Bundle;
import android.util.Log;
import android.widget.TextView;

public class MainActivity extends Activity {

	private SensorManager mSensorManager;

	private Sensor accelerometer; // 加速度传感器
	private Sensor magnetic; // 地磁场传感器

	private TextView azimuthAngle;

	private float[] accelerometerValues = new float[3];
	private float[] magneticFieldValues = new float[3];

	private static final String TAG = "---MainActivity";

	@Override
	protected void onCreate(Bundle savedInstanceState) {
		super.onCreate(savedInstanceState);
		setContentView(R.layout.activity_main);
		// 实例化传感器管理者
		mSensorManager = (SensorManager) getSystemService(Context.SENSOR_SERVICE);
		// 初始化加速度传感器
		accelerometer = mSensorManager
				.getDefaultSensor(Sensor.TYPE_ACCELEROMETER);
		// 初始化地磁场传感器
		magnetic = mSensorManager.getDefaultSensor(Sensor.TYPE_MAGNETIC_FIELD);

		azimuthAngle = (TextView) findViewById(R.id.azimuth_angle_value);
		calculateOrientation();
	}

	@Override
	protected void onResume() {
		// TODO Auto-generated method stub
		// 注册监听
		mSensorManager.registerListener(new MySensorEventListener(),
				accelerometer, Sensor.TYPE_ACCELEROMETER);
		mSensorManager.registerListener(new MySensorEventListener(), magnetic,
				Sensor.TYPE_MAGNETIC_FIELD);
		super.onResume();
	}

	@Override
	protected void onPause() {
		// TODO Auto-generated method stub
		// 解除注册
		mSensorManager.unregisterListener(new MySensorEventListener());
		super.onPause();
	}

	// 计算方向
	private void calculateOrientation() {
		float[] values = new float[3];
		float[] R = new float[9];
		SensorManager.getRotationMatrix(R, null, accelerometerValues,
				magneticFieldValues);
		SensorManager.getOrientation(R, values);
		values[0] = (float) Math.toDegrees(values[0]);

		Log.i(TAG, values[0] + "");
		if (values[0] >= -5 && values[0] < 5) {
			azimuthAngle.setText("正北");
		} else if (values[0] >= 5 && values[0] < 85) {
			// Log.i(TAG, "东北");
			azimuthAngle.setText("东北");
		} else if (values[0] >= 85 && values[0] <= 95) {
			// Log.i(TAG, "正东");
			azimuthAngle.setText("正东");
		} else if (values[0] >= 95 && values[0] < 175) {
			// Log.i(TAG, "东南");
			azimuthAngle.setText("东南");
		} else if ((values[0] >= 175 && values[0] <= 180)
				|| (values[0]) >= -180 && values[0] < -175) {
			// Log.i(TAG, "正南");
			azimuthAngle.setText("正南");
		} else if (values[0] >= -175 && values[0] < -95) {
			// Log.i(TAG, "西南");
			azimuthAngle.setText("西南");
		} else if (values[0] >= -95 && values[0] < -85) {
			// Log.i(TAG, "正西");
			azimuthAngle.setText("正西");
		} else if (values[0] >= -85 && values[0] < -5) {
			// Log.i(TAG, "西北");
			azimuthAngle.setText("西北");
		}
	}

	class MySensorEventListener implements SensorEventListener {
		@Override
		public void onSensorChanged(SensorEvent event) {
			// TODO Auto-generated method stub
			if (event.sensor.getType() == Sensor.TYPE_ACCELEROMETER) {
				accelerometerValues = event.values;
			}
			if (event.sensor.getType() == Sensor.TYPE_MAGNETIC_FIELD) {
				magneticFieldValues = event.values;
			}
			calculateOrientation();
		}

		@Override
		public void onAccuracyChanged(Sensor sensor, int accuracy) {
			// TODO Auto-generated method stub

		}

	}

}

四、总结

第一次研究Android传感器感觉还是挺难的,继续努力吧,要学的东西还有很多,先去给Map项目集成指南针啦~

时间: 2024-11-05 15:25:56

Android Orientation Sensor(方向传感器)详解与应用的相关文章

Android开发之方向传感器的使用? (2011-10-13 20:56:05)转载▼

Android开发之方向传感器的使用 (2011-10-13 20:56:05) 转载▼ 标签: android 传感器 方向 指南针 杂谈 分类: 3GAndroid学习笔记 Android中的方向传感器在生活中是一个很好的应用,典型的例子是指南针的使用,我们先来简单介绍一下传感器中三个参数x,y,z的含义,以一幅图来说明.                                      图 1 补充说明:图中的坐标轴x,y,z和传感器中的X,Y,Z没有任何联系! 如上图所示,绿色部

Android组件系列----Activity组件详解

[声明] 欢迎转载,但请保留文章原始出处→_→ 生命壹号:http://www.cnblogs.com/smyhvae/ 文章来源:http://www.cnblogs.com/smyhvae/p/3924567.html 联系方式:[email protected] [正文] 注:四大组件指的是应用组件:Activity.Service.BroadcastReceiver.ContentProvider:之前的控件指的是UI组件. 博文目录: 一.Activity简介 二.Activity的状

Android自定义控件系列八:详解onMeasure()(二)--利用onMeasure测量来实现图片拉伸永不变形,解决屏幕适配问题

上一篇文章详细讲解了一下onMeasure/measure方法在Android自定义控件时的原理和作用,参看博文:Android自定义控件系列七:详解onMeasure()方法中如何测量一个控件尺寸(一),今天就来真正实践一下,让这两个方法大显神威来帮我们搞定图片的屏幕适配问题. 请尊重原创劳动成果,转载请注明出处:http://blog.csdn.net/cyp331203/article/details/45038329,非允许请勿用于商业或盈利用途,违者必究. 使用ImageView会遇到

Android四大组件之Activity详解 &middot; yclog

Activity生命周期: onCreate:在Acitivty第一次创建时调用,用于做初始化的工作onStart:onCreate调用后调用,此次界面对用户来说无法看见onResume:此次界面可见并显示到前台,且当前Acitvity位于当前栈顶,并且处于运行状态onPause:表示当前Activity正在停止,常做一些存储数据.停止动画等工作(不做耗时操作)onStop:表示当前Activity即将停止,一般做微量级的回收工作onDestory:表示当前Activity即将被销毁,可做一些回

Android高效率编码-第三方SDK详解系列(三)——JPush推送牵扯出来的江湖恩怨,XMPP实现推送,自定义客户端推送

Android高效率编码-第三方SDK详解系列(三)--JPush推送牵扯出来的江湖恩怨,XMPP实现推送,自定义客户端推送 很久没有更新第三方SDK这个系列了,所以更新一下这几天工作中使用到的推送,写这个系列真的很要命,你要去把他们的API文档大致的翻阅一遍,而且各种功能都实现一遍,解决各种bug各种坑,不得不说,极光推送真坑,大家使用还是要慎重,我们看一下极光推送的官网 https://www.jpush.cn/common/ 推送比较使用,很多软件有需要,所以在这个点拿出来多讲讲,我们本节

Android触摸屏事件派发机制详解与源码分析二(ViewGroup篇)

1 背景 还记得前一篇<Android触摸屏事件派发机制详解与源码分析一(View篇)>中关于透过源码继续进阶实例验证模块中存在的点击Button却触发了LinearLayout的事件疑惑吗?当时说了,在那一篇咱们只讨论View的触摸事件派发机制,这个疑惑留在了这一篇解释,也就是ViewGroup的事件派发机制. PS:阅读本篇前建议先查看前一篇<Android触摸屏事件派发机制详解与源码分析一(View篇)>,这一篇承接上一篇. 关于View与ViewGroup的区别在前一篇的A

Android Design Support Library使用详解

Android Design Support Library使用详解 Google在2015的IO大会上,给我们带来了更加详细的Material Design设计规范,同时,也给我们带来了全新的Android Design Support Library,在这个support库里面,Google给我们提供了更加规范的MD设计风格的控件.最重要的是,Android Design Support Library的兼容性更广,直接可以向下兼容到Android 2.2.这不得不说是一个良心之作. 使用S

[Android]Message,MessageQueue,Looper,Handler详解+实例

转http://www.eoeandroid.com/forum-viewthread-tid-49595-highlight-looper.html 一.几个关键概念 1.MessageQueue:是一种数据结构,见名知义,就是一个消息队列,存放消息的地方.每一个线程最多只可以拥有一个MessageQueue数据结构. 创建一个线程的时候,并不会自动创建其MessageQueue.通常使用一个Looper对象对该线程的MessageQueue进行管理.主线程创建时,会创建一 个默认的Loope

Android Animations 视图动画使用详解!!!

转自:http://www.open-open.com/lib/view/open1335777066015.html Android Animations 视图动画使用详解 一.动画类型 Android的animation由四种类型组成:alpha.scale.translate.rotate XML配置文件中 alpha 渐变透明度动画效果 scale 渐变尺寸伸缩动画效果 translate 画面转换位置移动动画效果 rotate 画面转移旋转动画效果 Java Code代码中 Alpha

Android 动画(anim)详解

Android 动画(anim)详解 就我所知,简单阐述一下: Android的animation由四种类型组成:alpha(透明度).scale(缩放).translate(位移).rotate(旋转) XML配置文件中 android:alpha 渐变透明度动画效果 android:scale 渐变缩放动画效果 android:translate 画面转换位置移动动画效果 android:rotate 画面转移旋转动画效果 Java Code代码中 AlphaAnimation 渐变透明度动