Android使用Face++ SDK进行人脸识别和年龄检测

Face++的官网:

http://www.faceplusplus.com.cn/

可以识别照片中的人脸位置,人物的年龄,性别,种族,是否微笑等信息。

首先创建应用,会分配给我们一个API Key和API Secret,然后下载“Java SDK(Android)”,导入Jar包和库文件,参考官方的Demo进行编写。



1.FaceDetectUtil帮助类:

package com.zms.carlauncher.util;

import java.io.ByteArrayOutputStream;

import org.json.JSONObject;

import com.facepp.error.FaceppParseException;
import com.facepp.http.HttpRequests;
import com.facepp.http.PostParameters;
import com.zms.carlauncher.Constant;

import android.graphics.Bitmap;
import android.graphics.Matrix;

public class FaceDetectUtil {

    public interface FaceCallBack {
        void success(JSONObject result);

        void error(FaceppParseException exception);
    }

    public static void detect(final Bitmap bitmapDetect,
            final FaceCallBack faceCallBack) {

        new Thread(new Runnable() {

            @Override
            public void run() {

                try {
                    // 请求
                    HttpRequests httpRequests = new HttpRequests(
                            Constant.FACE_API_KEY, Constant.FACE_API_SECRET,
                            true, true);
                    // Log.v(TAG, "image size : " + img.getWidth() + " " +
                    // img.getHeight());

                    ByteArrayOutputStream stream = new ByteArrayOutputStream();
                    float scale = Math.min(1, Math.min(
                            600f / bitmapDetect.getWidth(),
                            600f / bitmapDetect.getHeight()));
                    Matrix matrix = new Matrix();
                    matrix.postScale(scale, scale);

                    Bitmap imgSmall = Bitmap.createBitmap(bitmapDetect, 0, 0,
                            bitmapDetect.getWidth(), bitmapDetect.getHeight(),
                            matrix, false);
                    // Log.v(TAG, "imgSmall size : " + imgSmall.getWidth() + " "
                    // + imgSmall.getHeight());

                    imgSmall.compress(Bitmap.CompressFormat.JPEG, 100, stream);
                    byte[] array = stream.toByteArray();

                    PostParameters params = new PostParameters();
                    params.setImg(array);

                    JSONObject result = httpRequests.detectionDetect(params);
                    if(faceCallBack!=null){
                        faceCallBack.success(result);
                    }
                } catch (FaceppParseException e) {
                    e.printStackTrace();
                    if(faceCallBack!=null){
                        faceCallBack.error(e);
                    }
                }
            }
        }).start();
    }
}

2.FaceDetectActivity:

package com.zms.carlauncher.ui;

import java.io.ByteArrayOutputStream;

import org.json.JSONArray;
import org.json.JSONException;
import org.json.JSONObject;

import android.app.Activity;
import android.content.Intent;
import android.database.Cursor;
import android.graphics.Bitmap;
import android.graphics.BitmapFactory;
import android.graphics.BitmapFactory.Options;
import android.graphics.Canvas;
import android.graphics.Color;
import android.graphics.Matrix;
import android.graphics.Paint;
import android.os.Bundle;
import android.os.Handler;
import android.os.Message;
import android.provider.MediaStore.Images.ImageColumns;
import android.text.TextUtils;
import android.util.Log;
import android.view.View;
import android.view.Window;
import android.view.WindowManager;
import android.view.View.OnClickListener;
import android.widget.Button;
import android.widget.ImageView;
import android.widget.TextView;

import com.facepp.error.FaceppParseException;
import com.facepp.http.HttpRequests;
import com.facepp.http.PostParameters;
import com.zms.carlauncher.Constant;
import com.zms.carlauncher.R;
import com.zms.carlauncher.util.FaceDetectUtil;

public class FaceDetectActivity extends Activity {

    final private static String TAG = "FaceDetect";
    final private int PICTURE_CHOOSE = 1;

    private ImageView imagePhoto = null;
    private Bitmap bitmapPhoto = null;
    private Button buttonDetect = null;
    private TextView textState = null;
    private View frameWait;

    @Override
    public void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);
        requestWindowFeature(Window.FEATURE_NO_TITLE);
        getWindow().setFlags(WindowManager.LayoutParams.FLAG_FULLSCREEN,
                WindowManager.LayoutParams.FLAG_FULLSCREEN);
        setContentView(R.layout.activity_face_detect);

        Button btnGetImage = (Button) this.findViewById(R.id.btnGetImage);
        btnGetImage.setOnClickListener(new MyOnClickListener());

        frameWait = findViewById(R.id.frameWait);

        textState = (TextView) this.findViewById(R.id.textState);

        buttonDetect = (Button) this.findViewById(R.id.buttonDetect);
        buttonDetect.setVisibility(View.INVISIBLE);
        buttonDetect.setOnClickListener(new MyOnClickListener());

        imagePhoto = (ImageView) this.findViewById(R.id.imagePhoto);
        imagePhoto.setImageBitmap(bitmapPhoto);
    }

    class MyOnClickListener implements View.OnClickListener {
        @Override
        public void onClick(View v) {
            // TODO Auto-generated method stub
            switch (v.getId()) {
            case R.id.btnGetImage:
                // 读取图库图片
                Intent photoPickerIntent = new Intent(Intent.ACTION_PICK);
                photoPickerIntent.setType("image/*");
                startActivityForResult(photoPickerIntent, PICTURE_CHOOSE);
                break;
            case R.id.buttonDetect:
                frameWait.setVisibility(View.VISIBLE);
                FaceDetectUtil.detect(bitmapPhoto,
                        new FaceDetectUtil.FaceCallBack() {

                            @Override
                            public void success(JSONObject result) {
                                Message msg = Message.obtain();
                                msg.what = MSG_SUCCESS;
                                msg.obj = result;
                                faceHandler.sendMessage(msg);
                            }

                            @Override
                            public void error(FaceppParseException exception) {
                                Message msg = Message.obtain();
                                msg.what = MSG_ERROR;
                                msg.obj = exception.getErrorMessage();
                                faceHandler.sendMessage(msg);
                            }
                        });
                break;

            default:
                break;
            }
        }
    }

    private static final int MSG_SUCCESS = 0x111;
    private static final int MSG_ERROR = 0x112;
    private Handler faceHandler = new Handler() {
        public void handleMessage(android.os.Message msg) {
            switch (msg.what) {
            case MSG_SUCCESS:
                frameWait.setVisibility(View.GONE);

                JSONObject rst = (JSONObject) msg.obj;
                Log.e(TAG, rst.toString());
                prepareBitmap(rst);
                imagePhoto.setImageBitmap(bitmapPhoto);
                break;
            case MSG_ERROR:
                frameWait.setVisibility(View.GONE);
                String errorMsg = (String) msg.obj;
                if (TextUtils.isEmpty(errorMsg)) {
                    textState.setText("Error");
                } else {
                    textState.setText(errorMsg);
                }
                break;
            default:
                break;
            }
            super.handleMessage(msg);
        }
    };

    private Bitmap getGendorBitmap(int age, boolean isMale) {
        // frameWait.setVisibility(View.VISIBLE);
        TextView textAge = (TextView) frameWait.findViewById(R.id.textAge);
        textAge.setVisibility(View.VISIBLE);
        textAge.setText("" + age);
        if (isMale) {
            textAge.setTextColor(0xff1E88E5);
            textAge.setCompoundDrawablesWithIntrinsicBounds(getResources()
                    .getDrawable(R.drawable.face_detect_male), null, null, null);
        } else {
            textAge.setTextColor(0xffff00ff);
            textAge.setCompoundDrawablesWithIntrinsicBounds(getResources()
                    .getDrawable(R.drawable.face_detect_female), null, null,
                    null);
        }
        textAge.setDrawingCacheEnabled(true);
        Bitmap bitmap = Bitmap.createBitmap(textAge.getDrawingCache());
        textAge.destroyDrawingCache();
        return bitmap;
    }

    protected void prepareBitmap(JSONObject rst) {
        // 画笔
        Paint paint = new Paint();
        paint.setColor(Color.WHITE);
        // paint.setStrokeWidth(Math.max(img.getWidth(),
        // img.getHeight()) / 100f);
        paint.setStrokeWidth(3);

        // 画布
        Bitmap bitmap = Bitmap.createBitmap(bitmapPhoto.getWidth(),
                bitmapPhoto.getHeight(), bitmapPhoto.getConfig());
        Canvas canvas = new Canvas(bitmap);
        canvas.drawBitmap(bitmapPhoto, new Matrix(), null);
        try {
            // find out all faces
            JSONArray faceArray = rst.getJSONArray("face");
            final int faceCount = faceArray.length();
            textState.setText("Finished, " + faceCount + " faces.");
            for (int i = 0; i < faceCount; ++i) {
                float x, y, w, h;
                // 获取人脸中心
                JSONObject faceObject = faceArray.getJSONObject(i);
                JSONObject positionObject = faceObject
                        .getJSONObject("position");
                x = (float) positionObject.getJSONObject("center").getDouble(
                        "x");
                y = (float) faceObject.getJSONObject("position")
                        .getJSONObject("center").getDouble("y");

                // 获取人脸大小
                w = (float) positionObject.getDouble("width");
                h = (float) positionObject.getDouble("height");

                // 绘制人脸方框
                x = x / 100 * bitmapPhoto.getWidth();
                y = y / 100 * bitmapPhoto.getHeight();
                w = w / 100 * bitmapPhoto.getWidth();
                h = h / 100 * bitmapPhoto.getHeight();
                canvas.drawLine(x - w / 2, y - h / 2, x - w / 2, y + h / 2,
                        paint);
                canvas.drawLine(x - w / 2, y - h / 2, x + w / 2, y - h / 2,
                        paint);
                canvas.drawLine(x + w / 2, y - h / 2, x + w / 2, y + h / 2,
                        paint);
                canvas.drawLine(x - w / 2, y + h / 2, x + w / 2, y + h / 2,
                        paint);

                // 性别和年龄
                int age = faceObject.getJSONObject("attribute")
                        .getJSONObject("age").getInt("value");
                int range = faceObject.getJSONObject("attribute")
                        .getJSONObject("age").getInt("range");
                String gendorStr = faceObject.getJSONObject("attribute")
                        .getJSONObject("gender").getString("value"); // Male-Female
                Bitmap ageBitmap = getGendorBitmap(age + range,
                        "Male".equals(gendorStr));

                int ageWidth = ageBitmap.getWidth();
                int ageHeight = ageBitmap.getHeight();

                if (bitmap.getWidth() < imagePhoto.getWidth()
                        && bitmap.getHeight() < imagePhoto.getHeight()) {
                    float ratio = Math.max(bitmap.getWidth() * 1.0f
                            / imagePhoto.getWidth(), bitmap.getHeight() * 1.0f
                            / imagePhoto.getHeight());
                    ageBitmap = Bitmap.createScaledBitmap(ageBitmap,
                            (int) (ageWidth * ratio),
                            (int) (ageHeight * ratio), false);
                }

                canvas.drawBitmap(ageBitmap, x - ageBitmap.getWidth() / 2, y
                        - h / 2 - ageBitmap.getHeight(), null);
            }

            // save new image
            bitmapPhoto = bitmap;

        } catch (JSONException e) {
            e.printStackTrace();
            FaceDetectActivity.this.runOnUiThread(new Runnable() {
                public void run() {
                    textState.setText("Error.");
                }
            });
        }
    }

    @Override
    protected void onActivityResult(int requestCode, int resultCode,
            Intent intent) {
        super.onActivityResult(requestCode, resultCode, intent);

        // the image picker callback
        if (requestCode == PICTURE_CHOOSE) {
            if (intent != null) {
                // Log.d(TAG, "idButSelPic Photopicker: " +
                // intent.getDataString());
                Cursor cursor = getContentResolver().query(intent.getData(),
                        null, null, null, null);
                cursor.moveToFirst();
                int idx = cursor.getColumnIndex(ImageColumns.DATA);
                String fileSrc = cursor.getString(idx);
                // Log.d(TAG, "Picture:" + fileSrc);

                // just read size
                Options options = new Options();
                options.inJustDecodeBounds = true;
                bitmapPhoto = BitmapFactory.decodeFile(fileSrc, options);

                // scale size to read
                options.inSampleSize = Math.max(1, (int) Math.ceil(Math.max(
                        (double) options.outWidth / 1024f,
                        (double) options.outHeight / 1024f)));
                options.inJustDecodeBounds = false;
                bitmapPhoto = BitmapFactory.decodeFile(fileSrc, options);
                textState.setText("Clik Detect. ==>");

                imagePhoto.setImageBitmap(bitmapPhoto);
                buttonDetect.setVisibility(View.VISIBLE);
            } else {
                Log.d(TAG, "idButSelPic Photopicker canceled");
            }
        }
    }

    private class FaceppDetect {
        DetectCallback callback = null;

        public void setDetectCallback(DetectCallback detectCallback) {
            callback = detectCallback;
        }

        public void detect(final Bitmap image) {

            new Thread(new Runnable() {

                public void run() {
                    // zj: old position

                }
            }).start();
        }
    }

    interface DetectCallback {
        void detectResult(JSONObject rst);
    }
}
时间: 2024-08-01 16:54:41

Android使用Face++ SDK进行人脸识别和年龄检测的相关文章

Android 用虹软SDK做人脸识别

人脸识别第三方sdk比较多,但是大多都是收费的或者限制次数什么的,虹软的效果还不错,全免费也不需要联网 V1.2版本使用和快速集成:https://www.jianshu.com/p/8dee89ec4a24(Android集成虹软人脸.人证对比,活体检测) 虹软官网https://ai.arcsoft.com.cn/ 官网下载sdk,还要引入一个依赖,用来转换把bitmap以一定的格式转为byte[]的 api 'com.guo.android_extend:android-extend:1.

支持Android、iOS系统的人脸识别技术

随着深度学习方法的应用,支持Android.iOS系统的人脸识别技术的识别率已经得到质的提升,目前我司的支持Android.iOS系统的人脸识别技术率已经达到99%.支持Android.iOS系统的人脸识别技术与其他生物特征识别技术相比,在实际应用中具有天然独到的优势:通过摄像头直接获取,可以非接触的方式完成识别过程,方便快捷.目前我司的支持Android.iOS系统的人脸识别技术已应用在金融.教育.景区.旅运.社保等领域. 支持Android.iOS系统的人脸识别技术主要分为两部分: 第一部为

基于安卓高仿how-old.net应用实现人脸识别估算年龄与性别

前几段微软推出的大数据人脸识别年龄应用how-old.net在微博火了一把,它可以通过照片快速获得照片上人物的年龄,系统会对瞳孔.眼角.鼻子等27个“面部地标点"展开分析,进而得出你的“颜龄". 来看下关于这款应用的截图:   昨晚闲着没事,在网上查阅了点资料仿写了一款类似功能的APP,看下截图: 关于人脸识别技术本想去使用微软给开发人员提供的SDK,但由于天朝巨坑的网络,我连How-old.net官网都登不上,只能绕道去找找其他地方有没类似功能的SDK.后来想起之前在搞O2O的时候,

uniapp安卓ios百度人脸识别、活体检测、人脸采集APP原生插件

插件亮点 1 支持安卓平板(横竖屏均可),苹果的iPad.2 颜色图片均可更换. 特别提醒 此插件包含 android 端和 iOS 端,考虑到有些同学只做其中一个端的 app,特意分为 2 个插件,减小安装包体积.android 端请点击这里.iOS 端请点击这里. 1.前言 最近在使用 uniapp 开发项目,有刷脸实名认证的需求,最终使用百度人脸识别实现了需求.自己做了个 APP 原生插件,给大家介绍下用法.本插件主要功能是通过动作检测活体,采集人脸返回.其他功能需要自主实现,如刷脸登录,

人脸识别门禁检测的必要性

人脸识别系统需具备活体检测功能,以判断提交的人脸特征是否来自有生命的真实个体. 人脸活体检测的基本原理 人脸门禁的基本功能是人脸验证(Face Verification),而活体检测属于人脸防伪技术(Face Anti-Spoofing).人脸验证和人脸防伪,两种技术各有侧重. 人脸验证:人脸验证是判断两个人脸图是否为同一个人的算法,即通过人脸比对获得两个人脸特征的相似度,然后与预设的阈值比较,相似度大于阈值,则为同一人,反之则不同.这是近年来一个非常热门的研究方向,也产生了一大批算法模型和损失

虹软人脸识别3.0 - 图像数据结构介绍(Android)

从虹软开放了2.0版本SDK以来,由于具有免费.离线使用的特点,我们公司在人脸识别门禁应用中使用了虹软SDK,识别效果还不错,因此比较关注虹软SDK的官方动态.近期上线了ArcFace 3.0 SDK版本,确实做了比较大的更新.首先本篇介绍一下关于Android平台算法的更新内容,下一篇将针对Windows平台的算法更新展开介绍. 特征比对支持比对模型选择,有生活照比对模型和人证比对模型 识别率.防***效果显著提升 特征值更新,升级后人脸库需重新注册 Android平台新增64位的SDK 图像

【下载】推荐一款免费的人脸识别SDK

现已进入刷脸的时代,例如,人脸支付.人脸识别的门禁.人流监控等等.如何在Firefly开源板上快速搭建DEMO,并快速产品化?为了让更多产品可以用上人脸识别技术,Firefly推出了一款高性能人脸识别SDK.此SDK的人脸识别的算法,运行效率高,识别精确度高,性能优异,可以直接应用于商业产品. 下文主要讲述如何在Firefly RK3399平台部署并测试OpenFace SDK,Let's GO!      一.Firefly RK3399开源板安装Ubuntu 16.04系统固件      系

android上实现人脸识别的功能

====================问题描述==================== 如题,小弟想在android上实现一个基于人脸识别的功能,大致的实现框架是这样的: 1.通过前置照相机捕捉到人的脸部特征2.将人的脸部特征通过一些算法(网上查看诸如adaboost算法,PCA算法)取得特征值,然后ID化3.将人脸ID化的结果存入数据库4.重复1,2如果ID化的结果在人脸特征值数据库中某记录值的阈值范围内,则证明该值存在,通过验证,否则,提醒注册人脸特征库. 现在基本确定实现是这样的一个流程

Android 人脸识别源码APP后台接口设计

Android softboy人脸识别源码APP后台接口设计,这个是最近开发的一个人脸识别人脸系统框架,系统内容比较复杂.这里简化了主要的接口与数据,然后结合 softboy人脸识别app,就可以体验极速的人脸识别考勤体验. 这个离线app支持上传考勤记录,下载人脸数据进行离线人脸识别和活体检测,有限规避相片打卡视频欺骗等. 这个APP的下载体验地址https://pan.baidu.com/s/1i5oXoJ7 接下来看一下接口功能设计,还原提意见哦.慢慢的福利,正在做的朋友可以直接下载参考.