博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
AVFoundation实现动态人脸识别
阅读量:7089 次
发布时间:2019-06-28

本文共 4458 字,大约阅读时间需要 14 分钟。

hot3.png

简介

AVFoundation 是一个可以用来使用和创建基于时间的视听媒体数据的框架。AVFoundation 的构建考虑到了目前的硬件环境和应用程序,其设计过程高度依赖多线程机制。充分利用了多核硬件的优势并大量使用block和GCD机制,将复杂的计算机进程放到了后台线程运行。会自动提供硬件加速操作,确保在大部分设备上应用程序能以最佳性能运行。

如果你有更好的建议或者对这篇文章有不满的地方, 请联系我, 我会进行修改,联系我时,请备注使用AVFoundatio实现动态人脸识别(技术交流群:656315826)最后:祝大家学习愉快~谢谢~

介绍一些人脸识别的方式

  1. CoreImage静态人脸识别, 可识别照片, 图像等
  2. Face++是新一代云端视觉服务平台,提供一整套世界领先的人脸检测,人脸识别,面部分析的视觉技术服务
  3. OpenCV由一系列 C 函数和少量 C++ 类构成, 实现了图像处理和计算机视觉方面的很多通用算法
  4. Vision 是 Apple 在 WWDC 2017 伴随iOS 11推出的基于CoreML的图像识别框架
  5. AVFoundation可以用来使用和创建基于时间的视听媒体的框架,今天我们使用的人脸识别方式也是使用AVFoundation框架

对关键类的简单介绍

  1. AVCaptureDevice 代表了输入设备,例如摄像头与麦克风。我们可以从这个类中获取手机硬件的照相机、声音传感器等。
  2. AVCaptureDeviceInput:设备输入数据管理对象,可以根据AVCaptureDevice创建对应的对象
  3. AVCaptureOutput代表输出数据,输出的可以是图片或者视频
  4. AVCaptureSession: 媒体(音、视频)捕捉会话
1 负责把捕捉的音频视频数据输出到输出设备中。2 一个AVCaptureSession可以有多个输入或输出。3是连接AVCaptureInput和AVCaptureOutput的桥梁,它协调input到output之间传输数据。4 它有startRunning和stopRunning两种方法来开启会话和结束会话。5 每个session称之为一个会话,也就是在应用运行过程中如果你需要改变会话的一些配置(例如:切换摄像头),此时需要先开启配置,配置完成之后再提交配置。
  1. AVCaptureVideoPreviewLayer: 图片预览层我们的照片以及视频是如何显示在手机上的呢?那就是通过把这个对象添加到UIView的layer上的

添加扫描设备

  • 获取设备(摄像头)
  • 创建输入设备
  • 创建扫描输出
  • 创建捕捉回话

输出设备

  • 这里使用AVCaptureMetadataOutput, 可以扫描人脸, 二维码, 条形码等信息
  • 必须设置代理, 否则获取不到扫描结果
  • 需要设置要输出什么样的数据: face(人脸), qr(二维码)等等
//创建原数据的输出对象let metadataOutput = AVCaptureMetadataOutput()//设置代理监听输出对象输出的数据,在主线程中刷新metadataOutput.setMetadataObjectsDelegate(self, queue: DispatchQueue.main)//告诉输出对象要输出什么样的数据,识别人脸, 最多可识别10张人脸metadataOutput.metadataObjectTypes = [.face]

切换摄像头

  • 获取当前摄像头方向
  • 创建新的输入input
  • 移除旧输入capture, 添加新的输入capture
  • 具体代码如下:
@IBAction func switchCameraAction(_ sender: Any) {    //执行转场动画    let anima = CATransition()    anima.type = "oglFlip"    anima.subtype = "fromLeft"    anima.duration = 0.5    view.layer.add(anima, forKey: nil)    //获取当前摄像头    guard let deviceIn = deviceInput else { return }    let position: AVCaptureDevice.Position = deviceIn.device.position == .back ? .front : .back    //创建新的input    let deviceSession = AVCaptureDevice.DiscoverySession(deviceTypes: [.builtInWideAngleCamera], mediaType: .video, position: position)    guard let newDevice = deviceSession.devices.filter({ $0.position == position }).first else { return }    guard let newVideoInput = try? AVCaptureDeviceInput(device: newDevice) else { return }    //移除旧输入,添加新输入    //设备加锁    session.beginConfiguration()    //移除旧设备    session.removeInput(deviceIn)    //添加新设备    session.addInput(newVideoInput)    //设备解锁    session.commitConfiguration()    //保存最新输入    deviceInput = newVideoInput

处理扫描结果

实现AVCaptureMetadataOutputObjectsDelegate该协议的协议方法(只有一个方法) AVMetadataFaceObject介绍

  1. faceID: 人脸的唯一标识
  • 扫描出来的每一个人, 有不同的faceID
  • 同一个人, 不同的状态下(摇头, 歪头, 抬头等), 都会有不同faceID
  1. hasRollAngle: 是否有倾斜角,侧倾角(左右歪头)(BOOL类型)
  2. rollAngle: 倾斜角,侧倾角的角度(CGFloat类型)
  3. hasYawAngle: 是否有偏转角(左右摇头)
  4. yawAngle: 偏转角角度

获取预览图层的人脸数组

  • 遍历扫描的人脸数组, 转换成在预览图层的人脸数组
  • 主要是人脸在图层的左边的转换
  • 返回转换后的新的数组
fileprivate func transformedFaces(faceObjs: [AVMetadataObject]) -> [AVMetadataObject] {    var faceArr = [AVMetadataObject]()    for face in faceObjs {        //将扫描的人脸对象转成在预览图层的人脸对象(主要是坐标的转换)        if let transFace = previewLayer.transformedMetadataObject(for: face){            faceArr.append(transFace)        }    }    return faceArr}

根据人脸位置添加红框

设置红框的frame

faceLayer?.frame = face.bounds

根据偏转角和倾斜角的角度获取CATransform3D

fileprivate func transformDegress(yawAngle: CGFloat) -> CATransform3D {        let yaw = degreesToRadians(degress: yawAngle)        //围绕Y轴旋转        let yawTran = CATransform3DMakeRotation(yaw, 0, -1, 0)        //红框旋转问题        return CATransform3DConcat(yawTran, CATransform3DIdentity)    }    //处理偏转角问题    fileprivate func transformDegress(rollAngle: CGFloat) -> CATransform3D {        let roll = degreesToRadians(degress: rollAngle)        //围绕Z轴旋转        return CATransform3DMakeRotation(roll, 0, 0, 1)    }    //角度转换    fileprivate func degreesToRadians(degress: CGFloat) -> CGFloat{        return degress * CGFloat(Double.pi) / 180    }

根据有无偏转角和倾斜角旋转红框

//设置偏转角(左右摇头)if face.hasYawAngle{    let tranform3D = transformDegress(yawAngle: face.yawAngle)    //矩阵处理    faceLayer?.transform = CATransform3DConcat(faceLayer!.transform, tranform3D)}//设置倾斜角,侧倾角(左右歪头)if face.hasRollAngle{    let tranform3D = transformDegress(rollAngle: face.rollAngle)    //矩阵处理    faceLayer?.transform = CATransform3DConcat(faceLayer!.transform, tranform3D)}

至此, 动态的人脸识别就完成了, 会在人脸位置增加红框显示, 并且红框会根据人脸的位置动态的, 实时的调整

下面就快拿起你的相机测试吧

项目代码获取

想要获取案例源码可以加我技术交流群:656315826 最近我在研究这一块,如果你有更好的建议或者对这篇文章有不满的地方, 请联系我, 我会进行修改,共同学习进步。

祝大家学习愉快

人脸识别

转载于:https://my.oschina.net/u/3874462/blog/1822873

你可能感兴趣的文章
Android 自动更新APP时确定安装后没有显示安装完成页面
查看>>
APUE第八章学习札记之进程用户ID与文件用户权限相关知识总结
查看>>
c++中::的用法和命名空间
查看>>
My First Angular 2 App
查看>>
使用Percona XtraBackup备份 MySQL InnoDB 数据库
查看>>
微信开发实践(一):使用JS-SDK实现自定义分享 Ⅰ
查看>>
『毒舌吐槽社区』-很多敏感内容,你懂的!
查看>>
两百条微信小程序开发跳坑指南(不定时更新)
查看>>
spring aop 对jsonp进行封装
查看>>
一张图读懂JVM
查看>>
森之亡女 2
查看>>
Spark(Framework)
查看>>
用webgl打造自己的3D迷宫游戏
查看>>
微信小程序学习路线【经验之谈】
查看>>
android定位和地图开发实例
查看>>
Angular1.0和vue的区别
查看>>
通过ssh传输文件
查看>>
mac php solr扩展安装
查看>>
win32gui中操作任务栏托盘区的函数
查看>>
Struts2 漏洞分析及如何提前预防
查看>>