写这篇文章的主要原因不是展示如何使用 AVFoundation 来进行二维码扫描,更主要的是限制扫描二维码的范围。(因为默认的是全屏扫描)
项目遇到扫描二维码的功能需求,这里我放弃了使用三方库,而采用了苹果原生的扫描。
原生的好处就是扫描特别快效率特别高,但是遇到一个问题就是不知道怎么去限制扫描范围。
还是先简单说一下怎么使用来进行二维码扫描吧。
首先是要用到的几个类
@property (strong,nonatomic)AVCaptureDevice * device;
@property (strong,nonatomic)AVCaptureDeviceInput * input;
@property (strong,nonatomic)AVCaptureMetadataOutput * output;
@property (strong,nonatomic)AVCaptureSession * session;
@property (strong,nonatomic)AVCaptureVideoPreviewLayer
* preview;
他们之间的关系可以看下面的篇文章
下面分别创建他们
// Device
_device = [AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];
// Input
_input = [AVCaptureDeviceInputdeviceInputWithDevice:self.deviceerror:nil];
// Output
_output = [[AVCaptureMetadataOutputalloc]init];
[_outputsetMetadataObjectsDelegate:selfqueue:dispatch_get_main_queue()];
// Session
_session = [[AVCaptureSessionalloc]init];
[_sessionsetSessionPreset:AVCaptureSessionPresetHigh];
if ([_sessioncanAddInput:self.input])
{
[_sessionaddInput:self.input];
}
if ([_sessioncanAddOutput:self.output])
{
[_sessionaddOutput:self.output];
}
//
条码类型 AVMetadataObjectTypeQRCode
_output.metadataObjectTypes =@[AVMetadataObjectTypeQRCode];
// Preview
_preview =[AVCaptureVideoPreviewLayerlayerWithSession:_session];
_preview.videoGravity =AVLayerVideoGravityResizeAspectFill;
_preview.frame =self.view.layer.bounds;
[self.view.layerinsertSublayer:_previewatIndex:0];
// Start
[_sessionstartRunning];
然后实现 AVCaptureMetadataOutputObjectsDelegate
#pragma mark AVCaptureMetadataOutputObjectsDelegate
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputMetadataObjects:(NSArray
*)metadataObjects fromConnection:(AVCaptureConnection *)connection
{
NSString *stringValue;
if ([metadataObjectscount] >0)
{
//停止扫描
[_sessionstopRunning];
AVMetadataMachineReadableCodeObject * metadataObject = [metadataObjectsobjectAtIndex:0];
stringValue = metadataObject.stringValue;
}
}
到此为止就可以成功扫描二维码了,但是有个尴尬的问题,这时的扫描是全屏扫描的。即
一般情况下项目中的扫描页面是这样的,但是当你扫描的时候会发现在二维码还没进入中心的那个小方块时,就已经成功扫描完成了,这对于体验来说很不好。但是由于那时候赶项目就没有时间优化。终于今天抽出来时间了。
我从早上上班开始一直搞到下午,把所有想到的方法都试了一遍,但是都不行(都是泪),最后将要放弃的时候发现了一个比较可疑的点。
@property(nonatomic)CGRect rectOfInterest
NS_AVAILABLE_IOS(7_0);
这是的 AVCaptureMetadataOutput 一个属性,它的解释是
@discussion
The value of this property is a CGRect that determines the receiver‘s rectangle of interest for each frame of video.
The rectangle‘s origin is top left and is relative to the coordinate space of the device providing the metadata. Specifying
a rectOfInterest may improve detection performance for certain types of metadata. The default value of this property is the
value CGRectMake(0, 0, 1, 1). Metadata objects whose bounds do not intersect with the rectOfInterest will not be returned.
大概意思就是设置每一帧画面感兴趣的区域(字面意思),那岂不是就是设置扫描范围喽,大喜
于是赶紧把rectOfInterest设置成中间框的frame,
[_outputsetRectOfInterest:CGRectMake((ScreenWidth-220)/2,60+64,220,
220)];
//中间区域的宽和高都是220 ScreenWidth为设备屏幕宽度
但是却发现怎么扫描都不能成功了。于是又看了看上面的一段话。
第二句:区域的原点在左上方(后面才知道坑苦我了!),然后区域是相对于设备的大小的,默认值是CGRectMake(0, 0, 1, 1),这时候我才知道是有比例关系的,最大值才是1,也就是说只要除以相应的设备宽和高的大小不就行了?然后就改成
[_outputsetRectOfInterest:CGRectMake(((ScreenWidth-220)/2)/ScreenWidth,(60+64)/ScreenHigh,220/ScreenWidth,220/ScreenHigh)];
按说这样应该就完美了,但是才知道我还是高兴得太早了,一扫描才发现完全不是那么回事,差很多。
于是我就一点一点调,但是最后也没调成功,最后一狠心有设置了一个很确定的值。
[_output setRectOfInterest:CGRectMake(0.5,0.5,0.5, 0.5)];
这次应该很确定是在右下方的四分之一区域吧,嘿嘿。
但是事实又一次打击了我,扫描后发现是左下的四分之一区域,也就是说rectOfInterest的原点是右上角!!!
回头又一想,即使右上角是原点那也应该没有影响啊,但是为什么不行呢,不会是原点的 X 和 Y 互换了吧?算了不管怎么着,试一试吧。
[_outputsetRectOfInterest:CGRectMake((60+64)/ScreenHigh,((ScreenWidth-220)/2)/ScreenWidth,220/ScreenWidth,220/ScreenHigh)];
又扫描了一下发现成功了!果然原点正确了,我只想说TMD!
但是宽和高又怎么对不上了?不会也互换了吧!赶紧试试
[_outputsetRectOfInterest:CGRectMake((124)/ScreenHigh,((ScreenWidth-220)/2)/ScreenWidth,220/ScreenHigh,220/ScreenWidth)];
怀着忐忑的心情又试了试,完美扫描!OMG我想死的心都有了。
于是用系统原生的扫描二维码就完美了!
今天就跟大家分享这一个点,转载请注明出处,谢谢 — — LC