У меня есть приложение для фото, которое использует AV Foundation. Я установил слой предварительного просмотра, используя AVCaptureVideoPreviewLayer, который занимает верхнюю половину экрана. Поэтому, когда пользователь пытается сделать свою фотографию, все, что они могут видеть, это то, что видит верхняя половина экрана.
Это отлично работает, но когда пользователь фактически снимает фотографию, и я пытаюсь установить фотографию в качестве содержимого слоя, изображение искажается. Я занимался исследованиями и понял, что мне нужно обрезать изображение.
Все, что я хочу сделать, - обрезать полное захваченное изображение, чтобы все, что осталось, это то, что пользователь мог первоначально увидеть в верхней половине экрана.
Я смог выполнить это, но я делаю это, вводя в ручные значения CGRect, и он по-прежнему не выглядит идеальным. Должен быть более простой способ сделать это.
Я буквально пережил каждую запись в переполнении стека за последние 2 дня об обрезке изображений, и ничего не сработало.
Должен быть способ программно обрезать захваченное изображение, чтобы окончательное изображение было именно тем, что первоначально было видно на уровне предварительного просмотра.
Вот моя реализация viewDidLoad:
- (void)viewDidLoad
{
[super viewDidLoad];
AVCaptureSession *session =[[AVCaptureSession alloc]init];
[session setSessionPreset:AVCaptureSessionPresetPhoto];
AVCaptureDevice *inputDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
NSError *error = [[NSError alloc]init];
AVCaptureDeviceInput *deviceInput = [AVCaptureDeviceInput deviceInputWithDevice:inputDevice error:&error];
if([session canAddInput:deviceInput])
[session addInput:deviceInput];
CALayer *rootLayer = [[self view]layer];
[rootLayer setMasksToBounds:YES];
_previewLayer = [[AVCaptureVideoPreviewLayer alloc]initWithSession:session];
[_previewLayer setFrame:CGRectMake(0, 0, rootLayer.bounds.size.width, rootLayer.bounds.size.height/2)];
[_previewLayer setVideoGravity:AVLayerVideoGravityResizeAspectFill];
[rootLayer insertSublayer:_previewLayer atIndex:0];
_stillImageOutput = [[AVCaptureStillImageOutput alloc] init];
[session addOutput:_stillImageOutput];
[session startRunning];
}
И вот код, который запускается, когда пользователь нажимает кнопку, чтобы сделать снимок:
-(IBAction)stillImageCapture {
AVCaptureConnection *videoConnection = nil;
for (AVCaptureConnection *connection in _stillImageOutput.connections){
for (AVCaptureInputPort *port in [connection inputPorts]){
if ([[port mediaType] isEqual:AVMediaTypeVideo]){
videoConnection = connection;
break;
}
}
if (videoConnection) {
break;
}
}
NSLog(@"about to request a capture from: %@", _stillImageOutput);
[_stillImageOutput captureStillImageAsynchronouslyFromConnection:videoConnection completionHandler:^(CMSampleBufferRef imageDataSampleBuffer, NSError *error) {
if(imageDataSampleBuffer) {
NSData *imageData = [AVCaptureStillImageOutput jpegStillImageNSDataRepresentation:imageDataSampleBuffer];
UIImage *image = [[UIImage alloc]initWithData:imageData];
CALayer *subLayer = [CALayer layer];
subLayer.frame = _previewLayer.frame;
image = [self rotate:image andOrientation:image.imageOrientation];
//Below is the crop that is sort of working for me, but as you can see I am manually entering in values and just guessing and it still does not look perfect.
CGRect cropRect = CGRectMake(0, 650, 3000, 2000);
CGImageRef imageRef = CGImageCreateWithImageInRect([image CGImage], cropRect);
subLayer.contents = (id)[UIImage imageWithCGImage:imageRef].CGImage;
subLayer.frame = _previewLayer.frame;
[_previewLayer addSublayer:subLayer];
}
}];
}