当用户对 iOS 上内置的 Photos.app中的照片进行一些更改(裁剪、红眼移除、 ...)时,这些更改不会应用到相应的 ALAssetRepresentation
返回的 fullResolutionImage
中。
但是,这些更改将应用于 ALAssetRepresentation
返回的 thumbnail
和 fullScreenImage
。
此外,关于应用的更改的信息可以通过键 @"AdjustmentXMP"
在 ALAssetRepresentation
的元数据字典中找到。
我想应用这些变化的 fullResolutionImage
自己保持一致性。我发现在 IOS6 + CIFilter
的 filterArrayFromSerializedXMP: inputImageExtent:error:
可以将这个 XMP 元数据转换成一个 CIFilter
的数组:
ALAssetRepresentation *rep;
NSString *xmpString = rep.metadata[@"AdjustmentXMP"];
NSData *xmpData = [xmpString dataUsingEncoding:NSUTF8StringEncoding];
CIImage *image = [CIImage imageWithCGImage:rep.fullResolutionImage];
NSError *error = nil;
NSArray *filterArray = [CIFilter filterArrayFromSerializedXMP:xmpData
inputImageExtent:image.extent
error:&error];
if (error) {
NSLog(@"Error during CIFilter creation: %@", [error localizedDescription]);
}
CIContext *context = [CIContext contextWithOptions:nil];
for (CIFilter *filter in filterArray) {
[filter setValue:image forKey:kCIInputImageKey];
image = [filter outputImage];
}
然而,这只适用于一些过滤器(裁剪,自动增强) ,但不适用于其他人,如红眼删除。在这些情况下,CIFilter
没有明显的效果。因此,我的问题是:
CIFilter
?(在某种程度上与 Photos.app 一致。键 kCIImageAutoAdjustRedEye
的过滤器是不够的。例如,它不需要眼睛位置的参数。)