当用户对 iOS 上内置的 Photos.app中的照片进行一些更改(裁剪、红眼移除、 ...)时,这些更改不会应用到相应的 ALAssetRepresentation返回的 fullResolutionImage中。
但是,这些更改将应用于 ALAssetRepresentation返回的 thumbnail和 fullScreenImage。
此外,关于应用的更改的信息可以通过键 @"AdjustmentXMP"在 ALAssetRepresentation的元数据字典中找到。
我想应用这些变化的 fullResolutionImage自己保持一致性。我发现在 IOS6 + CIFilter的 filterArrayFromSerializedXMP: inputImageExtent:error:可以将这个 XMP 元数据转换成一个 CIFilter的数组:
ALAssetRepresentation *rep;
NSString *xmpString = rep.metadata[@"AdjustmentXMP"];
NSData *xmpData = [xmpString dataUsingEncoding:NSUTF8StringEncoding];
CIImage *image = [CIImage imageWithCGImage:rep.fullResolutionImage];
NSError *error = nil;
NSArray *filterArray = [CIFilter filterArrayFromSerializedXMP:xmpData
inputImageExtent:image.extent
error:&error];
if (error) {
NSLog(@"Error during CIFilter creation: %@", [error localizedDescription]);
}
CIContext *context = [CIContext contextWithOptions:nil];
for (CIFilter *filter in filterArray) {
[filter setValue:image forKey:kCIInputImageKey];
image = [filter outputImage];
}
然而,这只适用于一些过滤器(裁剪,自动增强) ,但不适用于其他人,如红眼删除。在这些情况下,CIFilter没有明显的效果。因此,我的问题是:
CIFilter?(在某种程度上与 Photos.app 一致。键 kCIImageAutoAdjustRedEye的过滤器是不够的。例如,它不需要眼睛位置的参数。)