iphone6sp升级ios后怎么没有ios live photo 开发

苹果6splus升级ios9.1怎么找不到live photo_百度知道
苹果6splus升级ios9.1怎么找不到live photo
我有更好的答案
相比于iOS9来说,苹果在iOS9.1中除了修复Bug、增加系统稳定性之外,还加入了一些新功能,主要包括新增150多种表情符号(全机型)、修复多任务卡顿、Live Photo自适应(6S/6S Plus),至于其它部分则是对系统原先Bug的修补。另外,最受用户关注度的操作界面卡顿的问题也得到了修复,流畅度有明显的提升。本次iOS 9.1的更新体积在300MB左右,如果您是6/6plus还没有升IOS9, 那么请千万不要升级,因为无论它优化的多好,都是为6S/6Splus准备的,而6/6plus的主配系统是IOS8,每代手机都是使用自己的主配系统才是最合适的,没有之一!如果您已经升级了IOS9那么可以升级IOS9.1因为同系列系统一般情况下,差距不会很大,升级了也无可厚非我是做银行理财的,一个月收益5%,手机上就可以操作,玩手机的同时还可以享受赚钱的乐趣!别人玩手机是无聊打发时间,我玩手机是赚钱,这才能更好地体现手机的价值!
采纳率:82%
来自团队:
为您推荐:
其他类似问题
您可能关注的内容
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。为什么iPhone6不能通过升级IOS9来获得live Photo这个功能_百度知道
为什么iPhone6不能通过升级IOS9来获得live Photo这个功能
我有更好的答案
因为live photo照片的动态显示需要由3d touch激活 iPhone6 没够3d touch 所以iPhone6也用不了live photo
为您推荐:
其他类似问题
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。Iphone 6p ios10已经更新,但是无法拍摄live photo,在相机界面找不到live_百度知道
Iphone 6p ios10已经更新,但是无法拍摄live photo,在相机界面找不到live
Iphone 6p ios10已经更新,但是无法拍摄live photo,在相机界面找不到liveIphone 6p ios10已经更新,但是无法拍摄live photo,在相机界面找不到live的开关,求大神帮忙解决
我有更好的答案
iPhone6和6P都不支持Live Photo,需要6s/6sP及以上才可以。
采纳率:66%
ip6S以下机型不支持这个功能,与系统无关,SE好像支持
为您推荐:
其他类似问题
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。当前位置:
如何用iPhone6s/6s Plus分享Live Photos?
编辑:笨笨
来源:网络
Live Photos在iPhone6s、iPhone6s Plus上市后已经成为了一个热门词汇,但苹果对其的描述却非常有限,Live Photos实际上是一张照片外加一个短视频文件,和其它文件一样,用户可以分享Live Photos给朋友或家人,不过这当中还是有一些需要值得注意的地方。▼和其它视频文件不同,如果要保留Live Photos的动态效果的话,目前就只能通过以下的方法来进行分享。目前只有3种方法:· 通过信息分享;· 通过AirDrop分享;· 创建一个共享的照片相簿(iCloud)。通过上述的方法即可分享Live Photos,并保留其特色动态效果。当然,首先要确保你分享的图片是Live Photos,如果是Live Photos的图片的话,左上角会出现一个类似靶心的图标。需要再次提醒大家的是,尽管目前只有iPhone6s和iPhone6s Plus能够拍摄出Live Photos(越狱用户通过也能部分实现该效果),但能够运行iOS9的设备都是可以看到Live Photos的动态效果的。当然,在其他设备上就只能够以静态图片的形式呈现了。
你可能还对一下内容感兴趣
【上一篇】
【下一篇】
推荐阅读:
看完这篇文章有何感觉?
苹果应用推荐
PP助手准备为您下载应用
未越狱版:鳄鱼小顽皮爱洗澡
如果在10秒后下载任务还没有开始,请下载并安装:
下载步骤如下:2273人阅读
事情的经过是这样的:昨晚,一个朋友问我怎么越狱,我说越狱干嘛,他说他想用LivePhoto功能,但是他的手机是iPhone6,没有这个功能,说是越狱后装一个插件就可以。听完后,我说最好不要越狱,虽然可以用一些插件,但是手机里面信息的安全性非常差,说不定别人插件后台开个什么线程你也不知道,就好像你家里装了门,你还在门上开个洞,谁想来都可以。做为一名iOS程序猿,我觉得苹果如今开源性很强,很多功能都是可以实现的。于是,我很装逼的说,
我说你等着,明天上班我给你做一个。
今早一到办公室就开始查资料,说到LivePhoto就不得不提MOV,这两个都是苹果开发的格式,LivePhoto其实就是一个JPG加上一个MOV,只不过这个MOV里面写入了一些元数据,能让相册正确的识别。对应iOS中的框架是ImageIO/MobileCoreServices/Photos/AVFoundation 等。
下面附上资料,文中有很详细的解释,也有Demo地址,相信大家仔细看下就会明白的,毕竟,Talk is cheap, show me the code~
GIF/MOV/Live Photo
这次这篇文章来谈谈 GIF/MOV/Live Photo 两两之间的格式转换,这个需求来自于我最近在做的一个小项目,里面提供了类似的功能。
这三个格式有一个共同点,他们都可以由一个连续的图片序列得到。其中 MOV 和 Live Photo 都是苹果开发的格式,更进一步的讲 Live Photo 其实是一个 JPG 加上一个 MOV,只不过这个 MOV 里面写入了一些元数据,能让相册正确的识别。本文涉及到的核心框架有:ImageIO/MobileCoreServices/Photos/AVFoundation 等。
# GIF -& MOV
顾名思义,将 GIF 文件 decode 成 image array 和 duration array 的过程,通过 ImageIO Framework 去做,当然我这里还是会推荐 ibireme 的 ,他已经做了大部分的工作。我们在显示了
imageView 之余可以使用:
- (UIImage *)animatedImageFrameAtIndex:(NSUInteger)index;
- (NSTimeInterval)animatedImageDurationAtIndex:(NSUInteger)index;
这两个代理方法得到图片和时间的数组,接下来就是把它通过 AVFoundation 框架写到一个 MOV 文件里面去。有这么几步:创建 AVAssetWriter 和 AVAssetWriterInput,然后使用 WriterInput 的这个方法:
- (void)requestMediaDataWhenReadyOnQueue:(dispatch_queue_t)queue usingBlock:(void (^)(void))block;
在这个 queue 中遍历 decode 出来的 image 列表,将 image 转换成 CVPixelBufferRef,并将 durations 里面的时间间隔转换成 CMTime,然后写进去:
[self.writerInput requestMediaDataWhenReadyOnQueue:mediaInputQueue usingBlock:^{
CMTime presentationTime = kCMTimeZero;
while (YES) {
if (index &= frameCount) {
if ([self.writerInput isReadyForMoreMediaData]) {
@autoreleasepool {
UIImage *image = images[index];
CVPixelBufferRef buffer = [self newPixelBufferFromCGImage:image.CGImage];
if (buffer) {
double scale = averageScale;
if (index & durations.count) {
scale = 1.0 / [durations[index] doubleValue];
[self.bufferAdapter appendPixelBuffer:buffer withPresentationTime:presentationTime];
presentationTime = CMTimeAdd(presentationTime, CMTimeMake(1, scale));
CVBufferRelease(buffer);
[self.writerInput markAsFinished];
[self.assetWriter finishWritingWithCompletionHandler:^{
dispatch_async(dispatch_get_main_queue(), ^{
self.completionBlock(self.fileURL);
CVPixelBufferPoolRelease(self.bufferAdapter.pixelBufferPool);
这里有个大坑,如果 GIF 文件的长宽不是 16 的整数倍,生成出来的 MOV 文件会有奇奇怪怪的问题,所以在创建 outputSettings 的时候,我使用了下面的方法:
+ (NSDictionary *)videoSettingsWithCodec:(NSString *)codec width:(CGFloat)width height:(CGFloat)height {
int w = (int)((int)(width / 16.0) * 16);
int h = (int)(height * w / width);
NSDictionary *videoSettings = @{
AVVideoCodecKey: codec,
AVVideoWidthKey: @(w),
AVVideoHeightKey: @(h)
return videoSettings;
将分辨率转换到与原分辨率最接近的 16 的整数倍,最后从 fileURL 里面取出生成的结果即可。
# MOV -& GIF
我在上次的文章里面提到过,NSGIF 这个项目提供了一个视频转到 GIF 的例子,但是写的不怎么好,所以这里大致讲一下原理是什么。最核心的概念有两个:使用 AVAssetImageGenerator 取关键帧,以及使用 CGImageDestinationAddImage 等函数往
GIF 文件里面添加帧。这里有一点可以提一下,AVAssetImageGenerator 有两个参数:requestedTimeToleranceBefore 和 requestedTimeToleranceAfter,这两个参数如果都填 kCMTimeZero 的话取出来的帧会精确无比,但同时也会因此而降低性能。同时这个过程中,时间的转换是 GIF -& MOV 的反过程,也即 CMTime 转换成帧与帧的时间间隔:
NSMutableArray *timePoints = [NSMutableArray array];
for (int currentFrame = 0; currentFrame&frameCount; ++currentFrame) {
float seconds = (float)increment * currentFrame + offset;
CMTime time = CMTimeMakeWithSeconds(seconds, [timeInterval intValue]);
[timePoints addObject:[NSValue valueWithCMTime:time]];
通过 CGImageDestinationCreateWithURL 创建 GIF 文件,CGImageDestinationAddImage 添加关键帧,最后 CGImageDestinationSetProperties 和 CGImageDestinationFinalize 来结束文件写入。
# MOV -& Live Photo
这一步可以直接看
这个代码,基本上看完了也就懂了整个过程(但其实需要对
Live Photo 格式有所了解),这个代码是适用于 iOS 9.1 及以上的系统的,否则即便可以创建也没有 PHLivePhoto 这样的类来提供应用内显示的逻辑。简单说就是需要创建两个文件,一个 JPG 一个 MOV,但是两个文件都写进去了一些元数据,比如说创建 JPG 的时候 CGImageDestinationAddImageFromSource,这里面居然鬼使神差的要写入一个这样的元数据:
metadata[(id)kCGImagePropertyMakerAppleDictionary] = @{@"17": @"UUID"};
这个东西其实是来自于作者对 Live Photo 文件的 EXIF 信息观察。我尝试用自己写的 app 看了一下任何一个 Live Photo 的 EXIFF:
果不其然这里面有个 17 对应过去是一个能够用来找到 MOV 文件的 UUID 信息。
至于 MOV 文件,元数据就更多更复杂,有一些类似于 com.apple.quicktime.still-image-time 这样的 metadata 在里面,StackOverflow 上面能找到一些描述:
之后我再对 Live Photo 的 MOV 文件进行一个格式的分析。
创建好这两个文件之后,使用 Photos Framework 可以把他们写到相册,使用 PhotosUI Framework 的PHLivePhotoView 可以展示和播放 Live Photo,从而完成了整个过程:
[[PHPhotoLibrary sharedPhotoLibrary] performChanges:^{
PHAssetCreationRequest *request = [PHAssetCreationRequest creationRequestForAsset];
PHAssetResourceCreationOptions *options = [[PHAssetResourceCreationOptions alloc] init];
[request addResourceWithType:PHAssetResourceTypePairedVideo fileURL:[NSURL fileURLWithPath:outputMOVPath] options:options];
[request addResourceWithType:PHAssetResourceTypePhoto fileURL:[NSURL fileURLWithPath:outputJPEGPath] options:options];
} completionHandler:^(BOOL success, NSError * _Nullable error) {
if (finishBlock) {
finishBlock(success, error);
# Live Photo -& MOV
根据上面的内容我们已经知道,Live Photo 不用转换到 MOV,它本身就包含一个 MOV,所以我们只要把它取出来,可以有两个方法做这个事情:
合法的方案,使用 PHAssetResourceManager:
[[PHAssetResourceManager defaultManager] writeDataForAssetResource:resource toFile:[NSURL fileURLWithPath:@""] options:nil completionHandler:^(NSError * _Nullable error) {
这个方法会把 Asset 写到你指定的路径,然后通过路径取出来即可。另外一个方案不太合法,PHAsset 有个叫做 fileURLForVideoComplementFile 的方法,这是个私有的,他可以直接取到上述描述中的 MOV 文件的 URL,甚至还有另外一个叫做 fileURLForVideoPreviewFile能取到预览文件的
URL。至于怎么用的话,我还是不说了罢,反正都有合法的方法了。
# GIF &-& Live Photo
其实 Live Photo 到 GIF 已经不用讲了,通过上述方法拿到 MOV 再跑 MOV -& GIF 的流程即可。
理论上,GIF -& Live Photo 的过程也不太用讲,最笨的方法可以通过 GIF -& MOV -& Live Photo 来实现,这是一定可行的。但是这样有个缺陷就是性能,因为这个过程中相当于做了两次写入视频文件的操作。
我尝试过直接将 GIF decode 之后去写 Live Photo 的视频文件,遗憾的是没有成功,根本原因还是因为 GIF 转视频时候使用的 buffer 和 MOV 转 Live Photo 时候的 buffer 是不同的,是一个 pixel buffer,貌似没办法插入符合 Live Photo 的 metadata,这个我不是特别确定,尚存疑。目前我才用的方法就是做了两次转换,一个正常 5s 以内的视频在 iPhone
6s Plus 上面大概在 2s 以内,也算可以接受。
# 后续的点
后面有两点想做的,首先想完全搞清楚 Live Photo 的文件格式,搞清楚那些 metadata 如何得到的。另外就是想要优化一下 GIF 转换到 Live Photo 的性能,看能不能一步到位。
今天的文章很长,感谢看到这里的朋友,下次再见。
参考项目:

我要回帖

更多关于 6sp livephoto 的文章

 

随机推荐