我一直把头发拉过来。
我在这里找到了一些东西,但实际上似乎没有任何效果。文档非常有限。
我想弄清楚的是如何从时间码轨道获取Objective-C中的Quicktime电影的开始时间代码,并从中获取人类可读的输出。
我发现了这个: SMPTE TimeCode from Quick Time
它在32位模式下完美运行。但由于Quicktime API,它无法在64位模式下运行。我需要将它合并到的软件已经并且必须继续运行64位。
我在这里失去理智。那里的任何人都知道这些API吗?
最终,这里的目标是找出Quicktime的开始时间码,因为它需要在FCP-X XML文件中设置OFFSET。如果没有它,视频文件就会在没有音频的情况下被带入(或者,真的,它只是滑了很多)。
答案 0 :(得分:1)
使用 AVFoundation 框架代替 QuickTime 。播放器初始化在文档中得到了很好的解释:https://developer.apple.com/library/mac/#documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/02_Playback.html#//apple_ref/doc/uid/TP40010188-CH3-SW2
将 AVAsset 加载到内存后,您可以通过读取时间码轨道的内容(如果存在)来提取第一个样本帧编号( timeStampFrame ):
long timeStampFrame = 0;
for (AVAssetTrack * track in [_asset tracks]) {
if ([[track mediaType] isEqualToString:AVMediaTypeTimecode]) {
AVAssetReader *assetReader = [AVAssetReader assetReaderWithAsset:_asset error:nil];
AVAssetReaderTrackOutput *assetReaderOutput = [AVAssetReaderTrackOutput assetReaderTrackOutputWithTrack:track outputSettings:nil];
if ([assetReader canAddOutput:assetReaderOutput]) {
[assetReader addOutput:assetReaderOutput];
if ([assetReader startReading] == YES) {
int count = 0;
while ( [assetReader status]==AVAssetReaderStatusReading ) {
CMSampleBufferRef sampleBuffer = [assetReaderOutput copyNextSampleBuffer];
if (sampleBuffer == NULL) {
if ([assetReader status] == AVAssetReaderStatusFailed)
break;
else
continue;
}
count++;
CMBlockBufferRef blockBuffer = CMSampleBufferGetDataBuffer(sampleBuffer);
size_t length = CMBlockBufferGetDataLength(blockBuffer);
if (length>0) {
unsigned char *buffer = malloc(length);
memset(buffer, 0, length);
CMBlockBufferCopyDataBytes(blockBuffer, 0, length, buffer);
for (int i=0; i<length; i++) {
timeStampFrame = (timeStampFrame << 8) + buffer[i];
}
free(buffer);
}
CFRelease(sampleBuffer);
}
if (count == 0) {
NSLog(@"No sample in the timecode track: %@", [assetReader error]);
}
NSLog(@"Processed %d sample", count);
}
}
if ([assetReader status] != AVAssetReaderStatusCompleted)
[assetReader cancelReading];
}
}
这比 QuickTime API更棘手,上面的代码必须有一些改进,但它对我有用。