我需要一些关于如何在不使用 UIImagePicker 的情况下捕获视频的指导。视频需要在按钮单击时启动和停止,然后将此数据保存到 NSDocumentDirectory 。我是swift的新手,所以任何帮助都会有用。
我需要帮助的代码部分是启动和停止视频会话并将其转换为数据。我创建了一个运行 captureStillImageAsynchronouslyFromConnection 的版本的照片,并将此数据保存到 NSDocumentDirectory 。我已经设置了一个视频捕获会话,并准备好保存数据但不知道如何从会话中获取数据。
var previewLayer : AVCaptureVideoPreviewLayer?
var captureDevice : AVCaptureDevice?
var videoCaptureOutput = AVCaptureVideoDataOutput()
let captureSession = AVCaptureSession()
override func viewDidLoad() {
super.viewDidLoad()
captureSession.sessionPreset = AVCaptureSessionPreset640x480
let devices = AVCaptureDevice.devices()
for device in devices {
if (device.hasMediaType(AVMediaTypeVideo)) {
if device.position == AVCaptureDevicePosition.Back {
captureDevice = device as? AVCaptureDevice
if captureDevice != nil {
beginSession()
}
}
}
}
}
func beginSession() {
var err : NSError? = nil
captureSession.addInput(AVCaptureDeviceInput(device: captureDevice, error: &err))
if err != nil {
println("Error: \(err?.localizedDescription)")
}
videoCaptureOutput.videoSettings = [kCVPixelBufferPixelFormatTypeKey:kCVPixelFormatType_32BGRA]
videoCaptureOutput.alwaysDiscardsLateVideoFrames = true
captureSession.addOutput(videoCaptureOutput)
previewLayer = AVCaptureVideoPreviewLayer(session: captureSession)
self.view.layer.addSublayer(previewLayer)
previewLayer?.frame = CGRectMake(0, 0, screenWidth, screenHeight)
captureSession.startRunning()
var startVideoBtn = UIButton(frame: CGRectMake(0, screenHeight/2, screenWidth, screenHeight/2))
startVideoBtn.addTarget(self, action: "startVideo", forControlEvents: UIControlEvents.TouchUpInside)
self.view.addSubview(startVideoBtn)
var stopVideoBtn = UIButton(frame: CGRectMake(0, 0, screenWidth, screenHeight/2))
stopVideoBtn.addTarget(self, action: "stopVideo", forControlEvents: UIControlEvents.TouchUpInside)
self.view.addSubview(stopVideoBtn)
}
如果需要,我可以提供更多代码或解释。
答案 0 :(得分:14)
要获得最佳效果,请阅读Still and Video Media Capture中的AV Foundation Programming Guide部分。
要处理来自AVCaptureVideoDataOutput
的帧,您需要一个采用AVCaptureVideoDataOutputSampleBufferDelegate
协议的委托。每当写入新帧时,将调用委托的captureOutput
方法。设置输出的委托时,还必须提供应在其上调用回调的队列。它看起来像这样:
let cameraQueue = dispatch_queue_create("cameraQueue", DISPATCH_QUEUE_SERIAL)
videoCaptureOutput.setSampleBufferDelegate(myDelegate, queue: cameraQueue)
captureSession.addOutput(videoCaptureOutput)
注意: 如果您只想将电影保存到文件中,则可能更喜欢AVCaptureMovieFileOutput
类而不是AVCaptureVideoDataOutput
。在这种情况下,您将不需要队列。但是你仍然需要一个委托,这次采用AVCaptureFileOutputRecordingDelegate
协议。 (相关方法仍称为captureOutput
。)
以下是与上述链接相关的AVCaptureMovieFileOutput
部分的摘录:
开始录制
您开始使用
startRecordingToOutputFileURL:recordingDelegate:
录制QuickTime影片。你需要提供一个 基于文件的URL和委托。 URL不得标识现有的URL 文件,因为电影文件输出不会覆盖现有的 资源。您还必须具有写入指定的权限 地点。代表必须符合AVCaptureFileOutputRecordingDelegate
协议,并且必须实现captureOutput:didFinishRecordingToOutputFileAtURL:fromConnections:error:
方法AVCaptureMovieFileOutput *aMovieFileOutput = <#Get a movie file output#>; NSURL *fileURL = <#A file URL that identifies the output location#>; [aMovieFileOutput startRecordingToOutputFileURL:fileURL recordingDelegate:<#The delegate#>];
在执行中
captureOutput:didFinishRecordingToOutputFileAtURL:fromConnections:error:
, 代表可能会将结果影片写入相机胶卷相册。 它还应该检查可能发生的任何错误。