我想通过socket.io将实时视频从Android摄像头传输到设备,但我无法发送音频
因为我正在使用surfaceview来创建camra视图
在相机预览中我得到视频字节
但是字节不包含任何音频,它只包含视频帧
帮助我如何将视频和音频同时合并到字节数组并发送到其他设备,同时录制,另一方面我如何解码
我正在使用的代码就像这样
mCamera.setPreviewCallbackWithBuffer(new Camera.PreviewCallback() {
private long timestamp = 0;
public synchronized void onPreviewFrame(byte[] data, Camera camera) {
int size = data.length;
Camera.Size previewSize = camera.getParameters().getPreviewSize();
YuvImage yuvimage = new YuvImage(data, ImageFormat.NV21, previewSize.width, previewSize.height, null);
ByteArrayOutputStream baos = new ByteArrayOutputStream();
yuvimage.compressToJpeg(new Rect(0, 0, previewSize.width, previewSize.height), 80, baos);
// yuvimage.compressToJpeg(new Rect(0, 0, 128, 96), 80, baos);
byte[] jdata = baos.toByteArray();
// int sizeOfData = jdata.length;
DatagramSocket s;
try {
s = new DatagramSocket();
s.setBroadcast(true);
s.setSoTimeout(TIMEOUT_MS);
InetAddress local = InetAddress.getByName(IPAdresse.getText().toString());
DatagramPacket p = new DatagramPacket(jdata, jdata.length, local, server_port);
s.send(p);
} catch (SocketException e) {
e.printStackTrace();
} catch (UnknownHostException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
// // Convert to Bitmap
Bitmap bmp = BitmapFactory.decodeByteArray(jdata, 0, jdata.length);
m_VideCaptureBitmap.setImageBitmap(bmp);
Log.v("CameraTest", "Frame size = " + data.length);
timestamp = System.currentTimeMillis();
try {
camera.addCallbackBuffer(data);
} catch (Exception e) {
Log.e("CameraTest", "addCallbackBuffer error");
return;
}
return;
}
});
try {
mCamera.startPreview();
} catch (Throwable e) {
mCamera.release();
mCamera = null;
e.printStackTrace();
return;
}
答案 0 :(得分:0)
您需要设计/使用某些协议来共享一个用于发送视频和音频数据的连接,或者您可以只使用另一个连接(例如,由服务器端口指定)仅用于音频,因此您将拥有一个用于音频的连接和另一个视频。
至于如何从Android麦克风中获取音频到字节数组,这里已有答案:android record mic to ByteArray without saving audio file