关于来自android camera live的socket.io上的视频和音频流

时间:2017-08-21 08:44:37

标签: java android sockets

我想通过socket.io将实时视频从Android摄像头传输到设备,但我无法发送音频

因为我正在使用surfaceview来创建camra视图

在相机预览中我得到视频字节

但是字节不包含任何音频,它只包含视频帧

帮助我如何将视频和音频同时合并到字节数组并发送到其他设备,同时录制,另一方面我如何解码

我正在使用的代码就像这样

 mCamera.setPreviewCallbackWithBuffer(new Camera.PreviewCallback() {

            private long timestamp = 0;

            public synchronized void onPreviewFrame(byte[] data, Camera camera) {

                int size = data.length;
                Camera.Size previewSize = camera.getParameters().getPreviewSize();
                YuvImage yuvimage = new YuvImage(data, ImageFormat.NV21, previewSize.width, previewSize.height, null);
                ByteArrayOutputStream baos = new ByteArrayOutputStream();
                yuvimage.compressToJpeg(new Rect(0, 0, previewSize.width, previewSize.height), 80, baos);
//                yuvimage.compressToJpeg(new Rect(0, 0, 128, 96), 80, baos);
                byte[] jdata = baos.toByteArray();
//                int sizeOfData = jdata.length;

                DatagramSocket s;
                try {
                    s = new DatagramSocket();
                    s.setBroadcast(true);
                    s.setSoTimeout(TIMEOUT_MS);
                    InetAddress local = InetAddress.getByName(IPAdresse.getText().toString());

                    DatagramPacket p = new DatagramPacket(jdata, jdata.length, local, server_port);
                    s.send(p);

                } catch (SocketException e) {
                    e.printStackTrace();
                } catch (UnknownHostException e) {
                    e.printStackTrace();
                } catch (IOException e) {
                    e.printStackTrace();
                }

//                // Convert to Bitmap
                Bitmap bmp = BitmapFactory.decodeByteArray(jdata, 0, jdata.length);
                m_VideCaptureBitmap.setImageBitmap(bmp);

                Log.v("CameraTest", "Frame size = " + data.length);
                timestamp = System.currentTimeMillis();
                try {
                    camera.addCallbackBuffer(data);
                } catch (Exception e) {
                    Log.e("CameraTest", "addCallbackBuffer error");
                    return;
                }
                return;
            }
        });

        try {
            mCamera.startPreview();
        } catch (Throwable e) {
            mCamera.release();
            mCamera = null;
            e.printStackTrace();
            return;
        }

1 个答案:

答案 0 :(得分:0)

您需要设计/使用某些协议来共享一个用于发送视频和音频数据的连接,或者您可以只使用另一个连接(例如,由服务器端口指定)仅用于音频,因此您将拥有一个用于音频的连接和另一个视频。

至于如何从Android麦克风中获取音频到字节数组,这里已有答案:android record mic to ByteArray without saving audio file