标签: audio websocket ffmpeg stream
我尝试使用ffmpeg从我的某个音频接口录制音频。
我想这样做是为了之后通过带有NodeJS的websocket发送这个音频。
我能用ffmpeg录制音频并将其保存到音频文件中,但我不想保存它,我只想要音频流以便从NodeJS执行ffmpeg命令并使用它带有websocket的音频流。
这是我当前的ffmpeg命令:
ffmpeg -f alsa -i hw:0,0 -af "pan=2c|c0=c0" output.wav
在没有输出文件的情况下有没有办法使用它?