在chrome扩展程序中,我使用以下行来捕获屏幕
chrome.desktopCapture.chooseDesktopMedia
通过此屏幕(桌面)流工作正常,但是当我尝试使用
捕获音频时constraints = {
audio: {
mandatory: {
chromeMediaSource: 'system',
chromeMediaSourceId: audioSource,
}
},
video: {
mandatory: {
chromeMediaSource: 'desktop',
chromeMediaSourceId: event.data.sourceId,
maxWidth: window.screen.width,
maxHeight: window.screen.height,
maxFrameRate: 3
},
optional: [
{ googLeakyBucket: true },
{ googTemporalLayeredScreencast: true }
]
}
};
注意:已在音频块中测试event.data.sourceId
代替audioSource
。
音频无效,我可以在流媒体中看到(在控制台中)音频媒体曲目
相同的功能在this app
中有效答案 0 :(得分:2)
我通过在传递到'audio'
的{{1}}数组中添加dataSources
来解决此问题。
即。 chrome.desktopCapture.chooseDesktopMedia
答案 1 :(得分:-1)
您所指的扩展使用特定于平台的代码(ffmpeg)作为二进制文件,位于_platform_specific / x86-64 / video_encoder_main-x86-64.nexe而不是WebRTC / HTML5
[编辑]以上是在Linux 64位上