我正在编写录音机作为应用程序的一部分,它也有音频图形。为了录制和显示实时音频图表,这非常简单,只需每隔X ms调用MediaRecorder.GetMaxAmplitude()并基于代表音频图形的更新画布。
问题 - 我希望在打开其中一个录音时有相同的音频图表,所以现在我不能使用.GetMaxAmplitude()方法,因为我需要完全播放录音以生成图表,这将需要太多的时间,只是愚蠢。
如果录制输出是.wav,它会非常简单,有很多材料可以解决这个问题,但是MediaRecorder不支持.wav而且我真的不想在我的应用程序中使用包装器嵌入完整的ffmpeg只是为了这个小功能将3gpp解码为wav。
我有什么选择?
答案 0 :(得分:1)
使用MediaExtractor
和MediaCodec
,您可以将3gp
(或任何其他支持的mime类型)解码为一系列PCM-16bit(mime audio/raw
)缓冲区,并从您可以进行二次采样,以“可采样”采样率获得所需的振幅图。
这是在输入/输出缓冲区上使用同步处理的示例,因此在非UI线程上运行它。
MediaCodec
示例:var file = new Java.IO.File(Environment.GetExternalStoragePublicDirectory(Environment.DirectoryDownloads), "someaudiofile.mp3");
if (file.CanRead())
{
var mediaExtractor = new MediaExtractor();
mediaExtractor.SetDataSource(file.ToString());
mediaExtractor.SelectTrack(0); // which track? lets assume single/mono for this example
var mediaFormat = mediaExtractor.GetTrackFormat(0);
var mime = mediaFormat.GetString(MediaFormat.KeyMime);
var mediaCodec = MediaCodec.CreateDecoderByType(mime);
mediaCodec.Configure(mediaFormat, null, null, MediaCodecConfigFlags.None);
mediaCodec.Start();
var bufferInfo = new MediaCodec.BufferInfo();
var inputDone = false;
while (true)
{
if (!inputDone) // process input stream and queue it up for output processing
{
int inputBufferIndex = mediaCodec.DequeueInputBuffer(10000);
if (inputBufferIndex >= 0)
{
var inputBuffer = mediaCodec.GetInputBuffer(inputBufferIndex);
int chunkSize = mediaExtractor.ReadSampleData(inputBuffer, 0);
Log.Debug("SO", $"Input Buffer: {inputBufferIndex}");
if (chunkSize <= 0)
{
mediaCodec.QueueInputBuffer(inputBufferIndex, 0, 0, 0L, MediaCodecBufferFlags.EndOfStream);
inputDone = true;
}
else
{
mediaCodec.QueueInputBuffer(inputBufferIndex, 0, chunkSize, mediaExtractor.SampleTime, MediaCodecBufferFlags.None);
mediaExtractor.Advance();
}
}
}
int outputBufferIndex = mediaCodec.DequeueOutputBuffer(bufferInfo, 1000000);
if (outputBufferIndex >= 0)
{
Log.Debug("SO", $"Output Buffer: {outputBufferIndex}");
if (bufferInfo.Size != 0)
{
var outputBuffer = mediaCodec.GetOutputBuffer(outputBufferIndex); // PCM 16-bit output
var outpuFormat = mediaCodec.GetOutputFormat(outputBufferIndex);
outputBuffer.Position(0);
// !!! Sub-sample the buffer based upon your needed sampling rate for display
var pcm16bitBuffer = outputBuffer.AsShortBuffer();
while (pcm16bitBuffer.HasRemaining)
{
var x = pcm16bitBuffer.Get();
// store the prior values and avg./max/... them for later display based upon some subsampling rate
}
pcm16bitBuffer.Dispose();
mediaCodec.ReleaseOutputBuffer(outputBufferIndex, false);
if (bufferInfo.Flags.HasFlag(MediaCodecBufferFlags.EndOfStream))
break;
}
else
break;
}
else if (outputBufferIndex == -2)
{
Log.Debug("SO", "Output buffer is not available yet, feed more input");
}
}
mediaCodec.Stop();
mediaCodec.Release();
}
注意:还有异步方法,请参阅适用于Android API级别的MediaCodec
文档,了解适用于您应用的目标受众的内容。
回复:MediaCodec