我在ubuntu上用android NDK(r8c)构建了ffmpeg 0.8.12(爱)。 然后我通过JNI在另一个Android应用程序中使用生成的库。
基本上我想要做的是将一个字节流从java传递给我的c jni函数,并使用ffmpeg将其解码为PCM音频缓冲区,然后将其传递回java以使用Android的AudioTrack播放。我可以成功地将缓冲区传递给jni(已经检查了值)并且ffmpeg似乎正确初始化,但是当它尝试解码第一帧时,它会在aacdec.c中的aac_decode_frame_int方法中抛出错误。“channel element 0.0不是分配”。 aac文件播放正常且有效。
这是我的jni代码进行解码
jint Java_com_example_testffmpeg_MainActivity_decodeAacBytes(JNIEnv * env,
jobject this, jbyteArray input, jint numBytes) {
//copy bytes from java
jbyte* bufferPtr = (*env)->GetByteArrayElements(env, input, NULL);
uint8_t inputBytes[numBytes + FF_INPUT_BUFFER_PADDING_SIZE];
memset(inputBytes, 0, numBytes + FF_INPUT_BUFFER_PADDING_SIZE);
memcpy(inputBytes, bufferPtr, numBytes);
(*env)->ReleaseByteArrayElements(env, input, bufferPtr, 0);
av_register_all();
AVCodec *codec = avcodec_find_decoder(CODEC_ID_AAC);
if (codec == NULL) {
LOGE("Cant find AAC codec\n");
return 0;
}
LOGI("AAC codec found\n");
AVCodecContext *avCtx = avcodec_alloc_context();
if (avCtx == NULL) {
LOGE("Could not allocate codec context\n");
return 0;
}
LOGI("codec context allocated\n");
if (avcodec_open2(avCtx, codec, NULL) < 0) {
LOGE("Could not open codec\n");
return 0;
}
LOGI("AAC codec opened");
//the input buffer
AVPacket avPacket;
av_init_packet(&avPacket);
LOGI("AVPacket initialised\n");
avPacket.size = numBytes; //input buffer size
avPacket.data = inputBytes; // the input buffer
int outSize;
int len;
uint8_t *outbuf = malloc(AVCODEC_MAX_AUDIO_FRAME_SIZE);
while (avPacket.size > 0) {
outSize = AVCODEC_MAX_AUDIO_FRAME_SIZE;
len = avcodec_decode_audio3(avCtx, (short *) outbuf, &outSize,
&avPacket);
if (len < 0) {
LOGE("Error while decoding\n");
return 0;
}
if (outSize > 0) {
LOGI("Decoded some stuff\n");
}
avPacket.size -= len;
avPacket.data += len;
}
LOGI("Freeing memory\n");
av_free_packet(&avPacket);
avcodec_close(avCtx);
av_free(avCtx);
return 0;
}
首次发生解码时,调用avcodec_decode_audio3时会出现问题。我已经介绍了ffmpeg代码,但找不到问题。任何帮助将不胜感激!
答案 0 :(得分:4)
在致电AVCodecContext
之前,您必须为avcodec_open2
设置一些其他设置。
我通常设置这些必需的设置(以'k'开头的变量表示预定义的constatns):
avCtx->strict_std_compliance = FF_COMPLIANCE_EXPERIMENTAL;
avCtx->codec_type = AVMEDIA_TYPE_AUDIO;
avCtx->channels = kChannelsCount; // for example, 2
avCtx->sample_fmt = kSampleFmt; // AV_SAMPLE_FMT_S16
avCtx->sample_rate = kSampleRate; // 44100
avCtx->channel_layout = kSampleLayout; // 3
const AVRational timeBase = {1, avCtx->sample_rate};
avCtx->time_base = timeBase;
<强> UPD 强>
对不起,我写了必须为音频编码设置的参数。
音频解码通常足以设置avCtx->channels
,ctx->sample_rate
或设置avCtx->extrdata
和avCtx->extradata_size
。
要查找错误原因,请尝试查看ffmpeg输出。如果在设备上很难做到,您可以重定向ffmpeg输出并通过自己的回调执行日志记录。例如:
// initialize:
::av_log_set_callback(&my_ffmpeg_log);
// callback
void my_ffmpeg_log(void *ptr, int level, const char *fmt, va_list vl)
{
/// Here you can set a more detailed level
if (level < AV_LOG_VERBOSE)
{
static char message[8192];
const char *module = NULL;
if (ptr)
{
AVClass *avc = *(AVClass**) ptr;
if (avc->item_name)
module = avc->item_name(ptr);
}
vsnprintf(message, sizeof message, fmt, vl);
// you can set own function here, for example LOGI, as you have in your example
std::cout << "ffmpeg message : " << module << " " << level << " " << message;
}
}