我发现了有关FFMPEG的多个问题和教程,但我似乎并不了解其中的大部分内容。我读过的所有指南都错过了很大的空白而且不倾向于解释事情。
我有一个现有的Android应用程序,它使用名为AAC Decoder的第三方库来传输音频。由于各种原因,我需要切换到使用FFMPEG,但无法弄清楚如何。我已设法按照指南构建FFMPEG,但后来我不明白我应该对输出做什么。
我的应用只需要从远程网址流式传输音频。流可以采用多种格式。
如果有人可以将我链接到一些全面,详细的指南,或者向我提供说明,那就太棒了。
感谢。
答案 0 :(得分:7)
我创建了构建FFmpeg的脚本,请参阅我的答案:
您编译的FFmpeg会在项目的根目录中创建一个“jni”文件夹。在jni文件夹中创建包含以下内容的Android.mk:
include $(call all-subdir-makefiles)
然后使用以下内容创建Application.mk:
APP_ABI := armeabi armeabi-v7a x86
接下来,在jni文件夹中创建以下文件夹结构:
的ffmpeg / ffmpeg的/
在第一个ffmpeg文件夹中创建另一个Android.mk:
LOCAL_PATH := $(call my-dir)
include $(CLEAR_VARS)
LOCAL_MODULE := libavcodec
LOCAL_SRC_FILES := ffmpeg/$(TARGET_ARCH_ABI)/lib/$(LOCAL_MODULE).so
LOCAL_EXPORT_C_INCLUDES := $(LOCAL_PATH)/ffmpeg/$(TARGET_ARCH_ABI)/include
include $(PREBUILT_SHARED_LIBRARY)
include $(CLEAR_VARS)
LOCAL_MODULE := libavformat
LOCAL_SRC_FILES := ffmpeg/$(TARGET_ARCH_ABI)/lib/$(LOCAL_MODULE).so
LOCAL_EXPORT_C_INCLUDES := $(LOCAL_PATH)/ffmpeg/$(TARGET_ARCH_ABI)/include
include $(PREBUILT_SHARED_LIBRARY)
include $(CLEAR_VARS)
LOCAL_MODULE := libavutil
LOCAL_SRC_FILES := ffmpeg/$(TARGET_ARCH_ABI)/lib/$(LOCAL_MODULE).so
LOCAL_EXPORT_C_INCLUDES := $(LOCAL_PATH)/ffmpeg/$(TARGET_ARCH_ABI)/include
include $(PREBUILT_SHARED_LIBRARY)
LOCAL_PATH:= $(call my-dir)
最后,将构建文件夹的内容(从构建脚本)移动到/ jni / ffmpeg / ffmpeg /
从项目根运行:
ndk-build clean
然后运行:
ndk-build
如果您感到懒惰,可以直接从我的项目中下载jni文件夹并删除“元数据”和“播放器”文件夹:
http://svn.code.sf.net/p/servestream/code/trunk/jni/
如果您有任何其他问题,请与我们联系。
答案 1 :(得分:2)
你需要跨越编译FFMPEG以获得Android支持。在项目中创建jni
文件夹,并将FFMPEG
文件夹放在jni中。设置android NDK
。
这是我用来交叉编译ffmpeg for android的Config.sh的副本。
Config.sh
#!/bin/sh
PLATFORM=/home/nishant/Desktop/android/android-ndk-r5b/platforms/android-8/arch-arm
PREBUILT=/home/nishant/Desktop/android/android-ndk-r5b/toolchains/arm-eabi-4.4.0/prebuilt/linux-x86
LIBX264=/home/nishant/Desktop/android/workspace/DemoProject/jni/x264
LIB=/home/nishant/Desktop/android/workspace/DemoProject/jni
EXTRA_LIBS="-lgcc -lm -ldl -lz -lc"
#EXTRA_EXE_LDFLAGS="$PLATFORM/usr/lib/crtbegin_dynamic.o $PLATFORM/usr/lib/crtend_android.o"
./configure --target-os=linux \
--arch=arm \
--enable-version3 \
--enable-gpl \
--enable-nonfree \
--disable-stripping \
--disable-ffmpeg \
--disable-ffplay \
--disable-ffserver \
--disable-ffprobe \
--enable-encoders \
--enable-libfaac \
--disable-muxers \
--disable-devices \
--disable-protocols \
--enable-protocol=file \
--enable-avfilter \
--disable-network \
--disable-mpegaudio-hp \
--disable-avdevice \
--enable-cross-compile \
--cc=$PREBUILT/bin/arm-eabi-gcc \
--nm=$PREBUILT/bin/arm-eabi-nm \
--prefix=/home/nishant/Desktop/android/workspace/DemoProject/jni \
--cross-prefix=$PREBUILT/bin/arm-eabi- \
--enable-postproc \
--extra-libs="$EXTRA_LIBS" \
--extra-cflags="-I$PLATFORM/usr/include/ -I$LIB/include/ -I/home/admin1/x264 -std=gnu99 -fPIC -DANDROID -fpic -mthumb-interwork -ffunction-sections -funwind-tables -fstack-protector -fno-short-enums -D__ARM_ARCH_5__ -D__ARM_ARCH_5T__ -D__ARM_ARCH_5E__ -D__ARM_ARCH_5TE__ -Wno-psabi -march=armv5te -mtune=xscale -msoft-float -mthumb -Os -fomit-frame-pointer -fno-strict-aliasing -finline-limit=64 -DANDROID -Wa,--noexecstack -MMD -MP" \
--disable-asm \
--enable-neon \
--enable-armv5te \
--enable-static \
--disable-shared \
--extra-ldflags="-Wl,-rpath-link=$LIB/lib -L$LIB/lib -nostdlib -Bdynamic -Wl,--no-undefined -Wl,-z,noexecstack -Wl,-z,nocopyreloc -Wl,-soname,/system/lib/libz.so -Wl,-rpath-link=$PLATFORM/usr/lib,-dynamic-linker=/system/bin/linker -L/usr/lib -L$PLATFORM/usr/lib -nostdlib $PLATFORM/usr/lib/crtbegin_dynamic.o $PLATFORM/usr/lib/crtend_android.o"
您可以使用此Config文件交叉编译ffmpeg并对其进行一些修改。
使用config.sh
命令编译ndk-build
。
编辑:
FFMPEG与所有音频编码器和解码器捆绑在一起。对于AAC编码和解码,请使用libfaac
和libfaad
。您可以在libavcodecs
api-example.c
文件中找到音频解码示例。您需要创建JNI Wrapper Class
来操作编解码器。我在这里发布的那个文件的解码示例之一。
static void audio_decode_example(const char *outfilename, const char *filename)
{
AVCodec *codec;
AVCodecContext *c= NULL;
int out_size, len;
FILE *f, *outfile;
uint8_t *outbuf;
uint8_t inbuf[AUDIO_INBUF_SIZE + FF_INPUT_BUFFER_PADDING_SIZE];
AVPacket avpkt;
av_init_packet(&avpkt);
printf("Audio decoding\n");
/* find the mpeg audio decoder */
codec = avcodec_find_decoder(CODEC_ID_MP2);
if (!codec) {
fprintf(stderr, "codec not found\n");
exit(1);
}
c= avcodec_alloc_context();
/* open it */
if (avcodec_open(c, codec) < 0) {
fprintf(stderr, "could not open codec\n");
exit(1);
}
outbuf = malloc(AVCODEC_MAX_AUDIO_FRAME_SIZE);
f = fopen(filename, "rb");
if (!f) {
fprintf(stderr, "could not open %s\n", filename);
exit(1);
}
outfile = fopen(outfilename, "wb");
if (!outfile) {
av_free(c);
exit(1);
}
/* decode until eof */
avpkt.data = inbuf;
avpkt.size = fread(inbuf, 1, AUDIO_INBUF_SIZE, f);
while (avpkt.size > 0) {
out_size = AVCODEC_MAX_AUDIO_FRAME_SIZE;
len = avcodec_decode_audio3(c, (short *)outbuf, &out_size, &avpkt);
if (len < 0) {
fprintf(stderr, "Error while decoding\n");
exit(1);
}
if (out_size > 0) {
/* if a frame has been decoded, output it */
fwrite(outbuf, 1, out_size, outfile);
}
avpkt.size -= len;
avpkt.data += len;
if (avpkt.size < AUDIO_REFILL_THRESH) {
/* Refill the input buffer, to avoid trying to decode
* incomplete frames. Instead of this, one could also use
* a parser, or use a proper container format through
* libavformat. */
memmove(inbuf, avpkt.data, avpkt.size);
avpkt.data = inbuf;
len = fread(avpkt.data + avpkt.size, 1,
AUDIO_INBUF_SIZE - avpkt.size, f);
if (len > 0)
avpkt.size += len;
}
}
fclose(outfile);
fclose(f);
free(outbuf);
avcodec_close(c);
av_free(c);
}
希望它会对你有所帮助。