如何将两个mp3音频文件混合/叠加到一个mp3文件中(不连接)

时间:2013-03-27 05:24:37

标签: android audio merge mp3

我想将两个mp3文件合并为一个mp3文件。例如,如果第一个文件是1分钟而第二个文件是30秒,那么输出应该是一分钟。在那一分钟,它应该播放两个文件。

7 个答案:

答案 0 :(得分:2)

首先,为了混合两个音频文件,你需要操纵它们的原始表示;由于 MP3文件已压缩,因此您无法直接访问信号的原始表示。您需要解码压缩的MP3流,以便“理解”音频信号的波形,然后您就可以将它们混合。

因此,为了将两个压缩音频文件混合到一个压缩音频文件中,需要执行以下步骤:

    使用解码器
  1. 解码压缩文件以获取原始数据( NO PUBLIC SYSTEM API可用于此,您需要手动执行此操作!)。
  2. 混合两个原始未压缩数据流(必要时应用音频剪辑)。为此,您需要考虑使用解码器PCM)获得的原始数据格式
  3. 将原始混合数据编码到压缩的MP3文件中(根据解码器,您需要使用编码器手动执行)
  4. 更多信息aboud可以找到MP3解码器here

答案 1 :(得分:0)

我不确定你是否想在Android手机上这样做(因为你的标签看起来像这样),但如果我正确的话可能会尝试LoopStack,那么它就是移动DAW (我自己没试过。)

如果你只是"混合"两个文件没有调整输出可能剪辑的输出音量。但是我不确定是否可以混合#34;两个没有解码的mp3文件。

如果您可以在PC上合并它们,请尝试Audacity,这是一个免费的桌面DAW。

答案 2 :(得分:0)

我还没有在Android中完成它,但我使用Adobe flex完成了它。我猜逻辑仍然是一样的。我按照以下步骤操作:

  • 我将两个mp3都提取为两个字节的数组。 (song1ByteArraysong2ByteArray
  • 找出更大的字节数组。 (假设song1ByteArray是较大的一个)。
  • 创建一个返回混合字节数组的函数。

    private ByteArray mix2Songs(ByteArray song1ByteArray, ByteArray song2ByteArray){
    int arrLength=song1ByteArray.length; 
    for(int i=0;i<arrLength;i+=8){ // here if you see we are incrementing the length by 8 because a sterio sound has both left and right channels 4 bytes for left +4 bytes for right.
        // read left and right channel values for the first song
        float source1_L=song1ByteArray.readFloat();// I'm not sure if readFloat() function exists in android but there will be an equivalant one.
        float source1_R=song1ByteArray.readFloat(); 
        float source2_L=0;
        float source2_R=0;
        if(song2ByteArray.bytesAvailable>0){
            source2_L=song1ByteArray.readFloat();//left channel of audio song2ByteArray
            source2_R=song1ByteArray.readFloat(); //right channel of audio song2ByteArray
        }
        returnResultArr.writeFloat((source_1_L+source_2_L)/2); // average value of the source 1 and 2 left channel
        returnResultArr.writeFloat((source_1_R+source_2_R)/2); // average value of the source 1 and 2 right channel
    }
    return returnResultArr;
    }
    

答案 3 :(得分:0)

1。 Post on Audio mixing in Android

2。 Another post on mixing audio in Android

3。您可以利用Java Sound混合两个音频文件

示例:


// First convert audiofile to audioinputstream

audioInputStream = AudioSystem.getAudioInputStream(soundFile);
audioInputStream2 = AudioSystem.getAudioInputStream(soundFile2);

// Create one collection list object using arraylist then add all AudioInputStreams

Collection list=new ArrayList();
list.add(audioInputStream2);
list.add(audioInputStream);

// Then pass the audioformat and collection list to MixingAudioInputStream constructor

MixingAudioInputStream mixer=new MixingAudioInputStream(audioFormat, list); 

// Finally read data from mixed AudionInputStream and give it to SourceDataLine

nBytesRead =mixer.read(abData, 0,abData.length);

int nBytesWritten = line.write(abData, 0, nBytesRead);

4。尝试使用-m选项进行混合的AudioConcat


java AudioConcat [ -D ] [ -c ] | [ -m ] | [ -f ] -o outputfile inputfile ...

Parameters. 

-c
selects concatenation mode

-m
selects mixing mode

-f
selects float mixing mode

-o outputfile
The filename of the output file

inputfile
the name(s) of input file(s)

5。您可以使用ffmpeg android wrapper

中解释的语法和方法来使用here

答案 4 :(得分:0)

This guy在与您的项目非常相似的项目中使用了JLayer库。他还为您提供了如何在您的Android应用程序中集成该库直接重新编译jar的指南。

解释他的代码很容易完成你的任务:

public static byte[] decode(String path, int startMs, int maxMs) 
  throws IOException, com.mindtherobot.libs.mpg.DecoderException {
  ByteArrayOutputStream outStream = new ByteArrayOutputStream(1024);

  float totalMs = 0;
  boolean seeking = true;

  File file = new File(path);
  InputStream inputStream = new BufferedInputStream(new FileInputStream(file), 8 * 1024);
  try {
    Bitstream bitstream = new Bitstream(inputStream);
    Decoder decoder = new Decoder();

    boolean done = false;
    while (! done) {
      Header frameHeader = bitstream.readFrame();
      if (frameHeader == null) {
        done = true;
      } else {
        totalMs += frameHeader.ms_per_frame();

        if (totalMs >= startMs) {
          seeking = false;
        }

        if (! seeking) {
          SampleBuffer output = (SampleBuffer) decoder.decodeFrame(frameHeader, bitstream);

          if (output.getSampleFrequency() != 44100
              || output.getChannelCount() != 2) {
            throw new com.mindtherobot.libs.mpg.DecoderException("mono or non-44100 MP3 not supported");
          }

          short[] pcm = output.getBuffer();
          for (short s : pcm) {
            outStream.write(s & 0xff);
            outStream.write((s >> 8 ) & 0xff);
          }
        }

        if (totalMs >= (startMs + maxMs)) {
          done = true;
        }
      }
      bitstream.closeFrame();
    }

    return outStream.toByteArray();
  } catch (BitstreamException e) {
    throw new IOException("Bitstream error: " + e);
  } catch (DecoderException e) {
    Log.w(TAG, "Decoder error", e);
    throw new com.mindtherobot.libs.mpg.DecoderException(e);
  } finally {
    IOUtils.safeClose(inputStream);     
  }
}

public static byte[] mix(String path1, String path2) {
    byte[] pcm1 = decode(path1, 0, 60000); 
    byte[] pcm2 = decode(path2, 0, 60000);
    int len1=pcm1.length; 
    int len2=pcm2.length;
    byte[] pcmL; 
    byte[] pcmS;
    int lenL; // length of the longest
    int lenS; // length of the shortest
    if (len2>len1) {
        lenL = len1;
        pcmL = pcm1;
        lenS = len2;                
        pcmS = pcm2;
    } else {
        lenL = len2;
        pcmL = pcm2;
        lenS = len1;                
        pcmS = pcm1;
    } 
    for (int idx = 0; idx < lenL; idx++) {
        int sample;
        if (idx >= lenS) {
            sample = pcmL[idx];
        } else {
            sample = pcmL[idx] + pcmS[idx];
        }
        sample=(int)(sample*.71);
        if (sample>127) sample=127;
        if (sample<-128) sample=-128;
        pcmL[idx] = (byte) sample;
    }
    return pcmL;
}

请注意,我在最后一行添加了衰减和削波:混合两个波形时,您必须同时执行这两项操作。 如果您没有内存/时间要求,可以对样本总和进行int [],并评估避免削波的最佳衰减。

答案 5 :(得分:0)

要合并(重叠)两个声音文件,您可以使用This FFMPEG library

以下是Documentation

在他们的示例中,您只需输入所需的命令即可。所以我们来谈谈我们需要的命令。

Environment.getExternalStorageDirectory().getAbsolutePath()

对于第一个和第二个文件路径,您将获得声音文件的绝对路径。 1-如果它在存储上,则它是file:///android_asset/

的子文件夹

2-如果是资产,那么它应该是String path = Environment.getExternalStorageDirectory().getAbsolutePath() + "/File Name.mp3"

的子文件夹

对于输出路径,请务必添加扩展名 离。

{{1}}

答案 6 :(得分:-1)

我没有得到任何好的解决方案。但我们可以在这里做一些技巧.. :) 您可以将两个mp3文件分配给两个不同的MediaPlayer对象。然后使用button一次播放两个文件。比较两个mp3文件以找到最长的持续时间。之后使用AudioReorder记录到该持续时间。它会解决你的问题..我知道它不是一个正确的方法,但希望它会帮助你.. :)