我想将两个mp3文件合并为一个mp3文件。例如,如果第一个文件是1分钟而第二个文件是30秒,那么输出应该是一分钟。在那一分钟,它应该播放两个文件。
答案 0 :(得分:2)
首先,为了混合两个音频文件,你需要操纵它们的原始表示;由于 MP3文件已压缩,因此您无法直接访问信号的原始表示。您需要解码压缩的MP3流,以便“理解”音频信号的波形,然后您就可以将它们混合。
因此,为了将两个压缩音频文件混合到一个压缩音频文件中,需要执行以下步骤:
答案 1 :(得分:0)
我不确定你是否想在Android手机上这样做(因为你的标签看起来像这样),但如果我正确的话可能会尝试LoopStack,那么它就是移动DAW (我自己没试过。)
如果你只是"混合"两个文件没有调整输出可能剪辑的输出音量。但是我不确定是否可以混合#34;两个没有解码的mp3文件。
如果您可以在PC上合并它们,请尝试Audacity,这是一个免费的桌面DAW。
答案 2 :(得分:0)
我还没有在Android中完成它,但我使用Adobe flex完成了它。我猜逻辑仍然是一样的。我按照以下步骤操作:
song1ByteArray
,song2ByteArray
)song1ByteArray
是较大的一个)。创建一个返回混合字节数组的函数。
private ByteArray mix2Songs(ByteArray song1ByteArray, ByteArray song2ByteArray){
int arrLength=song1ByteArray.length;
for(int i=0;i<arrLength;i+=8){ // here if you see we are incrementing the length by 8 because a sterio sound has both left and right channels 4 bytes for left +4 bytes for right.
// read left and right channel values for the first song
float source1_L=song1ByteArray.readFloat();// I'm not sure if readFloat() function exists in android but there will be an equivalant one.
float source1_R=song1ByteArray.readFloat();
float source2_L=0;
float source2_R=0;
if(song2ByteArray.bytesAvailable>0){
source2_L=song1ByteArray.readFloat();//left channel of audio song2ByteArray
source2_R=song1ByteArray.readFloat(); //right channel of audio song2ByteArray
}
returnResultArr.writeFloat((source_1_L+source_2_L)/2); // average value of the source 1 and 2 left channel
returnResultArr.writeFloat((source_1_R+source_2_R)/2); // average value of the source 1 and 2 right channel
}
return returnResultArr;
}
答案 3 :(得分:0)
示例:
// First convert audiofile to audioinputstream
audioInputStream = AudioSystem.getAudioInputStream(soundFile);
audioInputStream2 = AudioSystem.getAudioInputStream(soundFile2);
// Create one collection list object using arraylist then add all AudioInputStreams
Collection list=new ArrayList();
list.add(audioInputStream2);
list.add(audioInputStream);
// Then pass the audioformat and collection list to MixingAudioInputStream constructor
MixingAudioInputStream mixer=new MixingAudioInputStream(audioFormat, list);
// Finally read data from mixed AudionInputStream and give it to SourceDataLine
nBytesRead =mixer.read(abData, 0,abData.length);
int nBytesWritten = line.write(abData, 0, nBytesRead);
-m
选项进行混合的AudioConcat
java AudioConcat [ -D ] [ -c ] | [ -m ] | [ -f ] -o outputfile inputfile ...
Parameters.
-c
selects concatenation mode
-m
selects mixing mode
-f
selects float mixing mode
-o outputfile
The filename of the output file
inputfile
the name(s) of input file(s)
答案 4 :(得分:0)
This guy在与您的项目非常相似的项目中使用了JLayer库。他还为您提供了如何在您的Android应用程序中集成该库直接重新编译jar的指南。
解释他的代码很容易完成你的任务:
public static byte[] decode(String path, int startMs, int maxMs)
throws IOException, com.mindtherobot.libs.mpg.DecoderException {
ByteArrayOutputStream outStream = new ByteArrayOutputStream(1024);
float totalMs = 0;
boolean seeking = true;
File file = new File(path);
InputStream inputStream = new BufferedInputStream(new FileInputStream(file), 8 * 1024);
try {
Bitstream bitstream = new Bitstream(inputStream);
Decoder decoder = new Decoder();
boolean done = false;
while (! done) {
Header frameHeader = bitstream.readFrame();
if (frameHeader == null) {
done = true;
} else {
totalMs += frameHeader.ms_per_frame();
if (totalMs >= startMs) {
seeking = false;
}
if (! seeking) {
SampleBuffer output = (SampleBuffer) decoder.decodeFrame(frameHeader, bitstream);
if (output.getSampleFrequency() != 44100
|| output.getChannelCount() != 2) {
throw new com.mindtherobot.libs.mpg.DecoderException("mono or non-44100 MP3 not supported");
}
short[] pcm = output.getBuffer();
for (short s : pcm) {
outStream.write(s & 0xff);
outStream.write((s >> 8 ) & 0xff);
}
}
if (totalMs >= (startMs + maxMs)) {
done = true;
}
}
bitstream.closeFrame();
}
return outStream.toByteArray();
} catch (BitstreamException e) {
throw new IOException("Bitstream error: " + e);
} catch (DecoderException e) {
Log.w(TAG, "Decoder error", e);
throw new com.mindtherobot.libs.mpg.DecoderException(e);
} finally {
IOUtils.safeClose(inputStream);
}
}
public static byte[] mix(String path1, String path2) {
byte[] pcm1 = decode(path1, 0, 60000);
byte[] pcm2 = decode(path2, 0, 60000);
int len1=pcm1.length;
int len2=pcm2.length;
byte[] pcmL;
byte[] pcmS;
int lenL; // length of the longest
int lenS; // length of the shortest
if (len2>len1) {
lenL = len1;
pcmL = pcm1;
lenS = len2;
pcmS = pcm2;
} else {
lenL = len2;
pcmL = pcm2;
lenS = len1;
pcmS = pcm1;
}
for (int idx = 0; idx < lenL; idx++) {
int sample;
if (idx >= lenS) {
sample = pcmL[idx];
} else {
sample = pcmL[idx] + pcmS[idx];
}
sample=(int)(sample*.71);
if (sample>127) sample=127;
if (sample<-128) sample=-128;
pcmL[idx] = (byte) sample;
}
return pcmL;
}
请注意,我在最后一行添加了衰减和削波:混合两个波形时,您必须同时执行这两项操作。 如果您没有内存/时间要求,可以对样本总和进行int [],并评估避免削波的最佳衰减。
答案 5 :(得分:0)
要合并(重叠)两个声音文件,您可以使用This FFMPEG library。
在他们的示例中,您只需输入所需的命令即可。所以我们来谈谈我们需要的命令。
Environment.getExternalStorageDirectory().getAbsolutePath()
对于第一个和第二个文件路径,您将获得声音文件的绝对路径。
1-如果它在存储上,则它是file:///android_asset/
2-如果是资产,那么它应该是String path = Environment.getExternalStorageDirectory().getAbsolutePath() + "/File Name.mp3"
对于输出路径,请务必添加扩展名 离。
{{1}}
答案 6 :(得分:-1)
我没有得到任何好的解决方案。但我们可以在这里做一些技巧.. :) 您可以将两个mp3文件分配给两个不同的MediaPlayer对象。然后使用button一次播放两个文件。比较两个mp3文件以找到最长的持续时间。之后使用AudioReorder记录到该持续时间。它会解决你的问题..我知道它不是一个正确的方法,但希望它会帮助你.. :)