我正在开发一款测试应用程序,以在Android上集成soundtouch(开源音频处理库)。
我的测试应用程序已经可以从麦克风接收输入,通过音频传输音频并将处理后的音频输出到AudioTrack实例。
我的问题是,如何将AudioTrack的输出更改为设备上的新文件?
这是我的应用程序中的相关代码(我正在处理soundtouch的输出,进入AudioTrack的输入)
// the following code is a stripped down version of my code
// in no way its supposed to compile or work. Its here for reference purposes
// pre-conditions
// parameters - input : byte[]
soundTouchJNIInstance.putButes(input);
int bytesReceived = soundTouchJNIInstance.getBytes(input);
audioTrackInstance.write(input, 0, bytesReceived);
有关如何解决此问题的任何想法?谢谢!
答案 0 :(得分:0)
我认为实现此目的的最佳方法是将该音频转换为byte[]
数组。假设你已经这样做了(如果没有,请注释,我将提供一个例子),上面的代码应该可行。这假设您将其保存在名为sdcard
的新目录中的外部AudioRecording
中并将其另存为audiofile.mp3
。
final File soundFile = new File(Environment.getExternalStorageDirectory().getAbsolutePath() + "AudioRecording/");
soundFile.mkdirs();
final File outFile = new File(soundFile, 'audiofile.mp3');
try {
final FileOutputStream output = new FileOutputStream(outFile);
output.write(yourByteArrayWithYourAudioFileConverted);
output.close();
} catch (FileNotFoundException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
mkdirs()
方法将尝试构造所有父目录(如果它们丢失)。因此,如果您计划存储在2个或更多级别的深度目录中,这将创建所有结构。
答案 1 :(得分:0)
希望您已经从麦克风获取输入语音并保存在文件中。
首先,将JNI库导入oncreate方法:
System.loadLibrary("soundtouch");
System.loadLibrary("soundstretch");
Soundstrech图书馆:
public class AndroidJNI extends SoundStretch{
public final static SoundStretch soundStretch = new SoundStretch();
}
现在您需要使用输入文件路径和所需的输出文件调用soundstrech.process,以将已处理的语音存储为参数:
AndroidJNI.soundStretch.process(dataPath + "inputFile.wav", dataPath + "outputFile.wav", tempo, pitch, rate);
File sound = new File(dataPath + "outputFile.wav");
File sound2 = new File(dataPath + "inputFile.wav");
Uri soundUri = Uri.fromFile(sound);
可以将soundUri作为媒体播放器的来源提供回放:
MediaPlayer mediaPlayer = MediaPlayer.create(this, soundUri);
mediaPlayer.start();
另请注意,应通过声明采样率数组动态选择录制的样本大小:
int[] sampleRates = { 44100, 22050, 11025, 8000 }
答案 2 :(得分:0)
编写byteArray的最佳方法:
public void writeToFile(byte[] array)
{
try
{
String path = "Your path.mp3";
File file = new File(path);
if (!file.exists()) {
file.createNewFile();
}
FileOutputStream stream = new FileOutputStream(path);
stream.write(array);
} catch (FileNotFoundException e1)
{
e1.printStackTrace();
}
}
答案 3 :(得分:0)
我根本不知道声音触摸和链接我没有提供jni代码的处理,但是如果它对你有任何帮助,你可以查看它:http://i-liger.com/article/android-wav-audio-recording
答案 4 :(得分:0)
我使用一个简单的测试代码片段来编写音频字节数组:
public void saveAudio(byte[] array, string pathAndName)
{
FileOutputStream stream = new FileOutputStream(pathAndName);
try {
stream.write(array);
} finally {
stream.close();
}
}
如果您打算在生产环境中使用它,您可能需要添加一些异常处理,但是无论何时我处于开发阶段或个人非发布项目,我都会利用上述内容来保存音频。 / p>
经过一番简短的思考后,我将我的代码段改为以下稍微强大的格式:
public void saveAudio(byte[] array, string pathAndName)
{
try (FileOutputStream stream= new FileOutputStream(pathAndName)) {
stream.write(array);
} catch (IOException ioe) {
ioe.printStackTrace();
} finally {
stream.close();
}
}
答案 5 :(得分:0)
您可以使用SequenceInputStream的方法,在我的应用程序中我只将MP3文件合并为一个并使用JNI Library MPG123播放它,但我使用MediaPlayer测试了该文件没有问题。
这段代码并不是最好的,但它有效......
private void mergeSongs(File mergedFile,File...mp3Files){
FileInputStream fisToFinal = null;
FileOutputStream fos = null;
try {
fos = new FileOutputStream(mergedFile);
fisToFinal = new FileInputStream(mergedFile);
for(File mp3File:mp3Files){
if(!mp3File.exists())
continue;
FileInputStream fisSong = new FileInputStream(mp3File);
SequenceInputStream sis = new SequenceInputStream(fisToFinal, fisSong);
byte[] buf = new byte[1024];
try {
for (int readNum; (readNum = fisSong.read(buf)) != -1;)
fos.write(buf, 0, readNum);
} finally {
if(fisSong!=null){
fisSong.close();
}
if(sis!=null){
sis.close();
}
}
}
} catch (IOException e) {
e.printStackTrace();
}finally{
try {
if(fos!=null){
fos.flush();
fos.close();
}
if(fisToFinal!=null){
fisToFinal.close();
}
} catch (IOException e) {
e.printStackTrace();
}
}
}