我目前正在使用python处理.wav文件,使用Pyaudio处理音频流,以及用于加载文件数据的python wave库。 我计划稍后包括处理各个立体声通道,关于信号的幅度和立体声信号的平移,但是现在我只是试图分离波形文件的两个通道,并将它们缝合回来一起 - 希望最终得到与输入数据相同的数据。
以下是我的代码。
方法getRawSample工作得很好,我可以通过该函数流式传输音频。
问题是我的getSample方法。沿着这条线的某个地方,我将两个声道分开,并将它们连接在一起,音频变形。我甚至评论了我做振幅和平移调整的部分,所以理论上它的数据是 - >数据输出。
以下是我的代码示例:
class Sample(threading.Thread) :
def __init__(self, filepath, chunk):
super(Sample, self).__init__()
self.CHUNK = chunk
self.filepath = filepath
self.wave = wave.open(self.filepath, 'rb')
self.amp = 0.5 # varies from 0 to 1
self.pan = 0 # varies from -pi to pi
self.WIDTH = self.wave.getsampwidth()
self.CHANNELS = self.wave.getnchannels()
self.RATE = self.wave.getframerate()
self.MAXFRAMEFEEDS = self.wave.getnframes()/self.CHUNK # maximum even number of chunks
self.unpstr = '<{0}h'.format(self.CHUNK*self.WIDTH) # format for unpacking the sample byte string
self.pckstr = '<{0}h'.format(self.CHUNK*self.WIDTH) # format for unpacking the sample byte string
self.framePos = 0 # keeps track of how many chunks of data fed
# panning and amplitude adjustment of input sample data
def panAmp(self, data, panVal, ampVal): # when panning, using constant power panning
[left, right] = self.getChannels(data)
#left = np.multiply(0.5, left) #(np.sqrt(2)/2)*(np.cos(panVal) + np.sin(panVal))
#right = np.multiply(0.5, right) # (np.sqrt(2)/2)*(np.cos(panVal) - np.sin(panVal))
outputList = self.combineChannels(left, right)
dataResult = struct.pack(self.pckstr, *outputList)
return dataResult
def getChannels(self, data):
dataPrepare = list(struct.unpack(self.unpstr, data))
left = dataPrepare[0::self.CHANNELS]
right = dataPrepare[1::self.CHANNELS]
return [left, right]
def combineChannels(self, left, right):
stereoData = left
for i in range(0, self.CHUNK/self.WIDTH):
index = i*2+1
stereoData = np.insert(stereoData, index, right[i*self.WIDTH:(i+1)*self.WIDTH])
return stereoData
def getSample(self, panVal, ampVal):
data = self.wave.readframes(self.CHUNK)
self.framePos += 1
if self.framePos > self.MAXFRAMEFEEDS: # if no more audio samples to process
self.wave.rewind()
data = self.wave.readframes(self.CHUNK)
self.framePos = 1
return self.panAmp(data, panVal, ampVal)
def getRawSample(self): # for debugging, bypasses pan and amp functions
data = self.wave.readframes(self.CHUNK)
self.framePos += 1
if self.framePos > self.MAXFRAMEFEEDS: # if no more audio samples to process
self.wave.rewind()
data = self.wave.readframes(self.CHUNK)
self.framePos = 1
return data
我怀疑错误是我将左右声道拼接在一起的方式,但不确定。 我用16位44100khz .wav文件加载项目。 下面是一个音频文件的链接,以便您可以听到结果音频输出。 第一部分是通过getSample方法运行两个文件(两个通道),而下一部分是通过getRawSample方法运行这些相同的文件。
https://dl.dropboxusercontent.com/u/24215404/pythonaudiosample.wav
基于音频,如前所述,好像立体声文件变形了。查看上面文件的波形,看起来好像通过getSample方法后右声道和左声道完全相同。
如果需要,我也可以发布我的代码,包括主要功能。 希望我的问题不是太模糊,但我很感激任何帮助或输入!
答案 0 :(得分:0)
经常发生这种情况,我睡着了,第二天醒来就解决了 问题出在combineChannels函数中。 以下是工作代码:
def combineChannels(self, left, right):
stereoData = left
for i in range(0, self.CHUNK):
index = i*2+1
stereoData = np.insert(stereoData, index, right[i:(i+1)])
return stereoData
更改