使用html5拖放上传后播放mp3文件

时间:2011-10-08 22:50:56

标签: javascript api audio google-chrome mozilla

是否可以首先使用html5拖放上传系统上传mp3文件,然后使用webkit的音频API(http://chromium.googlecode.com/svn/trunk/samples/audio/index)播放。 html)没有提交表格(在谷歌浏览器中)?是否可以使用Mozilla的音频API在FF中进行?如果是这样,怎么样?另外,webkit的API是否存在任何教程?我一直都找不到。

2 个答案:

答案 0 :(得分:18)

您需要遵循的基本流程是

  1. 使用Drag and Drop Files
  2. 捕获文件
  3. Form Data Object
  4. 发布文件
  5. 回复您要播放的音频项目的网址
  6. 使用音频API播放音频
  7. jsFiddle允许您将音频文件拖动到某个区域,然后它将播放该文件。

    你应该能够使用JavaScriptAudioNode的onaudioprocess事件来获得当前的振幅。

    修改:

    基于JaapH所说的我再看一遍。处理器用于获取适当的事件来渲染画布。所以它并不是真的需要。这个jsFiddle的作用如下。但是,它使用requestAnimationFrame而不是处理器。

    这是旧代码,请参阅上面的使用请求动画框架的小提琴:

    var context = new (window.AudioContext || window.webkitAudioContext)();
    var source;
    var processor;
    var analyser;
    var xhr;
    
    function initAudio(data) {
        source = context.createBufferSource();
    
        if(context.decodeAudioData) {
            context.decodeAudioData(data, function(buffer) {
                source.buffer = buffer;
                createAudio();
            }, function(e) {
                console.log(e);
            });
        } else {
            source.buffer = context.createBuffer(data, false /*mixToMono*/);
            createAudio();
        }
    }
    
    function createAudio() {
        processor = context.createJavaScriptNode(2048 /*bufferSize*/, 1 /*num inputs*/, 1 /*numoutputs*/);
        processor.onaudioprocess = processAudio;
        analyser = context.createAnalyser();
    
        source.connect(context.destination);
        source.connect(analyser);
    
        analyser.connect(processor);
        processor.connect(context.destination);
    
        source.noteOn(0);
        setTimeout(disconnect, source.buffer.duration * 1000);
    }
    
    function disconnect() {
        source.noteOff(0);
        source.disconnect(0);
        processor.disconnect(0);
        analyser.disconnect(0);
    }
    
    function processAudio(e) {
        var freqByteData = new Uint8Array(analyser.frequencyBinCount);
        analyser.getByteFrequencyData(freqByteData);
        console.log(freqByteData);
    }
    
    function handleResult() {
        if (xhr.readyState == 4 /* complete */) {
            switch(xhr.status) {
                case 200: /* Success */
                    initAudio(request.response);
                    break;
                default:
                    break;
            }
            xhr = null;
        }      
    }
    
    function dropEvent(evt) {
        evt.stopPropagation();
        evt.preventDefault();
    
        var droppedFiles = evt.dataTransfer.files;
    
        //Ajax the file to the server and respond with the data
    
        var formData = new FormData();
        for(var i = 0; i < droppedFiles.length; ++i) {
                var file = droppedFiles[i];
    
                files.append(file.name, file);
        }
    
        xhr = new XMLHttpRequest();
        xhr.open("POST", 'URL');  
        xhr.onreadystatechange = handleResult;
        xhr.send(formData);
    }
    
    function dragOver(evt) {
        evt.stopPropagation();
        evt.preventDefault();
        return false;
    }
    
    var dropArea = document.getElementById('dropArea');
    dropArea.addEventListener('drop', dropEvent, false);
    dropArea.addEventListener('dragover', dragOver, false);
    

    我希望这会有所帮助

答案 1 :(得分:0)

当我运行jsfiddle示例时声音失真,这是因为处理器和源都连接到context.destination。为了让它工作,我删除了行source.connect(context.destination);,并在processAudio函数中添加了代码以将输入样本复制到输出

var inL = e.inputBuffer.getChannelData(0);
var inR = e.inputBuffer.getChannelData(1);
var outL= e.outputBuffer.getChannelData(0);
var outR =e.outputBuffer.getChannelData(1);

var n = inL.length;
for (var i = 0; i < n; i++) {
    outL[i] = inL[i];
    outR[i] = inR[i];
}