Нарезать большой файл на куски и загрузить с помощью ajax и html5 FileReader

Что я хочу реализовать:

В интерфейсе я использую api html5 api для чтения файла, а затем загружаю содержимое файла в php-сервер с помощью ajax, и это нормально, если размер файла невелик. Однако, если файл достаточно большой, это приводит к сбою хрома. Поэтому я разбил большой файл на куски, используя file.slice, когда все куски загружаются на php, объединять куски в один полный.

код выглядит следующим образом:

передний конец:

<style>
#container {
     min-width:300px;
     min-height:200px;
     border:3px dashed #000;
}
</style>
<div id='container'>

</div>
<script>
function addDNDListener(obj){
    obj.addEventListener('dragover',function(e){
            e.preventDefault();
            e.stopPropagation();
    },false);
    obj.addEventListener('dragenter',function(e){
            e.preventDefault();
            e.stopPropagation();
    },false);
    obj.addEventListener('drop',function(e){
            e.preventDefault();
            e.stopPropagation();
            var ul = document.createElement("ul");
            var filelist = e.dataTransfer.files;
            for(var i=0;i<filelist.length;i++){
                    var file = filelist[i];
                    var li = document.createElement('li');
                    li.innerHTML = '<label id="'+file.name+'">'+file.name+':</label>  <progress value="0" max="100"></progress>';
                    ul.appendChild(li);
            }
            document.getElementById('container').appendChild(ul);
            for(var i=0;i<filelist.length;i++){
                    var file = filelist[i];
                    uploadFile(file);
            }
    },false);
}

function uploadFile(file){
    var loaded = 0;
    var step = 1024*1024;
    var total = file.size;
    var start = 0;
    var progress = document.getElementById(file.name).nextSibling;

    var reader = new FileReader();

    reader.onprogress = function(e){
            loaded += e.loaded;
            progress.value = (loaded/total) * 100;
    };

    reader.onload = function(e){
            var xhr = new XMLHttpRequest();
            var upload = xhr.upload;
            upload.addEventListener('load',function(){
                    if(loaded <= total){
                            blob = file.slice(loaded,loaded+step+1);
                            reader.readAsBinaryString(blob);
                    }else{
                            loaded = total;
                    }
            },false);
            xhr.open("POST", "upload.php?fileName="+file.name+"&nocache="+new Date().getTime());
            xhr.overrideMimeType("application/octet-stream");
            xhr.sendAsBinary(e.target.result);
    };
    var blob = file.slice(start,start+step+1);
    reader.readAsBinaryString(blob);
}

window.onload = function(){

    addDNDListener(document.getElementById('container'));
    if(!XMLHttpRequest.prototype.sendAsBinary){ 
              XMLHttpRequest.prototype.sendAsBinary = function(datastr) {  
                        function byteValue(x) {  
                            return x.charCodeAt(0) & 0xff;  
                        }  
                        var ords = Array.prototype.map.call(datastr, byteValue);  
                        var ui8a = new Uint8Array(ords);  
                        try{
                            this.send(ui8a);
                        }catch(e){
                            this.send(ui8a.buffer);
                        }  
              };  
    }
};
</script>

код php:

<?php
     $filename = "upload/".$_GET['fileName'];
     //$filename = "upload/".$_GET['fileName']."_".$_GET['nocache'];
     $xmlstr = $GLOBALS['HTTP_RAW_POST_DATA'];
     if(empty($xmlstr)){
             $xmlstr = file_get_contents('php://input');
     }
     $is_ok = false;
     while(!$is_ok){
            $file = fopen($filename,"ab");

            if(flock($file,LOCK_EX)){
                    fwrite($file,$xmlstr);
                    flock($file,LOCK_UN);
                    fclose($file);
                    $is_ok = true;
            }else{
                    fclose($file);
                    sleep(3);
            }
    }

Проблема заключается в том, что после того, как куски файла будут загружены на сервер и объединены в новый, общий размер файла меньше оригинала, а объединенный - сломан. Где проблема и как ее исправить?

Ответ 1

  • Использование readAsBinaryString fn - просто плохая практика
  • SendAsBinary также ограничен
  • Чтение содержимого чанков - просто чистая глупость. Нарезать их достаточно. xhr.send(blob.slice(0,10))
  • Нарезка также не требуется, если сервер не принимает такие большие файлы (например, REST API с ограниченным доступом в Dropbox)
  • Так что, если кто-то пытается быть умным в использовании рабочих потоков, base64 или FileReader для загрузки больших файлов - не делайте этого, все это не нужно.

Только тогда, когда вам захочется прочитать/нарезать файл, вы решите зашифровать/расшифровать/заархивировать файлы перед их отправкой на сервер.
Но только в течение ограниченного времени, пока все браузеры не начнут поддерживать потоки.
Тогда вы должны взглянуть на fetch и ReadableStream

fetch(url, {method: 'post', body: new ReadableStream({...})})

если вам просто нужно переслать xhr.send(blob_or_file) на сервер, просто выполните: xhr.send(blob_or_file) и браузер позаботится о его чтении (правильно) и не будет использовать память. И файл может быть сколь угодно большим, файл/блоб

Ответ 2

В js script есть небольшая ошибка, Я заметил, что событие reader.onprogress запускается чаще, чем событие xhr load. В этом случае некоторые куски пропускаются. Попытайтесь увеличить загруженную переменную внутри функции load.

function uploadFile(file){
var loaded = 0;
var step = 1024*1024;
var total = file.size;
var start = 0;
var progress = document.getElementById(file.name).nextSibling.nextSibling;

var reader = new FileReader();

reader.onload = function(e){
        var xhr = new XMLHttpRequest();
        var upload = xhr.upload;
        upload.addEventListener('load',function(){
        loaded += step;
        progress.value = (loaded/total) * 100;
                if(loaded <= total){
                        blob = file.slice(loaded,loaded+step);

                        reader.readAsBinaryString(blob);
                }else{
                        loaded = total;
                }
        },false);
        xhr.open("POST", "upload.php?fileName="+file.name+"&nocache="+new Date().getTime());
        xhr.overrideMimeType("application/octet-stream");
        xhr.sendAsBinary(e.target.result);
};
var blob = file.slice(start,step);
reader.readAsBinaryString(blob); }

Ответ 3

Эта проблема вызвана главным образом глобальными ограничениями общих хостов. Они часто контролируют количество данных и отбрасывают соединение, если ограничение отменено. Я пробовал это несколько раз и несколько способов. Всегда придерживайтесь одной позиции. целевой файл был меньше и искажен. Даже принимая меньший файл для загрузки, чем этот размер, чтобы объединенные данные были в пределе, результат был в порядке. У вас есть только один шанс: увеличьте максимальный размер, чтобы файлы были открыты. Каждый раз, когда вы открываете целевой файл и записываете в него содержимое Chunk, а размер переопределяет Limit, хостер прерывает соединение. Пример хостера: Strato Здесь Limit глобально установлен на 16MB. Я получаю максимальный размер слияния, размер которого равен удвоенному размеру. Нет шансов отменить его.