-1

я могу легко upload/write или Read содержимое файлов (~ 80kb) от Google Cloud StorageКак читать большие файлы (~ 300 МБ) из Google Cloud Storage?

Теперь, я должен выполнить большую задачу, служа большие файлы (~ 200MB-300MB):

1) нужно читать содержимое загруженного файла в куски (~ 10 КБ).

 <--Want to modify chunked data programmatically--> 

2) Повторите «1» шаги до тех пор, пока поток прочитать все содержимое файла (от начала до конца последовательно).

Я пробовал this программу, но в ответ я только некоторое количество данных. Как выполнить указанное задание?

ответ

1

Вы не должны использовать API-интерфейс файла (который устарел - см. Комментарий в верхней части указанной вами страницы). Вместо этого используйте клиент GCS (упомянутый в уведомлении об устаревании). Клиент GCS позволяет вам читать непрерывно, и вы можете сериализовать состояние GcsInputChannel между запросами до тех пор, пока чтение не будет завершено (если чтение больше времени ожидания запроса). Вы также должны рассмотреть возможность использования библиотеки mapreduce и использовать GoogleCloudStorageLineInput для чтения файла и записи измененного в вашем картографе (возможно, только для карт в вашем случае).

+0

Я попытался использовать GCS-клиент, но я не знаю, где установить «AppEngine Application ID» для размещения проекта в «App Engine»? Я использую клиента GCS из-за 'prefetch buffer': https://developers.google.com/appengine/docs/java/googlecloudstorageclient/getstarted –

+0

Я не уверен, что понял вопрос. У вас есть трудности с доступом к ведро из приложения App Engine? – ozarov

+0

Пожалуйста, взгляните на: http://stackoverflow.com/questions/25704937/openprefetchingreadchannel-is-not-working-in-google-cloud-storage-client-api –