2013-03-19 2 views
0

У меня есть десятки тысяч каталогов с несколькими файлами в каждом из них на не-AWS VPS (около 1 Тбайт данных). Я хочу переместить их все на S3.AWS EC2 S3 и тысячи каталогов с несколькими файлами в каждом s3cmd

Я могу либо закрепить их в кусках 7 ГБ, переместить (wget или что-то еще) в EC2 (8GB Ubuntu), разархивировать и s3cmd их на S3.

ИЛИ

перейти прямо к S3 из моего VPS с s3cmd каталога синхронизации?

Какой метод лучше всего подходит для повышения производительности и надежности?

Благодаря

ответ

2

Есть два фактора, которые принимают решение для меня.

  1. Что такое размер avg-файла? (Тысячи небольших файлов могут занимать больше времени, чем несколько больших файлов)
  2. Какое сжатие вы можете получить?

Если вы решили использовать промежуточный экземпляр, вы можете прикрепить 1 ТБ EBS тома для обработки файлов при передаче. Это добавит немного стоимости, но вам не нужно будет поддерживать громкость после завершения.

+0

Удивительно, спасибо за голову над EBS. AWS - это потрясающая «вещь», несмотря на то, что она не знает и не использует весь ее потенциал. Я не смог добавить, что есть около 3,5 миллиона маленьких (несколько МБ) файлов. – Gordon