Я работаю над задачей резервного копирования (копирования) около 100 Гб данных (включая тысячу файлов и подпапок в каталоге) на другой сервер. Обычно для меньшего масштаба я могу использовать scp или rsync. Однако, поскольку другой сервер не находится в одной сети LAN, для выполнения задачи может потребоваться несколько часов или даже дней. Я не могу просто оставить свой компьютер там, где работает терминал. Я не думаю, что это лучший выбор, и снова у меня есть еще одна веская причина использовать Python :)Как мы можем передавать большие объемы данных по сети, используя Python?
Есть ли какая-нибудь библиотека или лучшая практика для меня? Поскольку это просто для внутреннего проекта, нам не нужны какие-либо причудливые функции, просто некоторые фундаментальные вещи, такие как каротаж, погрешность ошибок и т. Д.
«Я не могу просто оставить мой компьютер там с терминалом работает.» - в чем проблема? Вы можете что-то запустить и заблокировать экран? Или вы не хотите оставлять свой компьютер там, где есть «есть»? –
Привет, Грег, было 2 проблемы, да, я запускаю scp/rsync через терминал на ноутбуке, и мне нужно в конце концов двигаться. Во-вторых, с часами выполнения прогресса очень легко получить сообщение об ошибке соединения, если в моей домашней сети есть что-то еще. Вот почему я пытаюсь найти хорошее решение в Python. – mrblue
Я бы рекомендовал rsync, так как его можно легко перезапустить, если что-то пойдет не так с соединением. Вы не можете перезапускать scp с того места, где он остался так же легко. –