Я пытаюсь написать сценарий, чтобы пройти через большой каталог и рекурсивно скопировать файлы, но получатель может принимать информацию только за 2 гигабайта за раз. Есть ли способ разбить передачу на части размером менее 2 гигабайт? Я могу написать простой скрипт, копирующий главные каталоги, но проблема в том, что Destination не будет принимать эти большие передачи одновременно. Я думал о том, что у меня есть основная функция создания подфункции для передачи данных в меньших сегментах или сеансах, но я не совсем уверен, как это сделать. Что-то вроде этого, но разбито на сегменты.Большая передача данных Directory/Sub-Directory
$SPOnlineDir = "Our sharepoint online library address"
$MainStore = @("\\server\Dir1", "\\server\Dir2", "\\server\Dir3")
function Copy-ToSPO()
{
Foreach($StoreInst in $MainStore)
{
Copy-Item -LiteralPath $StoreInst -Destination $SPOnlineDir -Force
}
}
Copy-ToSPO
Что вы сделали до сих пор? –
Любые особые причины не использовать Robocopy? – mjolinor
@Tim Ferrill Я написал отдельный сценарий, чтобы просмотреть все файлы и убедиться, что их имена приемлемы для адресата. Однако для фактического копирования я просто планирую, как их копировать. Подпапки вниз на базе часто не супер большие, но есть обширная структура каталогов, всего около терабайта. Я искал решение, но пока ничего не нашел. – CalebB