Я использую Data Pipeline (DP) для ежедневного резервного копирования DynamoDB, однако я хотел бы сделать инкрементное резервное копирование данных, которые пропущены прогонами DP (обновления между прогонами DP). Для этого я хотел бы использовать DynamoDB Streams + Lambda + S3, чтобы обновлять DynamoDB в реальном времени до S3. Я понимаю, как работают потоки DynamoDB, однако я борюсь с созданием Lambda-функции, которая записывает на S3 и каждый раз скатывает файл.Потоки DynamoDB до S3
Кто-нибудь попробовал?
Что вы подразумеваете под «рулонами файла каждый час»? Вы не можете добавлять файлы в S3. Вам нужно будет создавать новые файлы для каждого обновления, если вы не захотите каждый раз читать весь файл, добавлять к нему данные, а затем снова записывать его на S3. Что звучит болезненно. – garnaat
Прокрутка файла, как в log4j, или других фреймворков, где файлы можно катить по определенным критериям. Я знаю, что файлы на S3 неизменяемы, поэтому мне было интересно, возможно ли это. – user3293898