6

Я использую Data Pipeline (DP) для ежедневного резервного копирования DynamoDB, однако я хотел бы сделать инкрементное резервное копирование данных, которые пропущены прогонами DP (обновления между прогонами DP). Для этого я хотел бы использовать DynamoDB Streams + Lambda + S3, чтобы обновлять DynamoDB в реальном времени до S3. Я понимаю, как работают потоки DynamoDB, однако я борюсь с созданием Lambda-функции, которая записывает на S3 и каждый раз скатывает файл.Потоки DynamoDB до S3

Кто-нибудь попробовал?

+1

Что вы подразумеваете под «рулонами файла каждый час»? Вы не можете добавлять файлы в S3. Вам нужно будет создавать новые файлы для каждого обновления, если вы не захотите каждый раз читать весь файл, добавлять к нему данные, а затем снова записывать его на S3. Что звучит болезненно. – garnaat

+0

Прокрутка файла, как в log4j, или других фреймворков, где файлы можно катить по определенным критериям. Я знаю, что файлы на S3 неизменяемы, поэтому мне было интересно, возможно ли это. – user3293898

ответ

7

Его час работа чувак, что вам нужно сделать, это

  1. Включения Динамо DB потока обновления и прикрепляются AWS при условии функции лямбды https://github.com/awslabs/lambda-streams-to-firehose
  2. Включить шланговой поток и использовать выше функции для потоковых аутов записи в пожарный шланг.
  3. Настроить пожарный, чтобы сбросить записи на S3.

сделано.

+0

что делать, если у вас нет пожара? –