2

Я создал кинезийский пожар для других, чтобы отправить мне данные, и заметил, что изредка данные изредка извращаются. Уязвимые документы не соответствуют должным образом ETL в redshift - они в конечном итоге остаются в промежуточном ковше Firehose S3, где они продолжают генерировать сообщения о спам-сообщениях, ссылаясь на таблицу STL_LOAD_ERRORSКак я могу безопасно удалить багги документы из kinesis firehose s3 bucket?

Существует ли безопасный способ удаления проблемных записей из S3 ведро? Или любой другой безопасный способ очистки отвратительных записей?

-

Обратите внимание, что я уже пытался просто удаляя деформированные записи из S3. Похоже, что Kinesys Firehose помещается в бесконечный цикл, создавая спам ошибок с сообщением: «Один или несколько файлов S3, требуемых Redshift, были удалены из ведра S3». Насколько я могу судить, этот спам, как предполагается, в конечном итоге прекратится, но в моих экспериментах он, кажется, продолжается без перерыва.

ответ

1

Вот что будет работать.

  1. STL_Load_Errors table предоставит вам имя файла в S3 вместе с линией номера и причиной ошибки.
  2. Найдите ошибочную запись и исправьте ее, и переведите ее из источника через firehose.

 Смежные вопросы

  • Нет связанных вопросов^_^