У меня есть таблица BigQuery (> 5mil строк).Получение данных из большой таблицы BigQuery в python
Мне нужно получить эти данные партиями и обработать его внутри AppEngine, python.
Единственный способ получить из таблицы, которая, как мне известно, запустить запрос SELECT в этой таблице, а затем повторить результат, используя tokens fetch_data.
Это выглядит следующим образом:
query = u"""\
SELECT url FROM %s
""" % (query_table)
query_job = client.run_async_query(str(uuid.uuid4()), query)
query_job.begin()
wait_for_job(query_job, 1)
query_results = query_job.results()
rows, total_rows, next_token = query_results.fetch_data(max_results=per_page, page_token=page_token)
Это работает на меньшие таблицы, но и на более крупные, как у меня она просит, чтобы позволить большие запросы и указать целевую таблицу. Но для меня это не имеет смысла. Чтобы просто получить данные из таблицы, я должен скопировать ее в другую таблицу?