Я пробовал базовый тестовый пример чтения данных из dashDB в искру, а затем снова записывал его обратно в dashDB.Как выполнить произвольный sql из ноутбука pyspark с помощью SQLContext?
Этап 1. Во-первых в записной книжке, я прочитал данные:
sqlContext = SQLContext(sc)
dashdata = sqlContext.read.jdbc(
url="jdbc:db2://bluemix05.bluforcloud.com:50000/BLUDB:user=****;password=****;",
table="GOSALES.BRANCH"
).cache()
Шаг 2. Тогда из dashDB создать целевую таблицу:
DROP TABLE ****.FROM_SPARK;
CREATE TABLE ****.FROM_SPARK AS (
SELECT *
FROM GOSALES.BRANCH
) WITH NO DATA
Шаг 3. Наконец, в записной книжке я сохранить данные в таблицу:
from pyspark.sql import DataFrameWriter
writer = DataFrameWriter(dashdata)
dashdata = writer.jdbc(
url="jdbc:db2://bluemix05.bluforcloud.com:50000/BLUDB:user=****;password=****;",
table="****.FROM_SPARK"
)
Вопрос: Можно ли запустить SQL на шаге 2 из pyspark? Я не мог понять, как это можно сделать с pyspark documentation. Я не хочу использовать vanilla python для подключения к dashDB из-за усилий, связанных с настройкой библиотеки.
Предположительно вы загрузили db2jcc4.jar в свою учетную запись? IBM должна делать эти файлы доступными в Интернете, поскольку использование загрузки файлов из неформальных источников является угрозой безопасности и ненадежностью, поскольку файлы со временем исчезают. –
Да, это всего лишь временное решение о том, чтобы заставить водителя забрать в этом ноутбуке Bluemix. Мы работаем над правильным решением. –
А, отлично! Есть ли билет для правильного решения, на которое я могу подписаться? –