Вот мой код:Как получить доступ к таблице postgres из pyspark в IBM Data Science Experience?
uname = "xxxxx"
pword = "xxxxx"
dbUrl = "jdbc:postgresql:dbserver"
table = "xxxxx"
jdbcDF = spark.read.format("jdbc").option("url", dbUrl).option("dbtable",table).option("user", uname).option("password", pword).load()
Я получаю сообщение об ошибке "Нет подходящего драйвера" после добавления банки драйвера Postgres (% Addjar -f https://jdbc.postgresql.org/download/postgresql-9.4.1207.jre7.jar). Есть ли рабочий пример загрузки данных из postgres в pyspark 2.0 на DSX?
Это сработало! Спасибо. –