Я начал использовать Spark 2.0 на своем Eclipse, создав проект maven и получив во всех последних зависимостях. Я могу без проблем запускать запросы на улей. Меня беспокоит, что Spark создает другой склад для улья и не использует хранилище данных, которое я хочу. Итак, все таблицы улья, которые у меня есть на моем сервере, я не могу прочитать эти таблицы улья в своих наборах данных Spark и делать какие-либо преобразования. Я могу только создавать и работать с новыми таблицами, но я хочу читать мои таблицы в улье.Spark, похоже, не использует тот же склад, который использует Hive
Мой улей-site.xml: -
<configuration><property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost/metastore?createDatabaseIfNotExist=true</value>
<description>metadata is stored in a MySQL server</description></property> <property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>MySQL JDBC driver class</description></property><property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hiveuser</value>
<description>user name for connecting to mysql server</description></property><property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description>password for connecting to mysql server</description></property><property>
<name>hive.metastore.warehouse.dir</name>
<value>/usr/local/Cellar/hive–1.1.0/apache-hive-1.1.0-bin/spark-warehouse</value>
<description>location of default database for the warehouse</description></property></configuration>
Spark создает еще один склад для улья ..... в каком пути hdfs он хранится? Вы используете derby db? –
Я хочу, чтобы он использовал тот же db, что и обычный куст, так что я могу получить доступ к таблицам улья по умолчанию –
вы можете делиться hive-site.xml –