Я имею в виду по следующей ссылке: Hive Support for SparkМожет кто-нибудь объяснить это: «Spark SQL поддерживает другой вариант использования, чем Hive».
Он говорит:
«Спарк SQL поддерживает различный случай использования, чем улей.»
Я не уверен, почему это будет так. Означает ли это, что как пользователь Hive я не могу использовать движок Spark для запуска Spark SQL?
Некоторые вопросы:
- Спарк SQL использует улей Query парсер. Таким образом, он идеально поддерживает все функциональные возможности Hive.
- Будет ли использовать Hive Metastore?
- Будет ли улей использовать оптимизатор искры или он построит собственный оптимизатор?
- Will Hive переводит MR Jobs в Spark? Или использовать какую-то другую парадигму?
Спасибо. Несколько вопросов: - Spark SQL использует парсер Hive Query. Таким образом, он идеально поддерживает все функциональные возможности Hive. Будет ли он использовать Hive Metastore? - Будет ли улей использовать оптимизатор Spark или он построит собственный оптимизатор? - Уилл переведет MR Jobs в Spark? Или использовать какую-то другую парадигму? – Venkat
IIRC, Spark SQL будет использовать Hive Metastore, так что вы сможете запускать все запросы Hive. Что касается Hive-on-Spark, см. [Это сообщение в блоге] (http://blog.cloudera.com/blog/2014/07/apache-hive-on-apache-spark-motivations-and-design-principles/) , который описывает принципы проектирования. –