2015-09-10 3 views
3

Я настроил 3 узла Spark Cluster. И начал Spark Thrift Service с использованием сценария start-thriftserver.sh с некоторыми настраиваемыми свойствами. А также добавил spark.executor.extraJavaOptions -XX:MaxPermSize=1024m -XX:PermSize=256m собственности в каждом spark-default.sh файл кластера.Spark Sql выбрасывает ошибку пространства PermGen

Использование драйвера Hive JDBC, я могу подключиться с помощью spark-sql, попробовал некоторые запросы на него.

Но через некоторое время он бросает PermGen Space Ошибка. И после перезапуска бережливой службы так много раз она бросает ту же ошибку.

enter image description here

+1

Как этот вопрос дублируется? Я уже пробовал с большой площадью кучи '-XX: MaxPermSize = 1024m -XX: PermSize = 256m'. И если это тогда написать решение, которое решит мою проблему. – Kaushal

+1

Я не могу понять. Без какой-либо надлежащей причины, почему люди занижают вопрос? – Kaushal

ответ

6

Наконец я получил решение.

Я просмотрел журнал приложений, ошибка перменства возникает у драйвера Spark, поэтому вместо опции spark.executor.extraJavaOptions я добавил -XX:MaxPermSize=1024m -XX:PermSize=256m с параметром spark.driver.extraJavaOptions.