2016-11-03 3 views
0

Ошибка в действии (код): Ошибка при подключении к порту sparkler (8880) для sessionid (2044): шлюз в порту (8880) не ответил. Путь: C: \ Users \ user1 \ AppData \ Local \ rstudio \ spark \ Cache \ spark-1.6.2-bin-hadoop2.6 \ bin \ spark-submit2.cmd Параметры: --class, sparklyr.Backend, --packages ", com.databricks: spark-csv_2.11: 1.3.0", "D: \ Users \ user1 \ R \ R-3.3.1 \ library \ sparklyr \ java \ sparklyr-1.6-2.10.jar" , 8880, 2044 Traceback: shell_connection (master = master, spark_home = spark_home, app_name = имя_пользователя, версия = версия, hasoop_version = hadoop_version, shell_args = shell_args, config = config, service = FALSE, extensions = extensions) start_shell (master = master, spark_home = spark_home, spark_version = version, app_name = app_name, config = config, jars = spark_config_value (config, "spark.jars.default", list()), packages = spark_config_value (config, "sparklyr.defaultPackages") , extensions = extensions, environment = environment, shell_args = shell_args, servic е = обслуживание) tryCatch ({ gatewayInfo < - spark_connect_gateway (gatewayAddress, gatewayPort, SESSIONID, конфигурации = конфигурация, isStarting = TRUE), }, ошибка = функция (е) { abort_shell (паста ("Ошибка при подключении к sparklyr к port (", gatewayPort,") для sessionid (", sessionId,"): ", e $ message, sep =" "), spark_submit_path, shell_args, output_file, error_file) }) tryCatchList (expr, classes, parentenv, обработчики) tryCatchOne (expr, names, parentenv, handlers [[1]]) значение [3] abort_shell (вставить («Не удалось подключиться к sparklyr to port («, gatewayPort ») для sessionid («, sessionId, "):", e $ message, sep = ""), spark_submit_path, shell_args, output_file, error_file)Ошибка при подключении к искриру к порту (8880) для сеанса

---- Выходной журнал ---- Система не может найти указанный путь.

---- Error Log ----

ответ

0

выше ошибка была решена путем изменения JAVA_HOME, Спарк не признают JAVA_HOME, если \ бин добавляется к концу JAVA_HOME. Поэтому я удалил \ bin из JAVA_HOME и начал работать.