2016-12-16 9 views
2

я использую: Спарк 2.0.0 Scala 2.11.8 Java 1.7 MavenСпарк Streaming ОШИБКА TransportRequestHandler: Ошибка при вызове RpcHandler # приема() для одностороннего сообщение

Я пытаюсь запустить Потоковое Kmeans в кластере из 5 машин. Я не знаю, что может быть причиной этой ошибки, может ли кто-нибудь помочь мне с этим?

Ниже лог консоли:

log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell). 
log4j:WARN Please initialize the log4j system properly. 
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info. 
starting streaming context 
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties 
16/12/16 15:49:31 INFO SparkContext: Running Spark version 2.0.0 
16/12/16 15:49:31 INFO SecurityManager: Changing view acls to: master 
16/12/16 15:49:31 INFO SecurityManager: Changing modify acls to: master 
16/12/16 15:49:31 INFO SecurityManager: Changing view acls groups to: 
16/12/16 15:49:31 INFO SecurityManager: Changing modify acls groups to: 
16/12/16 15:49:31 INFO SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(master); groups with view permissions: Set(); users with modify permissions: Set(master); groups with modify permissions: Set() 
16/12/16 15:49:31 INFO Utils: Successfully started service 'sparkDriver' on port 42691. 
16/12/16 15:49:31 INFO SparkEnv: Registering MapOutputTracker 
16/12/16 15:49:31 INFO SparkEnv: Registering BlockManagerMaster 
16/12/16 15:49:31 INFO DiskBlockManager: Created local directory at /tmp/blockmgr-bfe445b5-2ee0-4209-9778-6750809a7b53 
16/12/16 15:49:32 INFO MemoryStore: MemoryStore started with capacity 1890.6 MB 
16/12/16 15:49:32 INFO SparkEnv: Registering OutputCommitCoordinator 
16/12/16 15:49:32 INFO Utils: Successfully started service 'SparkUI' on port 4040. 
16/12/16 15:49:32 INFO SparkUI: Bound SparkUI to 0.0.0.0, and started at http://200.17.78.23:4040 
16/12/16 15:49:32 INFO SparkContext: Added JAR /home/master/scala%20projects/testeKmeans/testeKmeans.jar at spark://200.17.78.23:42691/jars/testeKmeans.jar with timestamp 1481910572510 
16/12/16 15:49:32 INFO StandaloneAppClient$ClientEndpoint: Connecting to master spark://master:7077... 
16/12/16 15:49:32 INFO TransportClientFactory: Successfully created connection to master/200.17.78.23:7077 after 26 ms (0 ms spent in bootstraps) 
16/12/16 15:49:32 INFO StandaloneSchedulerBackend: Connected to Spark cluster with app ID app-20161216154932-0009 
16/12/16 15:49:32 INFO StandaloneAppClient$ClientEndpoint: Executor added: app-20161216154932-0009/0 on worker-20161215083739-200.17.78.23-54671 (200.17.78.23:54671) with 6 cores 
16/12/16 15:49:32 INFO StandaloneSchedulerBackend: Granted executor ID app-20161216154932-0009/0 on hostPort 200.17.78.23:54671 with 6 cores, 1024.0 MB RAM 
16/12/16 15:49:32 INFO StandaloneAppClient$ClientEndpoint: Executor added: app-20161216154932-0009/1 on worker-20161215083737-200.17.78.26-33946 (200.17.78.26:33946) with 4 cores 
16/12/16 15:49:32 INFO StandaloneSchedulerBackend: Granted executor ID app-20161216154932-0009/1 on hostPort 200.17.78.26:33946 with 4 cores, 1024.0 MB RAM 
16/12/16 15:49:32 INFO StandaloneAppClient$ClientEndpoint: Executor added: app-20161216154932-0009/2 on worker-20161215084302-200.17.78.27-57926 (200.17.78.27:57926) with 4 cores 
16/12/16 15:49:32 INFO StandaloneSchedulerBackend: Granted executor ID app-20161216154932-0009/2 on hostPort 200.17.78.27:57926 with 4 cores, 1024.0 MB RAM 
16/12/16 15:49:32 INFO StandaloneAppClient$ClientEndpoint: Executor added: app-20161216154932-0009/3 on worker-20161215083727-200.17.78.25-56713 (200.17.78.25:56713) with 4 cores 
16/12/16 15:49:32 INFO StandaloneSchedulerBackend: Granted executor ID app-20161216154932-0009/3 on hostPort 200.17.78.25:56713 with 4 cores, 1024.0 MB RAM 
16/12/16 15:49:32 INFO Utils: Successfully started service 'org.apache.spark.network.netty.NettyBlockTransferService' on port 48945. 
16/12/16 15:49:32 INFO NettyBlockTransferService: Server created on 200.17.78.23:48945 
16/12/16 15:49:32 INFO StandaloneAppClient$ClientEndpoint: 
Executor added: app-20161216154932-0009/4 on worker-20161215084213-200.17.78.24-54792 (200.17.78.24:54792) with 4 cores 
16/12/16 15:49:32 INFO StandaloneSchedulerBackend: Granted executor ID app-20161216154932-0009/4 on hostPort 200.17.78.24:54792 with 4 cores, 1024.0 MB RAM 
16/12/16 15:49:32 INFO BlockManagerMaster: Registering BlockManager BlockManagerId(driver, 200.17.78.23, 48945) 
16/12/16 15:49:32 ERROR TransportRequestHandler: Error while invoking RpcHandler#receive() for one-way message. 
java.io.InvalidClassException: org.apache.spark.deploy.DeployMessages$ExecutorUpdated; local class incompatible: stream classdesc serialVersionUID = 1654279024112373855, local class serialVersionUID = 3598161183190952796 
    at java.io.ObjectStreamClass.initNonProxy(ObjectStreamClass.java:612) 
    at java.io.ObjectInputStream.readNonProxyDesc(ObjectInputStream.java:1630) 
    at java.io.ObjectInputStream.readClassDesc(ObjectInputStream.java:1521) 
    at java.io.ObjectInputStream.readOrdinaryObject(ObjectInputStream.java:1779) 
+0

привет, у меня есть такая же проблема, вы нашли какой-то способ обойти? –

ответ

0

Я хотел бы ответить на этот вопрос, чтобы помочь тем, кто попал в такую ​​же проблему в будущем.

Короткая версия:

проверить ваш Scala версия


Long Version:

Что я просто запустить демо, как ДАННОЙ:

public class SparkTest{ 
    public static void main(String[] args){ 
     JavaSparkContext sc = new JavaSparkContext("spark://masterIP:7077", "appName"); 
     System.out.println(sc.textFile("file.txt").count()); 
    } 
} 

Однако, Я ударяю ошибки, как при запуске:

17/04/20 20:11:39 ERROR StandaloneSchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up. 
17/04/20 20:11:39 WARN StandaloneSchedulerBackend: Application ID is not initialized yet. 
17/04/20 20:11:39 ERROR SparkContext: Error initializing SparkContext. 
java.lang.IllegalArgumentException: requirement failed: Can only call getServletHandlers on a running MetricsSystem 
    at scala.Predef$.require(Predef.scala:219) 
    at org.apache.spark.metrics.MetricsSystem.getServletHandlers(MetricsSystem.scala:91) 
    at org.apache.spark.SparkContext.<init>(SparkContext.scala:524) 
    at org.apache.spark.api.java.JavaSparkContext.<init>(JavaSparkContext.scala:58) 
    at cn.keepfight.spark.SparkTest.main(SparkTest.java:15) 
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) 
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
    at java.lang.reflect.Method.invoke(Method.java:498) 
    at com.intellij.rt.execution.application.AppMain.main(AppMain.java:147) 

И журнал Master Node как те:

17/04/20 20:21:47 ОШИБКА TransportRequestHandler: Ошибка при вызове RpcHandler # приема() для одностороннего сообщения. java.io.InvalidClassException: scala.collection.immutable.List $ SerializationProxy; локальный класс несовместим: stream classdesc serialVersionUID = -7905219378619747021, локальный класс serialVersionUID = 1

17/04/20 20:22:07 ERROR TransportRequestHandler: ошибка при вызове RpcHandler # receive() для одностороннего сообщения. java.io.InvalidClassException: scala.collection.immutable.List $ SerializationProxy; локальный класс несовместимые: поток classdesc serialVersionUID = -7905219378619747021, локальная сл задница serialVersionUID = 1

17/04/20 20:22:47 INFO Мастер: 10.10.18.96:33722 получил диссоциирует, удаляя его. 17/04/20 20:22:47 INFO Мастер: 10.10.18.96:45147 получил disassociated, удалил его.

Во-первых, я просто поохотиться для решения Application ID is not initialized yet, однако, когда я проверяю журнал мастер-узла, я считаю, что ошибка, которую я сделать принимает версию 2.10 Рамочную поддержки Scala в моем IDEA. И мой кластер работает на версии 2.11.

 Смежные вопросы

  • Нет связанных вопросов^_^