Я пытаюсь отфильтровать набор данных с значениями NA.found org.apache.spark.sql.DataFrameNaFunctions , но кажется, что его drop() или drop («any»), похоже, не работают должным образом. ..or пожалуйста, поделитесь использование в Java ..thank вы ...Любой пример использования Apache Spark org.apache.spark.sql.DataFrameNaFunctions? ..drop(), похоже, не работает?
import org.apache.spark.sql.DataFrameNaFunctions;
Dataset<Row> inputDS=spark.read().option("header","true").
csv("inputfile.csv");
inputDS.show();
//Updated dataset...remove null or NAN
DataFrameNaFunctions inputDatasetsansNullorNAN=new DataFrameNaFunctions(inputDS);
Dataset<Row> inputDSnulldropped=inputDatasetsansNullorNAN.drop();
inputDSnulldropped.show();
............
name item
1.Alice входного файла, молоко 2. Боб, нуль 3. NA,
4. Тест, a 5. N А, Н. А. 6. нуль, Н. А. 7. Боб, Н. А. 8. 9.
имя элемента 1.Alice молоко 2.Bob нуль 3.Test 4. NA NA NA 5.null 6.Bob Н.А.
спасибо .. получение DataframeNAFunctions из na и используя отбрасывание работа. Я попробовал другой фрагмент для значений, таких как NA или null .. но не получал его с помощью java ... inputDS.filter (! ($ Item == "null")) – Binu
извините, === это scala-стенография. Попробуйте inputDs.filter (col ("columnName"). NotEqual ("null")) –
Спасибо, что работает отлично. – Binu