Есть несколько вариантов, чтобы получить доступ к библиотекам R в Spark:Использование R в Apache Спарк
- непосредственно с помощью sparkr
- с использованием языка привязок, как rpy2 или
rscala
- с использованием автономной службы, как opencpu
Похоже, что SparkR довольно ограничен, OpenCPU требует сохранения дополнительных сервисов, а привязки могут иметь значение sta проблема. Есть ли что-то особенное для архитектуры Spark, которые делают использование любого решения непростым.
Есть ли у вас опыт интеграции R и Spark, которыми вы можете поделиться?
Считаете ли вы, что OpenCPU не является хорошим вариантом? –
@CafeFeed У меня нет опыта с этим. – lgautier