Я прочитал, возможно, Stackoverflow, что проекты es-hadoop/es-spark используют объемную индексацию. Если это так, то пакет Batchsize по умолчанию соответствует BulkProcessor (5Mb). Есть ли какая-либо конфигурация, чтобы изменить это.Elasticsearch hadoop настроить объемный размер партии
В моем коде используется JavaEsSparkSQL.saveToEs(dataset,index)
, и я хочу знать, какие доступные конфигурации можно настроить для настройки производительности. Связано это также с разбиением набора данных.