Мне нужно экспортировать все данные в ElasticSearch и переинсталлировать все эти данные.Экспортировать все данные ElasticSearch в файл JSON
Экспорт кода Java следующим образом.
SearchResponse response = client.prepareSearch("news")
.setTypes("news_data")
.setQuery(QueryBuilders.matchAllQuery())
.setSize(1000)
.setScroll(new TimeValue(600000))
.setSearchType(SearchType.SCAN)
.execute().actionGet();
String scrollid = response.getScrollId();
try {
//把导出的结果以JSON的格式写到文件里
BufferedWriter out = new BufferedWriter(new FileWriter("es", true));
while (true) {
SearchResponse response2 = client.prepareSearchScroll(scrollid)
.setScroll(new TimeValue(1000000))
.execute().actionGet();
SearchHits searchHit = response2.getHits();
//再次查询不到数据时跳出循环
if (searchHit.getHits().length == 0) {
break;
}
System.out.println("查询数量 :" + searchHit.getHits().length);
for (int i = 0; i < searchHit.getHits().length; i++) {
String json = searchHit.getHits()[i].getSourceAsString();
out.write(json);
out.write("\r\n");
}
}
System.out.println("查询结束");
out.close();
} catch (FileNotFoundException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
Число документов составляет около 140 Вт. Используйте этот код Java 60W документы могут быть экспортированы и выдают исключение.
远程主机强迫关闭了一个现有的连接
Во-первых, вам нужно обновить свой scrollid внутри цикла while. От https://www.elastic.co/guide/en/elasticsearch/reference/1.7/search-request-scroll.html#scroll-scan 'Первоначальный запрос поиска и каждый последующий запрос прокрутки возвращают новый _scroll_id - Должен использоваться только самый последний _scroll_id. ' Второй .. не уверен, сколько памяти ваше приложение будет потреблять с сохранением FileWriter для всех ваших сообщений. Возможно, вам лучше написать несколько файлов и закрыть промежуточные запросы прокрутки. – phuc77