2016-11-30 7 views
0

Я пытаюсь собрать журнал докеров, используя fluentd и elasticsearch. Вот мои журналы, начинающиеся с fluentd.Почему не работает мой flentd с elasticsearch

2016-11-30 16:29:34 +0800 [info]: starting fluentd-0.12.19 
2016-11-30 16:29:34 +0800 [info]: gem 'fluent-mixin-config-placeholders' version '0.3.0' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluent-mixin-plaintextformatter' version '0.2.6' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluent-plugin-elasticsearch' version '1.7.0' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluent-plugin-mongo' version '0.7.11' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluent-plugin-rewrite-tag-filter' version '1.5.3' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluent-plugin-s3' version '0.6.4' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluent-plugin-scribe' version '0.10.14' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluent-plugin-secure-forward' version '0.4.3' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluent-plugin-td' version '0.10.28' 
2016-11-30 16:29:34 +0800 [info]: gem 'fluent-plugin-td-monitoring' version '0.2.1' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluent-plugin-webhdfs' version '0.4.1' 

2016-11-30 16:29:34 +0800 [info]: gem 'fluentd' version '0.12.19' 

2016-11-30 16:29:34 +0800 [info]: adding match pattern="td.*.*" type="tdlog" 

2016-11-30 16:29:34 +0800 [info]: adding match pattern="debug.**" type="stdout" 

2016-11-30 16:29:34 +0800 [info]: adding match pattern="docker.**" type="stdout" 

2016-11-30 16:29:34 +0800 [info]: adding match pattern="*.**" type="copy" 

2016-11-30 16:29:35 +0800 [info]: adding source type="forward" 
2016-11-30 16:29:35 +0800 [info]: adding source type="http" 
2016-11-30 16:29:35 +0800 [info]: adding source type="debug_agent" 
2016-11-30 16:29:35 +0800 [info]: using configuration file: <ROOT> 

    <match td.*.*> 
    type tdlog 
    apikey xxxxxx 
    auto_create_table 
    buffer_type file 
    buffer_path /var/log/td-agent/buffer/td 
    <secondary> 
     type file 
     path /var/log/td-agent/failed_records 
     buffer_path /var/log/td-agent/failed_records.* 
    </secondary> 
    </match> 
    <match debug.**> 
    type stdout 
    </match> 
    <match docker.**> 
    type stdout 
    </match> 
    <match *.**> 
    type copy 
    <store> 
     @type elasticsearch 
     host localhost 
     port 9200 
     include_tag_key true 
     tag_key log_name 
     logstash_format true 
     flush_interval 1s 
    </store> 
    </match> 
    <source> 
    type forward 
    </source> 
    <source> 
    type http 
    port 8888 
    </source> 
    <source> 
    type debug_agent 
    bind 127.0.0.1 
    port 24230 
    </source> 
</ROOT> 

2016-11-30 16:29:35 +0800 [info]: listening fluent socket on 0.0.0.0:24224 
2016-11-30 16:29:35 +0800 [info]: listening dRuby uri="druby://127.0.0.1:24230" object="Engine" 
2016-11-30 16:29:38 +0800 docker.40271db2b565: {"log":"1:M 30 Nov 08:29:38.065 # User requested shutdown...","container_id":"40271db2b565d52fa0ab54bde2b0fa4b61e4ca033fca2b7edcf54c1a93443c19","container_name":"/tender_banach","source":"stdout"} 

Я использую конфигурацию по умолчанию elasticsearch, и после того, как я начал, он продолжает вести журнал таким образом.

[2016-11-30T16: 49: 32154] [WARN] [oecraDiskThresholdMonitor] [I_hB3Vd] высокий диск водяного знака [90%] превышены [I_hB3VdfQ3q3hBeP5skTBQ] [I_hB3Vd] [/ Users/он/Desktop/elasticsearch-5.0.1/данных/узлы/0] бесплатно: 10gb [8,9%], осколки будут перемещены от этого узла

elasticsearch Моя версия 5.0.1, fluentd версии и fluent-plugin-elasticsearch это показано выше. Я использую Mac OS 10.11.6. Я пробовал все методы, которые я мог найти в Интернете, каждый может предложить помощь?

ответ

0

забыл сказать, что мой elasticsearch версия 5.0.1, и моя версия fluentd и свободно-плагин-elasticsearch будет показано выше, и я использую Mac OS 10.11.6

0

Похоже fluentd начинает просто отлично , Я бы сказал, что это проблема с вашим elasticsearch (узел данных, если у вас несколько узлов). Ошибка говорит, что это ... похоже на проблему с дисковым пространством на одном из ваших узлов.