2016-11-17 2 views
0

Я бегу в проблему с ошибкойlogspout записи: подключение отказался

# logspout v3.2-dev-custom by gliderlabs 
# adapters: raw tcp logstash udp syslog 
# options : persist:/mnt/routes 
# jobs : http[]:80 pump routes 
# routes : 
# ADAPTER  ADDRESS   CONTAINERS  SOURCES OPTIONS 
# logstash 0.0.0.0:5000       map[] 
2016/11/17 07:15:57 logstash: could not write:write udp 127.0.0.1:34146->127.0.0.1:5000: write: connection refused 

после того, как я начала адаптер как sudo docker run --name="logspout" --volume=/var/run/docker.sock:/var/run/docker.sock -e ROUTE_URIS=logstash://0.0.0.0:5000 c045f1a3472b

logstash 5,0 Docker контейнер работает с бревном

Sending Logstash's logs to /var/log/logstash which is now configured via  log4j2.properties 
07:04:11.987 [[main]-pipeline-manager] INFO logstash.inputs.tcp -   Automatically switching from json to json_lines codec {:plugin=>"tcp"} 
07:04:11.987 [[main]<udp] INFO logstash.inputs.udp - Starting UDP listener {:address=>"0.0.0.0:5000"} 
07:04:12.003 [[main]-pipeline-manager] INFO logstash.inputs.tcp - Starting tcp input listener {:address=>"0.0.0.0:5000"} 
07:04:12.409 [[main]-pipeline-manager] INFO logstash.outputs.elasticsearch - Elasticsearch pool URLs updated {:changes=>{:removed=>[], :added=> ["https://~hidden~:[email protected]:9243"]}} 
07:04:12.410 [[main]-pipeline-manager] INFO logstash.outputs.elasticsearch - Using mapping template from {:path=>nil} 
07:04:13.612 [[main]-pipeline-manager] INFO logstash.outputs.elasticsearch - Attempting to install template {:manage_template=>{"template"=>"logstash-*", "version"=>50001, "settings"=>{"index.refresh_interval"=>"5s"}, "mappings"=>{"_default_"=>{"_all"=>{"enabled"=>true, "norms"=>false}, "dynamic_templates"=>[{"message_field"=>{"path_match"=>"message", "match_mapping_type"=>"string", "mapping"=>{"type"=>"text", "norms"=>false}}}, {"string_fields"=>{"match"=>"*", "match_mapping_type"=>"string", "mapping"=>{"type"=>"text", "norms"=>false, "fields"=>{"keyword"=>{"type"=>"keyword"}}}}}], "properties"=>{"@timestamp"=>{"type"=>"date", "include_in_all"=>false}, "@version"=>{"type"=>"keyword", "include_in_all"=>false}, "geoip"=>{"dynamic"=>true, "properties"=>{"ip"=>{"type"=>"ip"}, "location"=>{"type"=>"geo_point"}, "latitude"=>{"type"=>"half_float"}, "longitude"=>{"type"=>"half_float"}}}}}}}} 
07:04:13.705 [[main]-pipeline-manager] INFO logstash.outputs.elasticsearch - New Elasticsearch output {:class=>"LogStash::Outputs::ElasticSearch", :hosts=>["fc4fba7c82d6102f5c1a224f0e9f2e9a.us-east-1.aws.found.io:9243"]} 
07:04:13.710 [[main]-pipeline-manager] INFO logstash.pipeline - Starting pipeline {"id"=>"main", "pipeline.workers"=>1, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>5, "pipeline.max_inflight"=>125} 
07:04:13.717 [[main]-pipeline-manager] INFO logstash.pipeline - Pipeline main started 
07:04:13.802 [Api Webserver] INFO logstash.agent - Successfully started  Logstash API endpoint {:port=>9600} 

Я пытаюсь отправить отдельные журналы контейнеров докеров в эластичное облако, используя logspout и logstash, где logstash, nginx, web и т. Д. Находятся на ec2 пример. Спасибо за помощь.

+0

Похоже, вы пытаетесь записать на localhost, когда я предполагаю, что logstash и logspout находятся в разных контейнерах. Не могли бы вы рассказать о своей настройке? Написать? Сеть? Как выполняется каждый контейнер? – johnharris85

+1

Эй, @ johnharris85! спасибо, что направил меня в правильном направлении. Да, ошибка заключалась в записи на хосте, а не в контейнере logstash. Проблема решена с использованием устаревшего соединения двух контейнеров. Просто создал docker-compose.yml с обоими контейнерами и исправил проблему. Еще раз спасибо. –

ответ

0

У меня была такая же самая точная проблема при запуске logstash и logspout в отдельных контейнерах. В моем случае logspout пыталась записать в logstash до того, как была готова к запуску logstash, и это вызвало ошибку logspout-контейнера, а затем сбой. Это было разрешено добавлением переменной среды RETRY_SEND в службу logspout в файле компоновки docker.

 Смежные вопросы

  • Нет связанных вопросов^_^