Filebeat不会将日志发送到ELK docker堆栈上的日志堆栈

时间:2019-02-24 20:21:49

标签: docker elasticsearch containers logstash filebeat

我在docker上安装了ELK堆栈(每个都位于同一网络上的不同容器中,并且它们使用官方的elk映像)。 这是我配置麋鹿的方式:

1. sudo docker network create somenetwork

2.
sudo docker pull elasticsearch:6.6.1 
sudo docker run -dit --name elasticsearch -h elasticsearch --net somenetwork -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:6.6.1

3.
sudo docker pull kibana:6.6.1
sudo docker run -dit --name kibana -h kibana --net somenetwork -p 5601:5601 kibana:6.6.1

4. RUN logstash
sudo docker pull logstash:6.6.1
sudo docker run -it --name logstash -h logstash --net somenetwork -p 5044:5044 -v $(pwd)/pipeline/:/usr/share/logstash/pipeline -v $(pwd)/config/logstash.yml:/usr/share/logstash/config/logstash.yml logstash:6.6.1 logstash -f /usr/share/logstash/pipeline/logstash.conf

我还具有运行filebeat的应用程序容器,该容器具有“ log.out”日志文件。这是“ filebeat.yml”:

filebeat.prospectors:
- input_type: log
  enabled: true
  paths:
    - /home/log.out
output.logstash:
  hosts: ["logstash:5044"]

logstash配置文件logstash.conf:

input
{
        beats {
                port => 5044
                host => "0.0.0.0"
        }
}

output{
        elasticsearch { hosts => ["elasticsearch:9200"] }
}
  1. 我可以从应用程序容器中连接telnet($ telnet logstash 5044)。
  2. 如果我只是从logstash使用stdin(而没有从filebeat中获取日志),则可以在Kibana中看到日志。

我敢肯定我会错过一些简单的事情。我是麋鹿新手。谢谢

0 个答案:

没有答案
相关问题