Используя Logstash как грузоотправитель?

Мы поставляем журналы с серверов и используем logstash на каждом сервере для поставки.

Таким образом, мы читаем журналы из шарика "/root/Desktop/Logstash-Input/**/*_log".

 input {
            file{
                    path => "/root/Desktop/Logstash-Input/**/*_log"
                    start_position => "beginning"
            }
    }

От этого шарика мы извлекаем поля из path который мы хотим добавленный к событию. Например: из каталога path извлеките server, logtype, и т.д. Мы делаем это:

filter {

grok {

        match => ["path", "/root/Desktop/Logstash-Input/(?<server>[^/]+)/(?<logtype>[^/]+)/(?<logdate>[\d]+.[\d]+.[\d]+)/(?<logfilename>.*)_log"]
}
}

И затем мы производим эти журналы к центральному logstash использованию сервера lumberjack выходной плагин.

output {

        lumberjack {
                hosts => ["xx.xx.xx.xx"]
                port => 4545
                ssl_certificate => "./logstash.pub"
    }

        stdout { codec => rubydebug }
}

Проблема состоит в том, что журналы, поставленные в центральный сервер, освобождают поля, добавило использование grok. Например, server, logtype, и т.д. не присутствуют на центральном сервере. Однако клиентская консоль машины показывает добавленные поля, но на центральном logstash сервере только message, timestamp , version присутствует.

Клиент (от того, куда журналы поставляются), консоль:

output received {:event=>{"message"=>"2014-05-26T00:00:01+05:30 host crond[268]: (root) CMD (2014/05/31/server2/cron/log)", "@version"=>"1", "@timestamp"=>"2014-07-16T06:07:21.927Z", "host"=>"host", "path"=>"/root/Desktop/Logstash-Input/Server2/CronLog/2014.05.31/cron_log", "server"=>"Server2", "logtype"=>"CronLog", "logdate"=>"2014.05.31", "logfilename"=>"cron"}, :level=>:debug, :file=>"(eval)", :line=>"37"}
    {
              "message" => "2014-05-26T00:00:01+05:30 bx920as1 crond[268]: (root) CMD (2014/05/31/server2/cron/log)",
             "@version" => "1",
           "@timestamp" => "2014-07-16T06:07:21.927Z",
                 "host" => "host",
                 "path" => "/root/Desktop/Logstash-Input/Server2/CronLog/2014.05.31/cron_log",
               "server" => "Server2",
              "logtype" => "CronLog",
              "logdate" => "2014.05.31",
          "logfilename" => "cron"
    }

Центральный Сервер (куда журналы поставляются в), консоль:

{
       "message" => "2014-07-16T05:33:17.073+0000 host 2014-05-26T00:00:01+05:30 bx920as1 crond[288]: (root) CMD (2014/05/31/server2/cron/log)",
      "@version" => "1",
    "@timestamp" => "2014-07-16T05:34:02.370Z"
}

Таким образом, grokked поля отбрасываются при поставке. Почему это так??

Как я могу сохранить поля??

3
задан 16 July 2014 в 09:23
1 ответ

Решено:

Я решил проблему, добавив кодек => "json" в свой выход и вход дровосека.

Выход:

output {

    lumberjack {
            hosts => ["xx.xx.xx.xx"]
            port => 4545
            ssl_certificate => "./logstash.pub"
            codec => "json"
}

Вход:

input { 
    lumberjack {
        port => 4545
        ssl_certificate => "/etc/ssl/logstash.pub"
        ssl_key => "/etc/ssl/logstash.key"  
        codec => "json"
  }
}
2
ответ дан 3 December 2019 в 07:02

Теги

Похожие вопросы