Monolog 优化及打造 ELK 友好的日志格式

分享 leo ⋅ 于 2017-01-04 16:34:55 ⋅ 最后回复由 羽落 2017-01-11 16:00:25 ⋅ 580 阅读

Monolog 是目前最流行的php日志库,许多流行的php框架都用Monolog作为默认的日志库,例如symfony、laravel。

默认情况下,symfony、laravel在打印日志时都是来一条日志就打印一行到日志文件,这样就没有办法按照请求将日志聚合起来,更麻烦的是,多个并发的请求打印的日志是交叉的,这给本地调试、线上排查bug带来了许多麻烦。另外一个附带的问题是每写一行日志都得打开日志文件、写入日志、关闭日志文件,会产生大量的磁盘IO(即使是使用Monolog自带的BufferHandler将当前请求产生的所有日志缓冲到内存,等到请求结束再统一写入日志文件,也是每一条日志都得打开、写入、关闭日志文件)。

我希望的结果是:

  • 一次请求所产生的日志需要一次打开、写入、关闭日志文件。
  • 一次请求所产生的日志是紧密相连的,不会因为高并发而产生日志交叉的情况。
  • 能够通过Logstash的multiline来聚合一次请求所产生的所有日志。
  • 一些访问数据(如访问时间、访问者IP、访问的Url、该请求的执行时间等)能够被Logstash直接解析成字段,并能够在Kibana中查询、筛选。

最终代码如下:

namespace App\Extensions\Log;

use Carbon\Carbon;
use Monolog\Handler\StreamHandler;
use Monolog\Logger;

class AggregateFileHandler extends StreamHandler
{
    public function handleBatch(array $records)
    {
        $dur     = number_format(microtime(true) - LARAVEL_START, 3);
        $request = request();
        $format  = 'Y-m-d H:i:s.u';
        // 这一行是我们这个处理器自己加上的日志,记录请求时间、响应时间、访客IP,请求方法、请求Url
        $log     = sprintf(
            "[%s][%s]%s %s %s\n",
            Carbon::createFromFormat('U.u', sprintf('%.6F', LARAVEL_START), config('app.timezone'))->format($format),
            $dur,
            $request->getClientIp(),
            $request->getMethod(),
            $request->getRequestUri()
        );
        // 然后将内存中的日志追加到$log这个变量里
        foreach ($records as $record) {
            if (!$this->isHandling($record)) {
                continue;
            }
            $record = $this->processRecord($record);
            $log .= $this->getFormatter()->format($record);
        }
        // 调用日志写入方法
        $this->write(['formatted' => $log]);
    }
}

需要BufferHandler来配合使用:

$handler = new AggregateFileHandler($path_to_log_file);
$handler->setFormatter(
    new LineFormatter("[%datetime%]%level_name% %message% %context% %extra%\n", 'i:s', true, true)
);
$monolog->pushHandler(new BufferHandler($handler));

AggregateRotatingFileHandler类只实现了一个handleBatch方法,BufferHandler会在请求结束时去调用handleBatch方法,因为我们不考虑单独使用这个处理器的情况,所以就没有去重写handler方法(实际上重写了也没法满足我们的需求)。

Logstash的配置如下:

input {
    file {
        type => 'monolog'
        path => "/home/vagrant/website/logs/app.log"
    }
}
filter {
    if [type] == 'monolog' {
        multiline {
            pattern => "\[[\d\-\: ]+?\]\[[\d\.]+?\]\d+\.\d+\.\d+\.\d+ \S+ \S+"
            negate => true
            what => "previous"
        }
        grok {
            match => ["message", "\[%{TIMESTAMP_ISO8601:time}\]\[%{NUMBER:duration}\]%{IP:ip} %{WORD:method} %{DATA:url}\n%{GREEDYDATA:data}"]
        }
    }
}

贴一个从ElasticSearch中查出的日志

{
  "_index" : "monolog",
  "_type" : "monolog",
  "_id" : "AVkgdHh4eDK8-gwc8OTf",
  "_score" : 1.0,
  "_source" : {
    "message" : "[2016-12-21 08:16:27.373000][2.421]127.0.0.1 GET / \n[16:29]INFO Test Log 1\n[16:29]INFO Test Log 2",
    "@version" : "1",
    "@timestamp" : "2016-12-21T08:16:55.485Z",
    "path" : "/home/vagrant/online/website/logs/monolog.log",
    "host" : "0.0.0.0",
    "type" : "monolog",
    "tags" : [ "multiline" ],
    "time" : "2016-12-21 08:16:27.373000",
    "duration" : "2.421",
    "ip" : "127.0.0.1",
    "method" : "GET",
    "url" : "/",
    "data" : "[16:29]INFO Test Log 1\n[16:29]INFO Test Log 2"
  }
}
本帖已被设为精华帖!
本帖由 Summer 于 2周前 加精
回复数量: 4
  • TimJuly
    2017-01-05 10:35:56

    假设一次请求在程序内分别调用内网的另外 A,B 两个服务,怎么进行日志收集.

  • leo MOD 不会写前端的后端不是好运维
    2017-01-05 10:42:38

    @TimJuly 可以引入一个叫LogId的东西,用户的请求会产生一个随机的LogId,通过LogId来关联各个地方的日志,比如:

    • 通过Http头将LogId返回给用户,这样可以在nginx的日志里记录下LogId,nginx的日志和应用日志就可以通过LogId关联起来。
    • 请求内部服务时将LogId带上,内服服务接受LogId并在打印日志的时候把LogId也打印出来,这样应用日志和内部服务的日志也可以通过LogId关联起来。
  • TimJuly
    2017-01-05 10:46:01

    @leo Get~

  • 羽落
    2017-01-11 16:00:25

    adffd

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,使用方法请见 Emoji 自动补全来咯,可用的 Emoji 请见 :metal: :point_right: Emoji 列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter