kafka-logger

属性

该插件支持使用批处理器来聚合并批量处理条目(日志/数据)。这样可以避免插件频繁地提交数据,默认设置情况下批处理器会每 5 秒钟或队列中的数据达到 1000 条时提交数据,如需了解批处理器相关参数设置,请参考 Batch-Processor 配置部分。

提示

数据首先写入缓冲区。当缓冲区超过 batch_max_sizebuffer_duration 设置的值时,则会将数据发送到 Kafka 服务器并刷新缓冲区。

如果发送成功,则返回 true。如果出现错误,则返回 nil,并带有描述错误的字符串 buffer overflow

  • origin:

    1. GET /hello?ab=cd HTTP/1.1
    2. host: localhost
    3. connection: close
    4. abcdef
名称类型必选项默认值描述
log_formatobject{“host”: “$host”, “@timestamp”: “$time_iso8601”, “client_ip”: “$remote_addr”}以 JSON 格式的键值对来声明日志格式。对于值部分,仅支持字符串。如果是以 $ 开头,则表明是要获取 APISIX 变量 或 。
kafka-logger - 图2注意

该设置全局生效。如果指定了 log_format,则所有绑定 kafka-logger 的路由或服务都将使用该日志格式。

以下示例展示了如何通过 Admin API 配置插件元数据:

  1. {"host":"localhost","@timestamp":"2020-09-23T19:05:05-04:00","client_ip":"127.0.0.1","route_id":"1"}
  2. {"host":"localhost","@timestamp":"2020-09-23T19:05:05-04:00","client_ip":"127.0.0.1","route_id":"1"}

如何启用

你可以通过如下命令在指定路由上启用 kafka-logger 插件:

该插件还支持一次推送到多个 Broker,示例如下:

  1. {
  2. "host" :"127.0.0.1",
  3. "port" : 9092
  4. },
  5. {
  6. "host" :"127.0.0.1",
  7. "port" : 9093
  8. ],

你可以通过以下命令向 APISIX 发出请求:

禁用插件

  1. curl http://127.0.0.1:9180/apisix/admin/routes/1 \
  2. -H 'X-API-KEY: edd1c9f034335f136f87ad84b625c8f1' -X PUT -d '
  3. {
  4. "methods": ["GET"],
  5. "uri": "/hello",
  6. "plugins": {},
  7. "upstream": {
  8. "type": "roundrobin",
  9. "nodes": {
  10. "127.0.0.1:1980": 1
  11. }
  12. }