使用 Fluent Bit 获取数据
Fluent Bit 是一种开源代理,用于从各种源收集日志、指标和跟踪。 使用它可以在将事件数据发送到存储之前对事件数据进行筛选、修改和聚合。 本文指导你完成使用 Fluent Bit 将数据发送到 KQL 数据库的过程。
本文介绍如何使用 Fluent Bit 引入数据。
有关数据连接器的完整列表,请参阅数据连接器概述。
先决条件
- Fluent Bit。
- 具有支持 Microsoft Fabric 的容量的工作区。
- 具有引入权限的 KQL 数据库。
- KQL 查询集,稍后将称为查询环境。
- 用作 TargetURI 值的数据引入 URI。 有关详细信息,请参阅复制 URI。
创建 Microsoft Entra 服务主体
Microsoft Entra 服务主体可以通过 Azure 门户或通过编程方式进行创建,如以下示例所示。
此服务主体是连接器用来将数据写入 Kusto 中的表的标识。 授予此服务主体访问 Kusto 资源所需的权限。
通过 Azure CLI 登录到你的 Azure 订阅。 然后在浏览器中进行身份验证。
az login
选择要托管主体的订阅。 当你有多个订阅时,此步骤是必需的。
az account set --subscription YOUR_SUBSCRIPTION_GUID
创建服务主体。 在此示例中,服务主体名为
my-service-principal
。az ad sp create-for-rbac -n "my-service-principal" --role Contributor --scopes /subscriptions/{SubID}
从返回的 JSON 数据中复制
appId
、password
、tenant
供将来使用。{ "appId": "00001111-aaaa-2222-bbbb-3333cccc4444", "displayName": "my-service-principal", "name": "my-service-principal", "password": "00001111-aaaa-2222-bbbb-3333cccc4444", "tenant": "00001111-aaaa-2222-bbbb-3333cccc4444" }
现已创建了 Microsoft Entra 应用程序和服务主体。
创建目标表
Fluent Bit 以 JSON 格式将日志随以下三个属性转发:log
(dynamic)、tag
(string) 和 timestamp
(datetime)。
可以创建一个表,其中包含上述每个属性的列。 或者,如果你有结构化日志,则可以创建一个表,其中包含映射到自定义列的日志属性。 若要了解详细信息,请选择相关选项卡。
若要为来自 Fluent Bit 的传入日志创建表,请执行以下操作:
浏览至查询环境。
选择要在其中创建表的数据库。
运行以下
.create table
命令:.create table FluentBitLogs (log:dynamic, tag:string, timestamp:datetime)
传入的 JSON 属性会自动映射到正确的列中。
向服务主体授予权限
向通过创建 Microsoft Entra 服务主体得到的服务主体授予数据库引入者角色权限以使用数据库。 有关详细信息,请参阅示例。 将占位符 DatabaseName 替换为目标数据库的名称,将 ApplicationID 替换为创建 Microsoft Entra 服务主体时保存的 值AppId
。
.add database <DatabaseName> ingestors ('aadapp=<ApplicationID>;<TenantID>')
配置 Fluent Bit 以将日志发送到表
若要配置 Fluent Bit 以将日志发送到 Kusto 中的表,请创建经典模式或 YAML 模式配置文件,其中包含以下输出属性:
字段 | 描述 | 必需 | 默认 |
---|---|---|---|
Name | 管道名称。 | azure_kusto |
|
租户ID | 创建 Microsoft Entra 服务主体时使用的租户 ID。 | ✔️ | |
客户端ID | 创建 Microsoft Entra 服务主体时使用的应用程序 ID。 | ✔️ | |
客户端密钥 | 创建Microsoft Entra 服务主体时使用的客户端密钥值(密码)。 | ✔️ | |
ingestion_endpoint | 输入 Ingestion_Endpoint 中所述的值。 | ✔️ | |
数据库名称 | 包含日志表的数据库的名称。 | ✔️ | |
table_name | 创建目标表时使用的表的名称。 | ✔️ | |
ingestion_mapping_reference | 创建目标表时使用的引入映射的名称。 如果未创建引入映射,请从配置文件中删除该属性。 | ||
log_key | 日志内容的键名称。 例如:log 。 |
log |
|
tag_key | 标签的键名称。 如果 include_tag_key 为 false,则忽略。 |
tag |
|
include_time_key | 时间戳将追加到输出(如果已启用)。 使用 time_key 属性。 |
true |
|
time_key | 日志记录中时间戳的键名称。 如果 include_time_key 为 false,则忽略。 |
timestamp |
|
ingestion_endpoint_connect_timeout | 各种 Kusto 终结点的连接超时(以秒为单位)。 | 60s |
|
compression_enabled | 如果启用,则向 Kusto 发送压缩的 HTTP 有效负载 (gzip)。 | true |
|
ingestion_resources_refresh_interval | Kusto 终结点的引入资源刷新间隔(以秒为单位)。 | 3600 |
|
辅助角色 | 执行此输出刷新操作的工作线程数量。 | 0 |
若要查看示例配置文件,请选择相关选项卡:
[SERVICE]
Daemon Off
Flush 1
Log_Level trace
HTTP_Server On
HTTP_Listen 0.0.0.0
HTTP_Port 2020
Health_Check On
[INPUT]
Name tail
Path /var/log/containers/*.log
Tag kube.*
Mem_Buf_Limit 1MB
Skip_Long_Lines On
Refresh_Interval 10
[OUTPUT]
match *
name azure_kusto
tenant_id <TenantId>
client_id <ClientId>
client_secret <AppSecret>
ingestion_endpoint <IngestionEndpoint>
database_name <DatabaseName>
table_name <TableName>
ingestion_mapping_reference <MappingName>
ingestion_endpoint_connect_timeout <IngestionEndpointConnectTimeout>
compression_enabled <CompressionEnabled>
ingestion_resources_refresh_interval <IngestionResourcesRefreshInterval>
确认数据引入
数据到达表后,通过检查行计数来确认数据传输:
FluentBitLogs | count
若要查看日志数据示例,请运行以下查询:
FluentBitLogs | take 100