clickhouse系统表日志清理方式详解


    目录
  • 简介
  • 清理
    • 清理方式
  • 实际操作
    • 方案选择
    • 删除数据
    • 查看任务执行情况
    • 单机操作
    • 设置TTL
  • 总结

    简介
    

    clickhouse会将查询日志,度量日志和堆栈采集日志记录下来,存储到自身数据库的system库中, 分别是query_log,query_thread_log,trace_log,metric_log等5个表,如果长时间不清查,该表数据会一直累积。
    清理
    清理方式
    清理这些日志表有多种方式
    第1种是设置表的TTL,clickhouse是支持设置表的TTL,不管是系统表还是业务表。
    第2种是使用DDL语句+DML语句删除指定范围内数据
    第3种配置文件设置,在config.xml中提供了日志表的配置
    
    字段释义:
    
  • database – 数据库名
  • table – 日志存放的系统表名
  • partition_by — 系统表分区键,如果定义了 engine 则不能使用
  • engine -系统表 表引擎,如果定义了 partition_by 则不能使用
  • flush_interval_milliseconds – 将数据从内存的缓冲区刷新到表的时间间隔。
  • ttl 保存时间

    图中没有ttl的配置,可以自行添加, event_date是表中的时间字段,格式是: 2020-01-01
    
<!--
            Table TTL specification: https://clickhouse.com/docs/en/engines/table-engines/mergetree-family/mergetree/#mergetree-table-ttl
            Example:
                event_date + INTERVAL 1 WEEK
                event_date + INTERVAL 7 DAY DELETE
                event_date + INTERVAL 2 WEEK TO DISK 'bbb'
-->
        <ttl>event_date + INTERVAL 7 DAY DELETE</ttl>

    实际操作
    方案选择
    第3种改配置文件方案适合在集群搭建的时候,后期再改就需要重启服务,因服务不能随意重启,需要配置维护期间操作,所以不具灵活性,排除掉了。
    第1种设置TTL的方案也是可以的,但是现在不合适,因为已经累积了很长时间的数据,数据量比较大,直接设置会消耗比较多的资源
    所以会使用第2种+第1种组合方案,先分批删除历史的日志,然后再使用第1种方案设置TTL。这样后期就不需要维护了
    删除数据
    使用DDL+DML语句删除指定日期内的数据
    先用小一点的表操作一下,通常trace_log比较小,query_log表比较大
    
use system;
#统计一下2020年有多少条数据
select count(*) from trace_log where event_date >= '2020-01-01' and  event_date <= '2020-12-31';
#根据统计,只有几十万或者几百万的话,可以执行删除
alter table trace_log delete where event_date >= '2020-01-01' and  event_date <= '2020-12-31';

    clickhouse的delete,update等操作是异步的,当sql语句一提交,就会有反馈,这个时候是将任务提交到排队执行了
    如果表非常小,不想选定时间范围。也可以一次性清完
    
ALTER table `system`.trace_log DELETE where event_date is not null;

    查看任务执行情况
    队列数据在mutations表中
    
#统计历史次数
select count(*) from mutations;
#排序,查看最新10条
select database,table,command,create_time,is_done from mutations order by create_time desc limit 10;

    
    表信息显示了命令发现的在system库,表名已经执行命令的时间,判断sql是正在排还是已经执行完成的是is_done字段。1表示执行完成,0表示正在排队
    单机操作
    clickhouse是支持创建集群库,集群表的,但是system库属于系统自带的,需要查看库和表的创建信息
    
show create database system;
show create table trace_log;

    因为system属于系统自带的库,集群建好时已存在,但是创建该库的sql文件确没有,所以报错。
    但是查看clickhouse元数据文件时发现 data/system/trace_log文件在变小,说明本节点删除成功了,如果换个节点执行sql语句又能查出来。
    所以需要在每个节点上执行删除数据语句
    在元数据存储的目录可以看到有个mutations_xxxx.log的文件,是删除语句的记录日志 data/system/trace_log
    元数据的配置
    
<!-- Path to data directory, with trailing slash. -->
<path>xxxxx/clickhouse/data/</path>

    设置TTL
    大部分数据删除完成之后,就可以设置TTL了
    
#系统表
ALTER table `system`.trace_log MODIFY TTL event_date + toIntervalDay(30);
#业条表
ALTER TABLE `test`.app_version MODIFY TTL time_stamp + toIntervalYear(30);

    总结
    通过删除表数据+设置TTL的方式,后期就可以0维护了
    系统表日志处理是日常数据维护的一种,业务数据的清理也可以参考这些方案