ClickHouse 在头条的技术演进 陈星
2020-03-01 1041浏览
- 1.ClickHouse 在头条内部技术演化 陈星
- 2.⾃自我介绍
- 3.⾃自我介绍 - 10 year in database kernel(OLAP, warehouse) RD - Worked on DB2 LUW, DB2 BLU(dashDB), BigSQL(SQL on Hadoop) - 1+ years in Bytedance, and incubate ClickHouse development and deployment there
- 4.⽬目录 1. ClickHouse 简介 2. Bytedance 如何使用ClickHouse 3. 问题与解决方案 4. Q&A
- 5.ClickHouse 简介 1. Developed by Yandex, and open source since 2016 2. 查询性能优越的分析型引擎 3. 主要特点(not new) - Column oriented + vector execution - Local attached storage (not Hadoop ecosystem) - Linear scalable & Reliable(shard + replication) - SQL interface - Fast
- 6.ClickHouse 简介 - 性能优越的因素 1. Data Skipping - 分区以及分区剪枝 - 数据局部有序(LSM-like engine, zone map) 2. 资源的垂直整合 - 并发 MPP+ SMP(plan level) - Tuned执行层实现 (multi-variant agg implementation…, SIMD) 3. C++ Template Code
- 7.ClickHouse 简介 - 适用场景与不足 1. 适用场景 - 单表分析 或 colocate join case - distributed join 性能并不出色 2. 不足 - no transaction - batch data ingest - weak update/delete support - weak optimizer & query rewrite
- 8.Bytedance 如何使用ClickHouse 1. 选择ClickHouse的原因 产品需求 - 交互式分析能力 (in seconds) - 查询模式多变 - 以大宽表为主 - 数据量大 Open sourced MPP OLAP engine - (performance, feature, quality)
- 9.Bytedance 如何使用ClickHouse 1. 几千个节点, 最大集群1200个节点 2. 数据总量 ~ 几十PB 3. 日增数据 ~ 100TB 4. 查询响应时间(mostly) ~ ms - 30s 5. 覆盖下列用户 - 产品运营,分析师 - 开发人员 - 少量广告类用户 - openapi
- 10.Bytedance 如何使用ClickHouse 产品运营 ⽤用户⾏行行为分析平台 研发⼈人员 ⾃自研BI系统 其他 SQL ⽹网关 ClickHouse集群 数据ETL 服务 数据仓库(HIVE) Kafka RDBMS(MYSQL) Mini batch Data
- 11.Bytedance 如何使用ClickHouse - 多种数据源 (离线 + 实时 + …) - 交互式分析 - 数据处理链路对业务方透明 满足数据中台对数据查询需求。
- 12.问题与解决⽅方案
- 13.数据源->ClickHouse 服务化 服务化与自动化中的问题 CH Node 数据 就 绪? ETL CH Node CH Node HDFS 消息中间件 其他 1. HDFS 数据访问 2. 数据导入过程中Fail over 3. CH数据就绪速度(Part 生成)
- 14.数据源->ClickHouse 服务化 1. 增加 HDFS 数据访问能力(HDFS client porting from HAWQ) 2. ETL服务维护外部事务保障数据一致性(fail over) 3. INSERT INTO LOCAL TABLE 4. 数据构建与查询分离 (experimental feature)
- 15.Map 数据类型 - 动态Schema 1. 客户端上报字段多变 (自定义参数) 2. 数据产品需要相对固定schema Engine fix this Gap by Map type 性能需求: 访问MAP 键值需要与访问POD 类型的列速度一致 实现方式: LOB ? Two-implicit column? Other
- 16.Map 数据类型 - 动态Schema 1. 数据特征: # keys 总量可控, 局部有限 2. 局部(PART level)展平模型 (自描述)
- 17.Map 数据类型 - 动态Schema 1. MAP键访问自动改写 e.g. “select c_map{‘a’} from table” will be rewrote to “select c_map_a from table” 2. MAP列访问 (代价较大) e.g. select c_map from table 3. Merge阶段优化(无需重构MAP column) 4. 收益: - 自动化接入 - Table schema 简化 - 极大简化数据构建(ETL)逻辑
- 18.Map 数据类型 - 动态Schema 语法: • Create table t(c1 UInt64, c2 Map(String, UInt8)) ENGINE=MergeTree…. • insert into t values(1, {'abc':1, ‘bcd':2}) • Select c2{‘abc’} from t
- 19.High Volume Data & High Availability (zookeeper 使用问题) 1. 两副本保障数据/服务 2. ReplicatedMergeTree in ClickHouse (Issue) - Async Master-Master replication -
- 20.High Volume Data & High Availability (zookeeper 使用问题) 1. ReplicatedMergeTree的问题 - ZooKeeper压力大,znode太多 - 400 Nodes 集群, 半年数据, 800万znodes 2. ReplicatedMergeTree use ZK tostore:- Table schema - 副本状态(part info & log info) - 分片(shard) 状态 Catalog service + mini log service + coordinate service
- 21.High Volume Data & High Availability (Zookeeper问题) 1. 数据继续增长会导致ZK无法服务 2. 社区mini checksum in zk能缓解内存使用,但不能解决问题 3. 基于MergeTree开发HA 方案
- 22.High Volume Data & High Availability - HaMergeTree 1. ZooKeeper只用作coordinate - Log Sequence Number(LSN) 分配 - 数据Block ID 分配 - 元数据管理 2. 节点维护local log service (action log) 3. Log 在分片内部节点间通过Gossip协议交互 4. 数据信息(parts) 按需交互 5. 外部接口与社区兼容(例如:multi-master写 入) ZK(LSN/ID alloc, metadata) Replica Part/Log INFO Replica
- 23.High Volume Data & High Availability - HaMergeTree ZK(LSN/ID alloc, metadata) 1 Insert Replica A 2’ 2 3 Replica B 1. A 获取LSN和Block ID 2. A Push log to active replica B 2’. B get its log lags from ZK and pull from A 3. B redo the log and get Block from A
- 24.High Volume Data & High Availability - HaMergeTree 1. ZooKeeper压力不会随着数据量增长 2. ~ 3M znodes in ZK 3. 保障数据&服务高可用
- 25.String 类型处理效率 - Global Dictionary 1. String 类型的滥用(from HIVE), 处理低效 2. Why not LowCardinalityColumn? 3. 算子尽量在压缩域上执行(actionable compression) - pure dictionary compression - predication (equality family) - group by (single/composite keys)
- 26.String 类型处理效率 - Global Dictionary 1. Per replica字典(异步)构建 - why not cluster level/shard level? 2. Support xxMergeTree only INSERT MERGE PART ROLLIN Async check & recode WriteData & Dict (MergedBlockO utPutStream)
- 27.String 类型处理效率 - Global Dictionary 1. 压缩域执行 Select Analyze and Rewrite Read compressed string as code Decompress(optional) Execute actions on code
- 28.String 类型处理效率 - Global Dictionary 1. 分布式表字典 (per shard, per replica) 2. 分布式表压缩域执行 3. 性能提升约 20% ~ 30%
- 29.特定场景内存OOM - Step-ed Aggregation 1. Query:60天内用户转化率/行为路径,以及对应每天转化率 2. 内存使用量大,OOM对服务稳定性影响 3. Aggregator无法感知底层数据特性
- 30.特定场景内存OOM - Step-ed Aggregation 1. Aggregator 由执行HINT控制 2. HINT 感知数据分区/指标语义 3. Blocked Aggregator 按partition pipeline计算指标。 收益:内存使用比默认方式降低约五倍
- 31.Array类型处理 - BloomFilter & BitMap index 1. Array类型用来表示实验ID 2. Query:命中某些实验的用户指标 3. 单条记录Array(实验)~ 几百 or 上千 Array col.bin Array col in Block Array hasAny
- 32.Array类型处理 - BloomFilter & BitMap index 1. 需要辅助信息减少 Array column materialize - Two scale BloomFilter (Part level, MRK range level) 2. 减少Long Array column in Runtime Block - Transform hasAny into BitMap index OR-ing Array Column —> value+BitMap 集合 has(array, value) —> get BitMap (执行层自动改写)
- 33.其他问题与改进 1. HaKafka engine (主备容错的kafka engine) 2. 轻量级update/delete支持 (基于delta表的方案) 3. 多尺度分区 (小文件读取问题) ….
- 34.Bytedance ClickHouse TODO 1. 控制面开发,简化运维 2. Query cache支持 3. 数据导入原子性支持 4. 物化视图增强 5. 分布式Join …
- 35.⾃自我介绍
- 36.