數據計算層面:
向量化執行+SIMD(單指令多數據流)
* ClickHouse實現了向量執行引擎(Vectorized execution engine),對內存中的列式數據,一個batch調用一次SIMD指令(而非每一行調用一次),不僅減少了函數調用次數、降低了cache miss,而且可以充分發揮SIMD指令的并行能力,大幅縮短了計算耗時。向量執行引擎,通常能夠帶來數倍的性能提升。
動態代碼生成(Runtime Codegen)
* 在經典的數據庫實現中,通常對表達式計算采用火山模型,也即將查詢轉換成一個個operator,比如HashJoin、Scan、IndexScan、Aggregation等。為了連接不同算子,operator之間采用統一的接口,比如open/next/close。在每個算子內部都實現了父類的這些虛函數,在分析場景中單條SQL要處理數據通常高達數億行,虛函數的調用開銷不再可以忽略不計。另外,在每個算子內部都要考慮多種變量,比如列類型、列的size、列的個數等,存在著大量的if-else分支判斷導致CPU分支預測失效。 * ClickHouse實現了Expression級別的runtime codegen,動態地根據當前SQL直接生成代碼,然后編譯執行。如下圖例子所示,對于Expression直接生成代碼,不僅消除了大量的虛函數調用(即圖中多個function pointer的調用),而且由于在運行時表達式的參數類型、個數等都是已知的,也消除了不必要的if-else分支判斷。
多核并行處理+分布式處理
* ClickHouse將數據劃分為多個partition,每個partition再進一步劃分為多個index granularity,然后通過多個CPU核心分別處理其中的一部分來實現并行數據處理。在這種設計下,單條Query就能利用整機所有CPU。極致的并行處理能力,極大的降低了查詢延時。 * 分布式計算,即多機器處理線性擴展
著眼硬件+高效的算法實現
# 比如 * ClickHouse設計時非常在于對CPU L3級別的緩存使用,因為一次L3 cache miss會帶來70~100納秒的延遲。這意味著,在單核CPU上,它會浪費4000萬/每秒的運算;而在一個32線程的CPU上,則可能會浪費5億/每秒的運算,別小看這些細節,一點一滴的將它們累加起來,數據是非常可觀的。也正因為注意了這些細節,所以ClickHouse在基準查詢中,能做到1.75億/每秒的數據掃描性能。 * 針對不同的場景選擇不同算法,例如去重計數uniqCombined函數,根據數據量的不同會選擇不同的算法。當數據量較小的時候,會選擇Array保存;當數據量中等時候,則會選擇HashSet;而當數據量很大的時候,則使用HyperLogLog算法。
數據存儲和寫入層面:
列式存儲+有序存儲
主鍵索引+稀疏索引
數據分片
數據寫入是Batch+Append+后臺線程Merge