hive從入門到放棄(六)——常用文件存儲格式

hive 存儲格式有很多,但常用的一般是 TextFile、ORC、Parquet 格式,在我們單位最多的也是這三種

hive 默認的文件存儲格式是 TextFile。

除 TextFile 外的其他格式的表不能直接從本地文件導入數據,要先導入到 TextFile 格式的表中,再從表中用 insert 導入到其他格式的表中。

一、TextFile

TextFile 是行式存儲。

建表時無需指定,一般默認這種格式,以這種格式存儲的文件,可以直接在 HDFS 上 cat 查看數據。

可以用任意分隔符對列分割,建表時需要指定分隔符。

不會對文件進行壓縮,因此載入數據的時候會比較快,因為不需要解壓縮;但也因此更佔用存儲空間。

二、ORCFile

ORCFile 是列式存儲。

建表時需指定 STORED AS ORC,文件存儲方式為二進位文件。

Orc表支援None、Zlib、Snappy壓縮,默認支援Zlib壓縮。

Zlib 壓縮率比 Snappy 高,Snappy 效率比 Zlib 高。

這幾種壓縮方式都不支援文件分割,所以壓縮後的文件在執行 Map 操作時只會被一個任務所讀取。

因此若壓縮文件較大,處理該文件的時間比處理其它普通文件的時間要長,造成數據傾斜。

另外,hive 建事務表需要指定為 orc 存儲格式。

ORC 格式如下所示:

  • stripe:存儲數據的地方,包括實際數據、數據的索引資訊
  • index data:保存了數據在 stripe 中位置的索引資訊
  • rows data:數據實際存儲的地方,數據以流的形式進行存儲
  • stripe footer:保存數據所在的文件目錄
  • file footer:包含了文件中 stripe 的列表,每個 stripe 的行數,以及每個列的數據類型。它還包含每個列的最小值、最大值、行計數、求和等聚合資訊。
  • postscript:含有壓縮參數和壓縮大小相關的資訊

三、Parquet

Parquet 也是列式存儲。

建表時需指定 STORED AS PARQUET,文件存儲方式為二進位文件。

可以使用的壓縮方式有 UNCOMPRESSED、 SNAPPY、GZP和LZO。默認值為 UNCOMPRESSED,表示頁的壓縮方式

  • 行組(Row Group):每一個行組包含一定的行數,在一個HDFS文件中至少存儲一個行組,類似於orc的stripe的概念。

  • 列塊(Column Chunk):在一個行組中每一列保存在一個列塊中,行組中的所有列連續的存儲在這個行組文件中。一個列塊中的值都是相同類型的,不同的列塊可能使用不同的演算法進行壓縮。

四、三者對比

同樣的數據,TextFile 為 2.4G 的情況下,將原數據存放為 ORC 以及 Parquet 格式後,其佔用存儲大小以及查詢效率大致如下:

由此可以看出壓縮比:ORC > Parquet > TextFile

在只有 Fecth 的情況下,由於 TextFile 不需要解壓縮,因此效率較高。

對於需要 MapReduce 操作的查詢,效率:ORC >= Parquet > TextFile

當然,這只是我自己簡單的測試,有些變數並沒有控制好。

比如在單個文件比較大的情況下,可能 Parquet 的效率會比較高。

在實際生產中,使用 Parquet 存儲 lzo 壓縮的方式比較常見,這種情況下可以避免由於讀取不可分割的大文件引發的數據傾斜。

但是,如果數據量並不大,使用 ORC 存儲 snappy 壓縮的效率還是非常高的;對於需要事務的場景,還是用 ORC。

至於要用哪種存儲格式,需要基於自身業務進行考量。

今天的文章到這裡就結束了,如果覺得寫的不錯的話,可以隨手點個贊和關注!

關注「大數據的奇妙冒險」,轉載請註明出處!