場景為Spark讀取一張MySQL表(innodb引擎), 數據量8000萬,無自增ID,業務中一個字段為(訂單ID)主鍵。要將該表數據讀取后寫入到HDFS。下面將詳細介紹Spark讀取MySQL大表超時問題。
# 直接使用Spark提供的JDBC分區數據選項 partitionColumn,lowerBound,upperBound
* 不可行,partitionColumn要求是數值類型,這個表中并沒有雖有一些數值類型字段,但是并不合適,因為字段值非遞增,不容易設定分區的上下界限,這就很容易造成數據傾斜。
# 采用 predicates 方式,定義一個劃分數據的數組規則
* 使用limit 做分頁將數據劃分為60個分區,同時優化limit查詢,用主鍵做子查詢的方式優化。雖然經過了查詢優化,但是運行時,依然遇到讀取超時錯誤。問題原因是JDBC socketTimeout 設置了3分鐘,但是某些task讀取mysql時,并沒有在3分鐘內返回數據,是一個慢查詢。 在這個場景下解決方式就是調大socketTimeout值就可以了,調成了10分鐘。
* 這里要注意的是一定要對limit做優化,使用子查詢或者join方式,根據主鍵查詢做分頁。 例如下
`select * from table_name where id >= (select id from table_name order by id limit 100000, 1) limit 20000`.
* 如果你直接使用 `select * from table_name limit 100000,20000 `的方式。mysql會查詢出來 120000條數據,然后再扔掉100000條數據,這是完全沒有意義的,會有大量無意義IO操作,影響性能。
更多關于大數據培訓的問題,歡迎咨詢千鋒教育在線名師,如果想要了解我們的師資、課程、項目實操的話可以點擊咨詢課程顧問,獲取試聽資格來試聽我們的課程,在線零距離接觸千鋒教育大咖名師,讓你輕松從入門到精通。