PLAID Engineer Blog

PLAID Engineer Blog


PLAID Engineer Blog

Bigqueryの内部処理について徹底解剖してみた

Naoki ShibayamaNaoki Shibayama

プレイドの @nashibao です。

弊社では結構BigQueryを使い倒させていただいていて、社内向けのバッチ解析やChartIO/ModeAnalytics等を介した社外向けのレポーティングとしての利用だけでなく、ABテストなどの集計系では(Query数のコントロールのためにキャッシュは介していますが)ほぼ直接アプリケーションのバックエンドとして利用しています。

またStreaming Insertが思ったより安定しているので、ニアリアルタイムにイベントを反映することができ、適当なQueryを投げ込んでPBの集計を気軽にやって、数百万使って唖然としてとりあえず寝て忘れる、みたいなことをしています。

先日も"GCP NEXT World Tour in Tokyo"において、弊社 @makinoy がジョブズばりのプレゼンをさせてもらいました。

gcp Google Cloud Platform 国内最大のイベント「GCP NEXT World Tour in Tokyo」にプレイドが登壇しました

さて、これだけBigQueryを使い込んでいる弊社ですが、仕組みについてはあまり外に出てないため、ほとんど知りません。

DremelのPaper(2010/VLDB) が6年前に出ていますが、その内容としては非常に単純なQuery Processingのケースのみを扱っていて、シンプルな分割統治型のツリー処理 と、独自の省スペースかつ効率的なNested Dataのカラムナ表現 の二点を中心に議論されています。論文の最後でも次のように締められています。

In the future, we plan to cover in more depth such areas as formal algebraic specification, joins, extensibility mechanisms, etc.

後半に乗っているDremelと既存のGoogle MapReduce/Sawzall(Google 社内のMapReduce実装)とのパフォーマンス比較、キレイに線形にスケールする実験結果は一見の価値があります。ただ、カラムナについて独自のエンコーディング/FBMを使ったアセンブリ手法は、これがポッと作れてしまうGoogleはさすがだなぁ、と思う反面、カラムナにしたらそりゃパフォーマンスは上がるだろうという感じだし、割となんでもござれのHDDベースのMapReduceと比較して分割統治に特化した構造がパフォーマンスが出るのも当然だろ、という気がします。

それよりもむしろ、テラ/ペタサイズのJOINやGroup Byが入り組んだクエリが数秒~数十秒で返ってくるという理解不能な事象について深掘りして欲しい気がします。つまりちょうどDremelのペーパーの範囲外ですw

Amazon.co.jp: Google BigQuery Analytics 電子書籍: Jordan Tigani …

img

そしてようやく本題ですが、JOINを含めたQuery Processingについては2014年に出ているこちらの本の方が詳しいので、少し紹介したいと思います。 ちなみにタイトルは(かなり)盛り気味です。

先に感想

いくつかポイントがあると思いますが、僕が個人的に思うBigQueryのキモは次の3点です。(ちょっと想像で物を言っているので間違ってたら、、すみませんw)

  1. まずまずDisk IOの並列化(並みの並列化じゃない)
  2. スピード重視でメモリとネットワークを酷使する設計(並みの酷使っぷりじゃない)
  3. Slowなところを避ける代わりに出来なきゃ死ぬ設計。やり直せばいいという割り切り(その点逆にMapReduceはすごい)

Disk IOを並列化して、読込をボトルネックから解放するのはこれ系では前提感あります。それに加えてネットワークを酷使したり、Hash PartitionによるShufflingなどで、メモリオーバーでabortするリスクをとるポリシーあたりがHadoopを含めたMap Reduce界隈と違うのかな、と感じます。

基本構造とベーシックなクエリ処理

基本的な構造としては次のようになっているようです。

スクリーンショット 2016-11-30 18.19.12.png (50.0 kB)

クエリはRoot/Mixer/Slotの順で伝播します。その時Slotのみで解決できないQuery要素に関しては排除されて伝播されます。Slotは実際にStorageレイヤと通信し最初の処理をするLeaf Serverのスレッドのことのようです。そして、処理結果がSlot/Mixer/Rootの順で伝播し、それぞれ統治処理が行われます。

例えばJOINやGroup Byが絡まず、単純な分割統治処理のようなケースの場合

(word_countが最初からaggregationされているという現実にはなさそうなケースですが)単純に同じQueryがSlotに伝播され、それぞれのSlotが返す結果に対してMixerが同じQueryをかければ終了です。

Small Group By

次のようにGroup Byがある場合も分割統治型で処理されます。

まず Order句とLIMIT句を排除してSlotに渡しクエリし、その結果をMixerに渡し、Mixerでは元のクエリをかけて終了です。ただしDistinctなKeyが多い場合メモリに乗り切らずabortします。

BroadCast Join

さてJoinですが、単純な場合としてJoinする片方がSlotにバラまけれるサイズであれば分割統治型の繰り返しで対応できます。(BigQueryでは 8mbが閾値のようです)。こちらは

  1. サブクエリSELECT fugue FROM bのみをSlotに配布
  2. Mixerに結果が返される
  3. 返された結果をインライン展開して、全体のクエリを配布
  4. Mixerに結果が集められ、Aggregationして終了

スクリーンショット 2016-11-30 18.59.35.png (16.2 kB)

一つ面白いのは、例えば5000 Leafあれば 5000 x 8MB = 40GBのネットワークコストをかけている、というところです。

Shuffled Query(Big Join/Big Group By)

最後に複雑なケースとして、大規模なJOINと大規模なGroup Byのケースです。MapReduceと同じようにShuffleフェーズを組み合わせて処理をしますが、Merge Sortではなく、単純なHash Partitioningで分散します。つまり100台のLeafで処理していれば、keyに対して100でmodを取り対応する各Leafに配布します。

(元々は JOIN EACHGROUP EACH BYといった特殊な句が用意されていましたが、自動で判断するようになったようなので、省きます。( Query Reference ))

  1. bに関するサブクエリをLeafに配布する。(例えば100Leaf)
  2. fugaを100個にHash Partitioning(shuffle)し、Leaf間でデータを交換する
  3. Leafでサブクエリを実行しMixerに終了したかどうかだけを返す(データは返さない)
  4. 次にaに関するクエリをLeafに配布する(例えば500Leaf)
  5. hogeを500個にPartitionしLeaf間でデータを交換する
  6. さらに3のデータも500個にPartitionし、Leaf間でデータを交換する(この処理がどこに挟まるかちょっと書いてなくて想像で書いてます)
  7. Shard上でJOINのクエリを実行し、Mixerに結果を返す
  8. Mixerで統合し終了

スクリーンショット 2016-11-30 20.30.51.png (18.3 kB)

大きな注意としては、どでかいデータでHashが偏ると乗り切らずAbortする、という点です。

最後に

先に書いた感想と同じですが、割と古典的というか泥臭いやり方でShuffleを実装したりしているところ、ネットワーク/メモリを酷使し、合わないものはAbortするところなど、失敗を許容する代わりにパフォーマンスを出す設計が重要なように思います。

もう少しMapReduce界隈との設計思想の違いについても想いを馳せてみたかったんですが、図を作っていたら力尽きた感じがあるので、議論したい方は是非ともPlaidの社内勉強会等に来てください!

ウェブ接客プラットフォーム「KARTE」を運営するプレイドでは、 KARTEを支える技術に興味を持つエンジニア(インターンも!)を募集しています。 詳しくはプレイドの採用ページか、Wantedlyをご覧ください。

Comments