時系列データの削除について

この記事は最終更新から1年以上経過しています。内容が古くなっている可能性があります。

時系列データの削除について

サービスを構築する場合、どのようなサービスでも時系列に沿ってデータを記録するログのようなテーブルは、必ずと言って良いほど存在しています。

この時系列でデータを記録するログテーブルは、サービスが稼働し続ける限り追記され続けます。データが溜まり続けるとデータベースのストレージ容量を圧迫するため、ある程度の期間を過ぎた古いデータはデータベース上からは削除することが一般的です。

目次

テーブル定義例

多くのサービスでは、Primary keyに相当する一意となるデータがログにはないので、下記のテーブルのように AUTO_INCREMENT で一意となるログ用のIDを採番することが多いと思います。

そして、削除バッチなどで一定期間が経過した古いデータを削除しようと下記のようなDELETE文を実行した場合、稼働中のサービスで以下のようなトラブルが起きることがあります。

  • DELETE文の実行に時間がかかり、実行中はサービスのレスポンスが悪化する
  • DELETE文を実行した後も暫くレスポンスが悪い
  • レプリケーションの遅延が非常に大きくなってしまう

1番目の原因は、削除対象の古いログデータがInnoDB buffer poolのキャッシュにないため対象のデータをストレージから読み取りが必要になってストレージへのI/Oがボトルネックになっている場合が多いです

2番目の原因は、InnoDB buffer poolのキャッシュヒット率の低下が原因である場合が多いです。削除対象のデータを探し出すためにInnoDB buffer poolに大量にロードした結果、サービスで頻繁にアクセスしていたデータが追い出されてしまいキャッシュヒット率が低下してしまいます。

3番目の原因は、1つのトランザクション分の変更を反映するに時間がかかるためなので、レプリケーションソース側で実行するSQLを工夫する必要があります。

これらの問題の原因は、『一度に大量のデータ』を『DELETE 文』で削除した結果なので、対策として良く取られる手段としては2通りの方法があります。

検証用サンプルデータ

対策の検証用に、1ヵ月100万行で3か月分のテストデータを用意してみました。

仮想マシン環境なので比較が難しいですが参考までに、単純に日付を使って1か月分(100万件)を削除してみるとこれぐらいの時間がかかりました。

対策1: AUTO_INCREMENTのPrimary Keyを利用して一括削除はしない(細かく分割して削除する)

Primary keyがAUTO_INCREMENTなので、削除対象の古いログデータの最小値から最大値までの間を分割して細かく分けてデータの削除を行います。

1回のトランザクションで削除する量を減らして、削除の間に待機時間を挟み込むことでサービスへの影響を減らすことができます。

この方法をとる場合の注意点としては、サービスに影響が出ない負荷になるように細かく削除する量を分割しているだけなので、削除を行う時間帯や削除速度をサービスの特性やサーバー性能に合わせて調整する必要があります。

対策1の効果検証

削除バッチを作成して実行中にほかのサービスに影響が出るかどうかの検証することはできないので、使用するSQLを実行してみてどの程度の差が出るか推測してみます。

1000行の削除で0.02秒なら100万件の削除をするには1000回繰り返せばよいので、削除バッチそのものの実行時間も早くなりそうです。

繰り返し実行するDELETE文の間に適切な待ち時間を設定できれば、他サービスへの悪影響を抑えられるでしょう。

対策2: パーティション機能を利用する

下記のように時間軸でパーティションを分割してパーティション単位で削除する方法です。
(例では月単位で分割)

古いログの削除はパーティションのDROPになるので、大量のデータを削除しても一瞬で終わり InnoDB buffer poolに古い削除対象のデータを読み込む必要もなくなります。

その代わりパーティション機能を使う場合にはいくつか注意点があります。

  • 確実に未来分のパーティションを作成して、MAXVALUEを設定したパーティション(上記例の場合 logs_9999-12-31)にはデータが保存されないように運用&監視を行う必要があります。
  • 削除単位がパーティション単位になるので、後から細かい調整をすることは困難です。
  • 複数のパーティションを跨いだ検索は遅くなるので、大量のパーティションを跨ぐ検索処理等が必要な場合には向いていません。
  • Primary keyにパーティションの分割に使うreg_dateカラムを含めた複合Indexで定義する必要があるため、元の定義に比べてIndexのサイズが大きく必要となるメモリやストレージのサイズも大きくなります

上記の通りいろいろと制約も多く適用できる範囲は狭いですが、パーティションで分割されているので一つのパーティション内で収まる場合には通常のテーブルより素早く動作します。

またinnodb_file_per_table を有効にしていた場合、パーティション単位で生成と削除が行われるためInnoDBデータファイルの断片化も防げます。

対策2の効果検証

logs_partedテーブルにもlogsテーブルと全く同じデータを入れてパーティションを削除します。

100万件分のデータ削除が一瞬で終わるので利用可能な場面では有効なテクニックではないでしょうか。

まとめ

時系列でデータを貯めて古いデータを消す仕組みはログテーブル以外でも必要とされる場面は多くあります。

サービスが成長して扱うデータ量が増えてくると様々な場所でパフォーマンスチューニングを必要とされる場面が増えてきます。その中であまり注目のされない古いデータの削除で起こりがちなトラブルとその対策を取り上げてみました。

この記事が読者の方の参考になれば幸いです。

スマートスタイルTECHブログについて

スマートスタイルTECHブログでは、日頃MySQLのサポート業務に従事している有資格者で構成された技術サポートチームがMySQLに関する技術情報を発信しています。データベースのお困りごとはお気軽にご相談下さい。

よかったらシェアしてね!
  • URLをコピーしました!
目次