長時間相関過程(long-range correlated process)や 1/f ゆらぎを特徴づけるために広く用いられている Detrended Fluctuation Analysis(DFA)および Detrended Moving Average(DMA)は、時系列を一度「積分(累積和)」してから解析を行います。また、Higuchi fractal dimension (HFD)の推定でも、時系列を積分することで、長時間相関の分析に使えたりします。
解析対象の時系列を積分するとか微分するとかについて、理解している人には意図通りの当たり前の操作なのですが、わからない人にとっては、意味不明の呪文になっているようです。
今回は、長時間相関の解析において「なぜ時系列を積分するのか」について解説します。初心者がまず理解するポイントは、「定常的」と「拡散的」の違いを理解することです。
1. なぜ DFA・DMA では時系列を「積分」するのか?
これは、検出できるスケーリング指数の範囲(主に下限)の都合です。
1.1 積分は、定常過程を「ランダムウォークに変換する」操作
元の時系列を
とすると、DFAやDMA の最初の操作は累積和(積分)
を計算すること、というのが一般的な説明です。ここで、 は、
のサンプル平均で、平均を引くのは必須ではありませんが、積分時系列が大きくなりすぎるのを防いでくれます。
この操作の意図は、下の図左のような定常的な過程 (stationary-like process)を、積分して、拡散的な過程 (diffusive-like process)に変換することです。なぜなら、DFAも、DMAも、HFDも、そもそも、時系列の拡散的な性質を評価する方法だからです。これらの方法は、時系列が定常的だと、そのままでは(積分なしでは)、分析できません。

■
(パワースペクトルの指数)との関係
ここでは、元の時系列 が
というパワースペクトルに従う場合を考えます。
この時系列にDFA・DMAを適用すると、Fluctuation Functionは、
の形になり、スケーリング指数 と
の間に関係式
が成り立ちます。これが、良く論文で登場する式です。
ここで、注意してほしいことは、DFA・DMAでは、 の範囲でしかスケーリング指数
を推定できないことです。今回は、説明しませんが、
の検出上限もあるので注意してください。
先ほどの関係式を変形すると、
となりますので、 ということは、
の範囲を評価可能ということです。
の範囲は、定常過程の長時間相関のモデルをカバーするレンジです。たとえば、非整数ガウスノイズやARFIMA
がこの領域に含まれます。DFA・DMAでは、そのような定常的過程を分析したいので、最初に時系列を積分するのです。つまり、あなたが定常的な時系列を解析したいのであれば、時系列を積分して「拡散的な過程」に変換することが必須です。
後で、数式を使って説明しますが、 が
に従うとき、その積分時系列 のパワースペクトルは、
に変化します。つまり、指数 が、
になるわけです。
先ほど、DFA・DMAでは の範囲を評価可能と説明しましたが、最初に時系列を積分しているので、実際には、
の範囲で、
に従う積分時系列 を解析していることになります。定常な長時間相関過程である
の範囲に興味があるとすれば、
である時系列を実際には解析しており、これは、非整数ブラウン運動のような拡散的なフラクタル過程の変動を解析しているのです(下図参照)。具体例では、ホワイトノイズ
をDFA・DMAで解析する場合、積分してブラウン運動
に変形してから、ブラウン運動の拡散の程度
を表すハースト指数
(つまり、
)を推定しているのです。したがって、DFA・DMAの場合は、
はブラウン運動ではなく、積分前のホワイトノイズを特徴づける値になります。

型パワースペクトルを示す時系列を積分するとスケーリング指数
が +2 増加する。
したがって、観測時系列がそもそも、非整数ブラウン運動のような拡散的な変動であれば、最初に積分する操作は必須ではありません。ただし、積分しないと、指数 が1だけ小さくなることに注意してください。

と DFA/DMA のスケーリング指数
の関係。DFA/DMA では、時系列を積分するので、良く知られている対応
(
)が成り立つ。積分しなければ、
(
) であることに注意。
1.2 積分するとスケーリング指数が変わる理由
ここでは、「なぜ積分するとパワースペクトルの指数 が
に変わるのか」を、積分フィルタの特性から数式を使って説明します。
(1)累積和は「離散時間の積分フィルタ」
元の時系列を とし、その累積和(積分時系列)を
とします。 を入力、
を出力とみなすと、これは
「入力を積分して出力を得る」
という積分フィルタになっています。
これを差分方程式で書けば、
と書くこともできます。
(2)周波数領域で見る:伝達関数 
このフィルタの特性を周波数領域で見るために、 の離散時間フーリエ変換(DTFT)を
、
の DTFT を
と表すことにします。
積分操作を書き直した、差分方程式
を DTFT に変換すると、
となるので、
と書けます。したがって、積分フィルタの周波数応答(伝達関数) は
となります。
(3)低周波での近似:連続時間の積分と同じ
型
を少し変形すると、
ですから、振幅(絶対値)は
となります。ここで、低周波 を考えると、
なので、
が得られます。
これは、連続時間の積分フィルタの周波数応答
の絶対値 と同じ形であり、低周波ほど強く増幅する(1/周波数)型のフィルタになっていることがわかります。
(4)パワースペクトルへの影響:指数が
だけ増える
元の時系列 のパワースペクトルを
、
積分後の時系列
のパワースペクトルを
とします。
線形フィルタを通したとき、パワースペクトルは
で与えられます。
もし元の時系列 が低周波で
という 1/ 型のスペクトルをもっているとすると、積分フィルタの振幅は低周波で
なので、
となります。
つまり、
- 元の時系列:
- 積分後の時系列:
となり、積分によってパワースペクトルの指数 は
に 2 だけ増加することになります。
また、これをDFA・DMAの指数 で考えるのであれば、積分によって
となります。通常は既に+1された
の値が基準となっていますので、頭が混乱してきた人はこの部分は無視してください。
3. HFDでも積分を使った解析ができる
Higuchi fractal dimension(HFD)は、通常は元の時系列そのものを入力として用い、拡散的(fBm-like)なフラクタル過程のフラクタル次元を推定する手法として使われます。この意味では、もともと「非整数ブラウン運動のような拡散的ゆらぎ」を念頭においた指標と言えます(下図参照)。

つまり、HFD は本来は積分なしで使われる指標ですが、「積分 → HFD」という手順をとることで、DFA・DMA と同様に、定常な長時間相関過程(fGn-like)にも解析対象を拡張できる、ということです(下図参照)。

4. まとめ:AIを信じて思考停止に陥るな
一般の実務家は、解析法の詳細まで完全に理解する必要はありませんが、最低限理解しておく必要がある内容はあります。お手軽なAI時代になった今でも、残念ながら生成AIの説明が間違っていることがあります。AIの説明をうのみにせず、論文を読んだり、少し数学的に考えたりして、解析法を理解するようにしてください。
最近の若い人は「人生は、テストで点数をとるゲーム」と考えているのではないかと心配になります。私は「自ら問題を見つけて理解しようとすることが大切だよ」と常々言っているのですが、意味が伝わっているか心配になります。生成AIに質問して、「理解を深める」のであれば良いのですが、生成AIに頼り切って「理解のための思考を停止する」のはやめてください。
フラクタル解析は数学的にきちんとした枠組みなのですが、一方で、何人かの研究者は「いい加減な間違った説明」を論文中で展開しています。そして、その間違った説明を信じて、他の人がそれを引用し、繰り返し多数の論文中にあふれかえることで、「間違い」が「真実の響き」をもつようになることがあります。AIはその間違った真実を、きちんと判別できると信じたいです。
※ もし記事の中で「ここ違うよ」という点や気になるところがあれば、気軽に指摘していただけると助かります。質問や「このテーマも取り上げてほしい」といったリクエストも大歓迎です。必ず対応するとは約束できませんが、できるだけ今後の記事で扱いたいと思います。それと、下のはてなブログランキングはあまり信用できる指標ではなさそうですが (私のブログを読んでいる人は、実際とても少ないです)、押してもらえるとシンプルに励みになります。気が向いたときにポチッとしていただけたら嬉しいです。