Image Description
hotman78
  • 2023-01-04

Relaxed Convolution(Online FFT)によるexp/inv/log/sqrt/pow 【備忘録】

初めに

この記事ではあくまでも時間計算量のオーダーのみを考慮しているため、定数倍についての保証はありません。

relaxed convolution とは

O(Nlog2N)\mathcal{O}(N\log ^2 N) で多項式の積を計算するオンラインアルゴリズムです。Online FFT と呼ばれる事もありますが、Relaxed Convolution の方が使われていそうだったのでこちらで統一します。
このアルゴリズムを使うことで形式的べき級数の exp\exp / inv\mathrm{inv} / log\log 等も出来ます。

relaxed convolution のやり方

Kiri さんのわかりやすい解説があったのでここでは割愛させて下さい

オンライン畳み込み - Qiita
この記事の目的オンライン畳み込み(Relaxed Convolution [^ref1] または Relaxed Multiplication [^ref2] などとも呼ばれるようです)を $O(…
オンライン畳み込み - Qiita favicon https://qiita.com/Kiri8128/items/1738d5403764a0e26b4c
オンライン畳み込み - Qiita
www.sciencedirect.com
www.sciencedirect.com favicon https://www.sciencedirect.com/science/article/pii/S0747717102905626

積分のやり方

fdx\int f dxNN 項目は、 ffN1N-1 項目に NN をかけた物なので、一つ前の項を保存しておけば出来ます。

exp(f) のやり方

g=exp(f)g=\exp(f)

とおくと、

gfdx=exp(f)=g\int gf' dx =\exp(f)=g

より、ggN1N-1 項目までと、ff'N1N-1 項目までを relaxed convolution にて掛け合わせる事で出来ます。

verify : https://judge.yosupo.jp/submission/119568

relaxed convolution を高々定数項だけずらす拡張

ffNtN-t 項目まで、 ggNtN-t 項目までをかけ合わせたものの NN 項目までを手に入れることが出来ます。
f=f0+f1xtf=f_0+f_1x^t (deg(f0)<t\mathrm{deg}(f_0) \lt t)、 g=g0+g1xtg=g_0+g_1x^t (deg(g0)<t\mathrm{deg}(g_0) \lt t) とおくと、

fg=f0g0+(f1g0+f0g1)xt+f1g1x2tfg=f_0g_0+(f_1g_0+f_0g_1)x^t+f_1g_1x^{2t}

f0f_0g0g_0 に関しては高々定数項しかないため前半 3 項は愚直に計算しても計算量はボトルネックとなり得ません。
また、NtN \geq t の場合、 ffNtN-t 項目は f1f_1N2tN-2t 項目であることから、f1f_1g1g_1 を relaxed convolution で掛け合わせる事で f1g1f_1g_1N2tN-2t 項目まで手に入り、
これにより fgfgNN 項目までを手に入れる事が出来ました。
これは Kiri さんのブログの図の左上の1×11 \times 1のマスを増やしたと考えると直感的に理解出来るかと思います。
また、f と g の項数が高々定数個ずれる場合、小さい方に合わせてあげれば良いです。

inv のやり方

g=1/fg=1/f とおくと、 fg1=0fg-1=0 であることから、

[xN]fg=[xN](fmodxN1)×(gmodxN1)+([x0]f×[xN]g+[xN]f×[x0]g)[x^N] fg = [x^N] (f \bmod x^{N-1}) \times (g \mod x^{N-1}) + ([x^0]f \times [x^N]g + [x^N]f \times [x^0]g)

を前章の拡張を用いて計算する事で ggNN 項目を求める事が出来ます。

verify : https://judge.yosupo.jp/submission/119569

log のやり方

g=logfg=\log f とおくと、 g=ffdxg=\int \frac{f'}{f} dx であることから前章までの内容を用いて計算することが出来ます。
(23/01/08/9:53 追記) h=fgh=\frac{f}{g} とおくと gh=fgh=f となり、これは inv とほぼ同様に処理出来るので一回の relaxed convolution で行う事も出来ます。

verify : https://judge.yosupo.jp/submission/119575

sqrt のやり方

ff の初項を非零に限定すると、 g=fg=\sqrt f とおくと、 g2=fg^2=f であることから inv の章と同様に一つだけ項数をずらすことで出来ます。
初項が零の時はそもそも NN 項目までの情報から 2N2N 項目までに非零が存在するかを知り得ないので定義から難しそうです。
(そもそも形式的冪級数の sqrt は定数項 1 を前提とするのが一般的という話もあります)

verify : TODO

pow のやり方

fM=exp(Mlog(f))f^M=\exp (M\log (f)) を使えば出来ます。
例の如く log\log の適用条件等に注意する必要があります。

verify : TODO

その他

分割統治法を用いたアルゴリズムとの併用など様々なアルゴリズムが考えられそうです。

;