Processing math: 0%

2022年2月24日木曜日

Goldreich-Levinの定理 (アルゴリズム的側面の紹介)

Goldreich-Levinの定理はGoldreich and Levin (1989)によって証明された非常に有名な定理で, 自分のお気に入りの定理の一つです. 元々は平均計算量理論の文脈でone-way functionのhardcore predicateを与えたりYaoのXOR補題の証明に使われたりしている定理ですが, その後Hadamard codeのlocal list decoding, large Fourier coefficientの計算など様々な解釈が与えられ多くの研究に影響を及ぼす重要な定理です. しかしこの定理の主張の説明の多くは理解するためにいろんな前提知識を要するため, 多くの情報系の方にとって敷居の高いものになっているような気がします.
そこで, 本記事では定理の重要性などの背景は省き, その内容と証明のアルゴリズム的な側面を本質だけ抽出して紹介します. 前提知識は特に必要ありません.


1. 線形関数の復元


\mathbb{F}_2^n上の線形関数g(x)=\langle a,x\rangle=\sum_{i=1}^n a_ix_iがオラクルで与えられるとき, 
a_1,\dots,a_n\in\mathbb{F}_2を復元せよ

という問題を考えます. つまり, 任意のx\in\mathbb{F}_2^nをクエリしたときにg(x)が得られるという仮定の下で係数を復元するという問題です. このような問題設定は学習理論の文脈と少し近い雰囲気を持っています. 学習理論の文脈では「(a,h(a))の組が複数与えられたとき, 関数h (ただしhは何らかの関数族\mathcal{F}に属する)を計算せよ」というような問題設定を考えることがあります. 上記の問題はこの設定よりも簡単で, 好きな入力に対してh(a)を得ることが出来るという設定になっています.

この問題は簡単で, n個の単位ベクトルe_1,\dots,e_nをクエリすればa_i=g(e_i)なのでn個の係数を復元することができます.

では, 「オラクルが1%の入力に対し間違っている」という設定で同じ問題が解けるでしょうか?与えられるオラクルを\mathcal{O}とします. 入力全体\mathbb{F}_2^nのうち, ある|L|\leq 0.01|\mathbb{F}_2^n|を満たすL\subseteq \mathbb{F}_2^nが存在してx\in Lに対しては\mathcal{O}(x)\neq g(x)です. オラクル\mathcal{O}のみが与えられたとき (つまり, Lは分からない), 全ての係数は復元できるでしょうか? この問題設定は学習理論の文脈ではLWE (learning with errors) に対応します.

オラクルが間違わない設定だと, 単位ベクトルe_iに対して\mathcal{O}(e_i)=a_iが成り立つので簡単に復元できましたが, この設定だと入力e_iにおいてオラクルが間違えている(つまりe_i\in L)の可能性があり, しかも間違えているかどうかが分からないので上手くいきません.

ですが実はこの問題設定においても乱択を許せば効率的なアルゴリズムが存在します. 第i番目の係数a_iを復元する以下の乱択アルゴリズムを考えます: 

r\in\mathbb{F}_2^nを一様ランダムにサンプリングし, \mathcal{O}(e_i+r)-\mathcal{O}(r)を出力する.

このアルゴリズムは98%の確率でa_iを正しく出力します. なぜならば, r\in\mathbb{F}_2^nが一様ランダムなので99%の確率でO(r)=\langle a,r\rangleであり, しかもe_i+rも(周辺分布を見ると)一様ランダムなので, 同様に99%の確率で\mathcal{O}(e_i+r)=\langle a,r+e_i\rangleです. なのでunion boundより98%の確率で両方の値は正確で, 最後に線形性よりa_i=\langle a,e_i\rangle = \langle a,r+e_i\rangle - \langle a,r\rangleにより正しく復元できています. 

この議論はオラクルが正直である確率が0.75+\epsilonであれば成功確率は0.5+2\epsilonとなるので, \lceil\frac{\log (n/\delta)}{8\epsilon^2}\rceil回繰り返して多数決をとることによって成功確率を1-\delta/nまでamplifyすることができます. 実際, i番目の繰り返しにおいて, 上記のアルゴリズムが正しくa_iを計算できていればX_i=1, そうでなければX_i=0として確率変数X_iを定義(ランダムネスはベクトルrの選択)してS=X_1+\dots+X_Tとおくと (Tは繰り返しの回数), \mathrm{E}[S]\geq (0.5+2\epsilon)Tなので, Hoeffdingの不等式より
\Pr[S\leq T/2]\leq \Pr[S\leq \mathrm{E}[S]-2\epsilon T] \leq \exp(-8\epsilon^2 T)
を得ます. T=\lceil\frac{\log(n/\delta)}{8\epsilon^2}\rceilとすれば, この確率は高々\delta/nになります.
再びi=1,\dots,nでunion boundをとれば, 全ての成分a_1,\dots,a_nを確率1-\deltaで復元することができます.

上記のアルゴリズムはオラクルが高々0.25-\epsilonの割合のxに対して誤った値を返すという仮定が大前提でした. この割合がもっと大きくても (例えばオラクルが40%の確率で間違うという設定で)aを復元できるでしょうか?

定式化するために, 「オラクルが間違う入力の割合」を関数の距離として捉えます. 二つの関数f,g\colon\mathbb{F}_2^n\to\mathbb{F}_2に対してd(f,g):=\Pr_x[f(x)\neq g(x)]と定義します. これはfgを長さ2^nのbinary文字列とみなしたときの(正規化した)ハミング距離と見なすことができます.

\mathbb{F}_2^n上の二つの相異なる線形関数g(x)=\langle a,x\rangle, g'(x)=\langle a',x\rangleに対して, x\in\mathbb{F}_2^nを一様ランダムにとってくると
\Pr[g(x)=g'(x)] = \Pr[\langle a-a',x\rangle=0] = \frac{1}{2}
となります. 最後の等式はa\neq a'であることを利用しています. 対偶をとって\Pr[g(x)=g'(x)]<1/2ならばg=g'という命題を得ます. このことから, \mathbb{F}_2^nを係数に持つ線形関数の世界では二つの相異なる線形関数はハミング距離の意味でかなり離れているという面白い性質を持つことがわかります.

図1. Boolean関数全体の空間において二つの異なる線形関数は離れている (0.5以上とありますが実際はぴったり0.5です).



ここで冒頭の「0.25-\epsilonの割合の入力に対しオラクルは間違える」という問題設定に戻りましょう. 与えられるオラクル\mathcal{O}は, ある線形関数gに対してd(\mathcal{O},g)\leq 0.25-\epsilonという条件を満たしています. つまりオラクル\mathcal{O}gを中心とした半径0.25-\epsilonの円に属しているため, 一意に復元可能です.

ところが, 「0.25+\epsilonの割合の入力に対しオラクルは間違える」という問題設定だと, 図2のように二つの円が被ってしまう可能性があります.

図2. 半径が大きすぎると円が被りその共通部分にオラクルがあると一意じゃない可能性がある.


ここまでの状況を整理しましょう. 「オラクルが間違える」という表現を距離dの言葉で置き換えて以下のように問題を再定義します:

関数\mathcal{O}がある線形関数gに対してd(\mathcal{O},g)\leq 0.25-\epsilonであるとする. 
関数\mathcal{O}のオラクルが与えられたとき, g (の係数を全て) を求めよ.

この問題は先ほどのアルゴリズムで解くことができます. 定理の形で述べておくと

定理1. 上記の問題に対し確率1-\deltaで正しい係数を全て出力するO(n\epsilon^{-2}\log(n/\delta))時間乱択アルゴリズムが存在する.

一方で, 

関数\mathcal{O}がある線形関数gに対してd(\mathcal{O},g)=0.25+\epsilonであるとする. 
関数\mathcal{O}のオラクルが与えられたとき, g (の係数を全て) を求めよ.

という問題を考えると, 候補となるgが複数存在しうることを図で紹介しました. 

2. Goldreich-Levinの定理


次の列挙問題を考えてます:

関数\mathcal{O}のオラクルが与えられたとき, d(\mathcal{O},h)\leq 0.5-\epsilonを満たす線形関数hを列挙せよ.
そのようなhが存在しない場合は「なし」と出力せよ.

定理1では距離の条件が0.25-\epsilonで考えていましたが, ここでは大きく攻めて0.5-\epsilonに緩和します. なお, 任意の相異なる線形関数は距離0.5だけ離れているので, "0.5-\epsilon"を"0.5"に置き換えた場合, O=gだとすると全ての線形関数を列挙しなければならないので列挙候補の個数は2^nになってしまいます. ですが0.5-\epsilonにすると多項式時間で列挙できるということがGoldreich and Levin (1989)によって(本質的に)示されました.

定理2.
上記の列挙問題の全ての解hを含むリストLを確率1-\deltaで出力するO\left(\frac{n^3}{\delta^2\epsilon^8}\log\left(\frac{n}{\delta\epsilon^4}\right)\right)時間アルゴリズムAが存在する. 

注釈: 冒頭にも述べた通り, Goldreich-Levinの定理自体は様々な解釈ができ, Goldreich and Levin (1989) の平均計算量の文脈の結果のアルゴリズム的に本質的な部分を抽出したものが定理2なので, 定理2そのものをGoldreich-Levinの定理と呼ぶべきかどうかは微妙かもしれませんので, 注意してください.

定理2を証明していきます. まず, 以下の定理を既知として認めます.

定理3. 上記の列挙問題の解は高々1/\epsilon^2個しか存在しない.
定理3は関数\mathcal{O}のフーリエ級数解析で簡単に示せますが, 後日行います.

定理2の証明). 以下が主張にあるアルゴリズムAになります.
1:  t\leftarrow \lceil \log_2\left(1+\frac{n}{4\delta\epsilon^4}\right)\rceil;
2:  r_1,\dots,r_t\in\{0,1\}^nを独立一様ランダムに生成;
3:  L\leftarrow \emptyset;
4:  for each b=(b_1,\dots,b_t)\in\{0,1\}^t do:
5:     for each i\in\{1,\dots,n\} do:
6:        for each S\subseteq \{1,\dots,t\} of S\neq\emptyset do:
7:            b_S\leftarrow \sum_{i\in S}b_i;
8:            r_S\leftarrow \sum_{i\in S}r_i;
9:            c_S \leftarrow \mathcal{O}(r_S+e_i)-b_S;
10:       a_i \leftarrow \mathsf{maj}((c_S)_{S\neq\emptyset});
11:   L \leftarrow L\cup \{(a_1,\dots,a_n)\};
12: return L;

ただし, \mathsf{maj}は多数決をとる関数 (受け取ったビット列の中で多く登場したビットを返す関数) です.

以下ではアルゴリズムAの解析を行います. d(\mathcal{O},g)\leq 0.5-\epsilonを満たす関数を一つとってきてgとします. アルゴリズムAの重要なポイントは
  • 2行目で生成したランダムベクトルに対し, g(r_1),\dots,g(r_t)の値はオラクルに聞いていないので分からないが, 4行目で\{0,1\}^tを列挙しているためどれか一つのbに対してはb_i=g(r_i) (\forall i) が成り立ちます. 以後この条件を満たすbに対して話を進めます.
  • 7行目で与えたb_Sgの線形性よりb_S=g\left(\sum_{i\in S}r_i\right)=g(r_S)が成り立ちます. ここまでの議論は任意の線形関数gで成り立ちます.
  • 9行目では, ベクトルr_1,\dots,r_tの一様ランダム性によりr_S+e_iの分布も一様ランダムです. なのでオラクル\mathcal{O}の性質により, \Pr[c_S=g(e_i)]\geq 0.5+\epsilonです (b_S=g(r_S)の仮定の下で).
ここまでをまとめると, 
あるb\in\{0,1\}^tが存在して\forall S\neq\emptyset, \Pr[c_S=g(e_i)]\geq 1/2+\epsilon
が成り立ちます. 10行目では多数決をとってこの確率をamplifyしています. この部分を解析します. 確率変数X_Sを, c_S=g(e_i)ならばX_S=1, そうでなければX_S=0と定義してX=\sum_{S\neq\emptyset} X_Sとします. r_1,\dots,r_tは全て独立ですが, (r_S)_{S\neq\emptyset}はそうではないので, Hoeffdingの不等式を適用してXの集中性を示すことはできません. 代わりにChebyshevの不等式 (以前の記事参照) を利用してXの集中性を示します. Chebyshevの不等式は分散が小さければ集中することを主張する不等式なので, X=\sum X_Sの分散を抑えれば良いことになります. これは(r_S)のpairwise independentという性質を用いると可能です.

定義. 確率変数の族(R_i)が任意のi\neq jに対し
\Pr[R_i=a\land R_j=b] = \Pr[R_i=a]\Pr[R_j=b]
を満たすとき, (R_i)pairwise independentであるという.

例えば(R_i)が全て独立ならば自動的にpairwise independentになります. ところでアルゴリズムAで考えた確率変数の族(r_S)も実はpairwise independentです (簡単な計算で確認できます). 従ってX_Sもpairwise independentです. 次に分散\mathrm{Var}[X]=\mathrm{E}[X^2]-\mathrm{E}[X]^2を計算しましょう.

\mathrm{E}[X^2]=\mathrm{E}\left[\sum_{S,S'\neq\emptyset}X_S X_{S'}\right] =\left(\sum_{S}\mathrm{E}[X_S]\right)^2 + \sum_{S}\mathrm{E}[X_S](1-\mathrm{E}[X_S]^2) \leq \mathrm{E}[X]^2 + \frac{2^t-1}{4}
より\mathrm{Var}[X]\leq (2^t-1)/4です. ここの式変形ではpairwise independentであることから\mathrm{E}[X_SX_{S'}]=\mathrm{E}[X_S]\mathrm{E}[X_{S'}]が成り立つことを利用しています (2番目の等式). 最後の不等式では任意のx\in[0,1]に対してx(1-x)\leq 1/4であることを用いました.

よってChebyshevの不等式およびtの条件より
\Pr[X\leq (2^t-1)/2] \leq \Pr[X\leq\mathrm{E}[X]-(2^t-1)\epsilon] \leq \frac{\mathrm{Var}[X]}{(2^t-1)^2\epsilon^2} \leq \frac{1}{4(2^t-1)\epsilon^2}\leq \frac{\delta\epsilon^2}{n}.

を得ます. つまり確率1-\epsilon^2\delta/na_i=g(e_i)が成り立つので, i=1,\dots,nと条件を満たす線形関数g (定理3より高々\epsilon^{-2}個) に関するunion boundにより, アルゴリズムAの出力リストの中にgの第i番目の係数が入っていない確率は高々\deltaとなる, すなわちAは確率1-\deltaで答えが含まれるリストを出力することができました.

なお, Aの計算時間はO(nt 2^{2t})=O\left(\frac{n^3}{\delta^2\epsilon^8}\log\left(\frac{n}{\delta\epsilon^4}\right)\right)です.
(証明終)

なお, アルゴリズムAの出力されたリストLの中からd(h,\mathcal{O})\leq 0.5-\epsilonを満たす関数hを抽出するのは(乱択を許せば)ある程度までは簡単で, 「ランダムな入力x\in\{0,1\}^nに対して\mathcal{O}(x)=h(x)かどうかをチェックする」という操作を何度も行って正答数が0.5+\epsilonくらいになるようなhのみを抽出すればOKです (ただし, d(h,\mathcal{O})\leq 0.5-(1-o(1))\epsilonを満たすhも抽出される可能性もあるので完璧ではありません).

Markovの不等式とChebyshevの不等式

今後の記事で参照できるようにするために, 確率に関する非常に基礎的な不等式であるMarkovの不等式とChebyshevの不等式を紹介します. Markovの不等式さえ覚えていればChebyshevの不等式は非常に簡単に導出できます.

定理 (Markovの不等式). Xを平均が有限であるような非負の確率変数Xとする. 任意のa>0に対し\Pr[X\geq a]\leq \mathrm{E}[X]/a.

証明(概要). 簡単のためXを離散値をとる確率変数とする. 任意のa>0に対し,
\mathrm{E}[X] \geq \sum_{i\geq a} i\Pr[X=i] \geq a\sum_{i\geq a} \Pr[X=i]=a\Pr[X\geq a].
Xが連続値をとる場合でも同様に証明できる.
(証明終)


定理 (Chebyshevの不等式). Xを平均と分散が有限な実数値確率変数とする. 任意のa>0に対し, \Pr[|X-\mathrm{E}|\geq a] \leq \frac{\mathrm{Var}[X]}{a^2}.

証明. 確率変数(X-\mathrm{E}[X])^2は非負なので, Markovの不等式より
\Pr[|X-\mathrm{E}[X]|>\lambda] = \Pr[(X-\mathrm{E}[X])^2>\lambda^2] \leq \frac{\mathrm{Var}[X]}{\lambda^2}.
(証明終)


2022年2月16日水曜日

McDiarmidの不等式(小記事)

確率集中不等式の文脈でよく知られているMcDiarmidの不等式について解説します. 

準備: 集中不等式でよくある設定

Sを集合としてX_1,\dots,X_n\in SSに値をとる独立な確率変数とします (同一分布に従うとは限らない). 関数 f\colon S^n\to\mathbb{R}に対し, 確率変数Y=f(X_1,\dots,X_n)を考えます. 例としてS=[0,1], f(x_1,\dots,x_n)=x_1+\dots+x_nとすると, Hoeffdingの不等式よりYはその期待値に集中します. つまり, 任意のt>0に対して
\Pr[|Y-\mathrm{E}[Y]|>t] \leq 2\exp\left(-\frac{2t^2}{n}\right)
が成り立ちます.
これを一般化して次のresearch questionを考えます:

関数fがどのような性質を持てばYは集中性が成り立つのか?


結論から言うと, 次の法則が知られています.

fが"滑らか"ならばYは集中する.


"滑らか"とはどういうことか, については色んな定義が考えられますが, ひとまずこの法則の根拠となる不等式の一つとしてMcDiarmidの不等式という便利な不等式があります.

McDiarmidの不等式


この不等式では関数の滑らかさをハミング距離に関するリプシッツ性と捉えます. x,y\in S^nに対してそのハミング距離d_{\mathrm{ham}}(x,y)を異なる要素の個数, すなわちd_{\mathrm{ham}}(x,y)=|\{i\in[n]\colon x_i\neq y_i\}|と定義します. 

定理 (McDiarmidの不等式)
関数f\colon S^n\to \mathbb{R}が, d_{\mathrm{ham}}(x,y)=1を満たす任意のx,y\in S^nに対し|f(x)-f(y)|\leq Lを満たすとする. X_1,\dots,X_n\in Sを独立な確率変数とし, Y=f(X_1,\dots,X_n)とする. このとき,
\Pr[|Y-\mathrm{E}[Y]|>t] \leq 2\exp\left( -\frac{2t^2}{nL^2} \right).

つまり, f(x_1,\dots,x_n)に対して一つの要素x_iを別の値に置き換えてもその時のfの値がほとんど変わらない(i.e., Lが小さい)ならばYはその期待値に集中するということを主張する定理です. 例えば冒頭で見た例 S=[0,1], f(x_1,\dots,x_n)=x_1+\dots+x_n ならば, 一つの要素x_i\in [0,1]を別の要素 x'_i\in [0,1]に置き換えたとしても関数値は高々1しか変化しないので, L=1としてMcDiarmidの不等式を適用するとHoeffdingの不等式が得られます (より一般にS=[a,b]という設定でも得られます).

McDiarmidの不等式の証明は関数f(x_1,\dots,x_n)に対するDoobのマルチンゲールを考え, それにAzuma--Hoeffdingの不等式を適用させるだけで得られるので, それほど難しくはありません.

2022年2月7日月曜日

von Neumannのmin-max定理に基づくhardcore lemmaの証明

 Impagliazzoのhardcore lemmaに関する以前の記事ではboosting algorithmとして解釈できる証明を与えました. 本記事ではvon Neumannのmin-max定理に基づく証明を与えます. この証明はImpagliazzo(95)に書いてありますが, アイデア自体はNisanによって与えられたものらしいです. Impagliazzoの元論文やArora--Barakの本にも同様の議論が紹介されていますが, これらを自分なりにかなり噛み砕いて説明していきます.

1. hardcore lemmaの復習

  • 関数f\colon\{0,1\}^n\to\{0,1\}と入力分布Dを考える. 任意のサイズs以下の回路Cに対し \Pr_{x\sim D}[C(x)=f(x)]\leq 1-\deltaが成り立つとき, fD上でサイズsに対して\delta-hardであるという.
  • 関数M\colon\{0,1\}^n\to[0,1]をmeasureと呼ぶ. |M|:=\sum_{x\in\{0,1\}^n}M(x)\geq \delta 2^nを満たすときM\delta-denseであるという.
  • measure M が誘導する以下の\{0,1\}^n上の確率分布を考える: 各x\in\{0,1\}^nが選ばれる確率はM(x)/|M|. これをx\sim Mと表す.
  • \{0,1\}^n上の一様分布をU_nで表す.

定理1(hardcore lemma; Impagliazzo 95)
f\colon\{0,1\}^n\to\{0,1\}U_n上でサイズsに対し\delta-hardな関数とする. あるサイズ\delta2^n以上の集合H\subseteq\{0,1\}^nが存在して, fH上一様分布上でサイズO(s\delta^2\epsilon^2)に対して(1/2-\epsilon)-hardである.

定理1は直感的には「fが入力全体上でちょっとhardならば多くの難入力からなる集合Hがとれてその上ではすごくhardである」ということを意味します(この集合Hをhardcore setといいます). 証明するには最終的に「難入力からなる集合Hがとれる」ことを言わなければなりませんが, まず集合を01のindicatorとみなしこれの連続緩和であるmeasureに対して, hardcore measureの存在性を証明し, それをrandomized roundingしてhardcore set の存在性を証明します. 前半のステップには大きく分けて二つの証明手法があり, 一つが前回の記事で紹介したboosting algorithmに基づくものです. もう一つが本記事で紹介するvon Neumannのmin-max定理に基づくものです. 具体的には以下の定理を証明します.

定理2(hardcore measure)
f\colon\{0,1\}^n\to\{0,1\}U_n上でサイズsに対し\delta-hardな関数とする. ある\delta-denseなmeasure M が存在して, fM上でサイズs'=O(s\epsilon^2/\log(\delta^{-1}\epsilon^{-1}))に対して(1/2-\epsilon)-hardである.

定理2の証明の準備としてvon Neumannのmin-max定理の特殊ケースとして得られる以下の補題を述べておきます.

補題3(min-max定理の特殊ケース)
A,Bを有限集合とし, x\in[0,1]^A,\,y\in[0,1]^BをそれぞれA上とB上の確率分布とする. R\colon A\times B\to\mathbb{R}を関数とし, c(x,y):=\mathrm{E}_{a\sim x,b\sim y}[R(a,b)]とする. このとき, \max_x\min_y c(x,y)=\min_y\max_x c(x,y)が成り立つ.

上記の補題はしばし二人ゼロ和ゲームの文脈で解釈されます. すなわち二人のプレーヤー1,2がいて, プレーヤー1は戦略としてa\in Aをとることができ, プレーヤー2は戦略としてb\in Bをとることができます. このときにプレーヤー1の報酬をR(a,b)とします(同時にプレーヤー2が得る報酬は-R(a,b)としてゼロ和ゲームとします). するとx,yはそれぞれプレーヤー1,2の混合戦略(戦略集合上の確率分布)とみなすことができ, c(x,y)はそれぞれの混合戦略をとった時の期待報酬になります.

定理2の証明


以下の二人ゼロ和ゲームを考えます: プレーヤー1はサイズs'の回路Cを選び, プレーヤー2は\delta-denseな集合Hを選びます. プレーヤー1が得る報酬はR(H,C)=\Pr_{x\sim H}[C(x)=f(x)]とします. つまり, プレーヤー1の目的はできるだけ良い回路を選びR(H,C)をできるだけ大きくし, プレーヤー2の目的はできるだけ難しい入力集合Hを選びR(H,C)をできるだけ小さくすることです.
両プレーヤーの混合戦略\mathcal{C},\mathcal{H}の期待報酬c(\mathcal{C},\mathcal{H})を考えます. 補題3より以下の二つのうちどちらか一方が成り立ちます.
  • ケース1: \min_{\mathcal{H}}\max_{\mathcal{C}} c(\mathcal{H},\mathcal{C})<1/2+\epsilon.
  • ケース2: \max_{\mathcal{C}}\min_{\mathcal{H}} c(\mathcal{H},\mathcal{C})\geq 1/2+\epsilon.

ケース1: \max_\mathcal{C}の混合戦略の部分を純粋戦略に置き換えても期待報酬は上がらないので, \min_{\mathcal{H}}\max_{C} c(\mathcal{H},C)<1/2+\epsilonです (ここでCはサイズs'以下の回路全体を動きます). また, \mathcal{H}\{0,1\}^nの分布Dを以下のように誘導します: まずH\mathcal{H}に従って選択し, H上の一様分布を出力する.

このように定義されたDに対してD(x)xが出力される確率と定義すると, 関数M(x)=\delta 2^n D(x)[0,1]上の値をとるためmeasureになっており, しかも\sum_{x\in\{0,1\}^n}M(x)=\delta 2^nなので\delta-denseです. さらにx\sim Mx\sim Dは同じ分布です. 任意に固定された小さい回路Cに対しc(\mathcal{H},C)=\mathrm{E}_{H\sim\mathcal{H}}[\Pr_{x\sim H}[C(x)=f(x)]]=\Pr_{x\sim M}[C(x)=f(x)]<1/2+\epsilonなので, Mはhardcore measureになっているため定理2の主張が成り立ちます.

ケース2: 回路の良い混合戦略\mathcal{C}が存在することになります. 集合Hの選び方を混合戦略から純粋戦略に置き換えるとプレーヤー2のとれる選択肢の幅が狭まります. つまりある\mathcal{C}が存在して任意のサイズ\geq \delta 2^nの集合Hに対し\mathrm{E}_{C\sim\mathcal{C}}[R(C,H)]=\Pr_{C\sim\mathcal{C},x\sim H}[C(x)=f(x)]\geq 1/2+\epsilonが成り立ちます.

ここで, 固定した入力x\in\{0,1\}^nに対して\Pr_{C\sim\mathcal{C}}[C(x)=f(x)]\leq 1/2+\epsilon/2が成り立つときに入力xgoodであるということにします. 直感的にはgoodとはプレーヤー2にとって(\mathcal{C}の正答率を下げられるという意味で)都合の良い入力です. S\subseteq \{0,1\}^nをgoodな入力の全体としましょう. 直感的にはSが多いと\mathcal{C}にとって困難な入力集合を構成できてしまうので|S|は小さいはずです. 実際にこの直感は成り立ちます.

主張: |S|\leq \delta(1-\epsilon)2^n.
主張の証明. Sに要素を任意に追加していきサイズ\delta 2^nにしたものをH^*とします. H^*から一様ランダムに入力を選ぶと確率|S|/\delta 2^nS上の一様分布, 残りの確率でH^*\setminus S上の一様分布で選ばれます. 前者の入力に対する\mathcal{C}の正答率は高々1/2+\epsilon/2で後者は高々1です. よって
\frac{1}{2}+\epsilon \leq \mathrm{E}_{C\sim \mathcal{C}}[\Pr_{x\sim H^*}[C(x)=f(x)]] \leq \frac{|S|}{\delta 2^n}\left(\frac{1}{2}+\frac{\epsilon}{2}\right)+\left(1-\frac{|S|}{\delta 2^n}\right)
を得ます. これを|S|について解くと|S|\leq \delta 2^n\cdot \frac{1-2\epsilon}{1-\epsilon}\leq \delta (1-\epsilon)2^nです.

最後に, \mathcal{C}から独立にt個の回路C_1,\dots,C_tをサンプリングしてそれらをmajorityで結合したものをC'とします. 任意のx\not\in Sに対してt個のindicator \mathbf{1}[C_1(x)=f(x)],\dots,\mathbf{1}[C_t(x)=f(x)]はiidな確率変数であり, これらの期待値はx\not\in Sより1/2+\epsilon/2以上です. 従ってHoeffdingの不等式より
\Pr_{C_1,\dots,C_t}[C'(x)\neq f(x)]=\Pr\left[\sum_{i=1}^t\mathbf{1}[C_i(x)=f(x)]\leq t/2\right] \leq \exp(-\epsilon^2t/2). 
この確率は適当なt=O(\epsilon^{-2}\log(\epsilon^{-1}\delta^{-1}))に対して\leq \delta\epsilonとなります. このtに対してC'を考えるとそのサイズはO(ts')<sとなります. また, 固定したC'に対して
\Pr_{x\sim U_n}[C'(x)\neq f(x)]\leq \Pr_{x\sim U_n}[x\in S]+\Pr_{x\sim \{0,1\}^n\setminus S}[C'(x)\neq f(x)]
および|S|の上界より,
\mathrm{E}_{C'}[\Pr_{x\sim U_n}[C'(x)\neq f(x)]] \leq \delta(1-\epsilon)+\delta\epsilon =\delta.
よってC'は期待値的には一様分布上でfを確率1-\deltaで計算することになるので, averaging principleにより正の確率でこの性質を満たします. probabilistic methodにより仮定(f\delta-hardness)に矛盾する回路C'の存在性が言えました. (証明終)


証明におけるケース2のC'の構成はboostingの時に考えた構成と同様にmajorityをとっていますがここではi.i.d.にC_1,\dots,C_t\mathcal{C}からサンプリングしています. ただ, この回路C'はランダムに構成された回路であってあくまでもその存在性はprobabilistic argumentに基づいています.

2022年2月3日木曜日

単純ランダムウォークの到達時間と全訪問時間のまとめ

概要

連結無向グラフ上の単純ランダムウォークの到達時間(hitting time)と全訪問時間(cover time)に関する様々な結果を紹介します. 前半で諸定義を書き後半は軽いサーベイになっています.

1. 用語と定義


この章は基本的な用語の定義だけなのでよく分からなければ読み飛ばしても大丈夫です. 本記事では有限集合V上の離散時間マルコフ連鎖(X_t)_{t\geq 0}ランダムウォークと呼ぶことにします. 便宜上, 集合Vを頂点集合と呼びその要素v\in Vを頂点と呼ぶことにします. 遷移確率が時刻に依存せず一定であれば, (X_t)は斉時的である (time-homogeneous) といいます. 以下では断りなく(X_t)はtime-homogeneousなランダムウォークを表すこととし, その遷移確率行列をPと表記します. 即ち, P\in[0,1]^{V\times V}であって(X_t)
\Pr[X_{t+1}=v\mid X_t=u] = P(u,v)
の遷移規則を満たす確率変数列です. 数直線上のランダムウォークなどを考えるとV=\mathbb{Z}は無限集合になることもあり, この時はPは行列ではなく線形作用素と見なすことになりますが, ここではそのようなケースは考慮しません.

Pと初期点X_0を与えると(X_t)の軌道の分布が定まります. X_tの分布をx_t\in[0,1]^Vとすると, x_{t}=x_{t-1} P = \dots = x_0 P^tを満たします. 大袈裟に言ってしまえば, (X_t)の分布を調べることはP^tの性質を調べることと同義なので, 線形代数が重要になってくることは想像に難くないと思います. 特に, Pがその定常分布から誘導される計量(内積空間)において自己随伴的であることを仮定することが多く (これを可逆性; reversibility), この場合は特に実固有値を持ち, 特にCourant–Fischerの定理を使うことによって混交時間 (mixing time)などを抑えることができます. これらの基礎をちゃんと学びたい人は Reversible Markov Chains and Random Walks on GraphsMarkov Chains and Mixing Times などの教科書がオススメです.

例(単純ランダムウォーク)

無向グラフG=(V,E)の頂点u\in Vの次数を\deg(u)とします. 

\begin{align*} P(u,v) = \begin{cases} \frac{1}{\deg(u)} & \text{if }uv\in E,\\ 0 & \text{otherwise}\end{cases}\end{align*}

によって定義されるPによって定まる(X_t)単純ランダムウォーク(simple random walk; SRW) といいます. 言い換えると, 隣接頂点から一様ランダムに頂点を選びそこに遷移する過程で, 最も有名なランダムウォークだと思います. X_tの分布のベクトルx_t\in[0,1]^Vに対し, \lim_{t\to\infty}x_tは収束するでしょうか?

結論から言うとNOとなる例が存在します. 無向二部グラフ上の単純ランダムウォークを考えてみましょう. すると左右の頂点集合に交互に移動することになるので, x_tは収束しないことがすぐわかります.

このようなランダムウォークの周期性 (periodicity) を除去するために, 確率1/2で今の位置にとどまるような以下のPで定まるランダムウォークを考えてみましょう:

\begin{align*} P(u,v) = \begin{cases} \frac{1}{2} & \text{if }u=v,\\ \frac{1}{2\deg(u)} & \text{if }uv\in E,\\ 0 & \text{otherwise}.\end{cases}\end{align*}

自己ループをくっつけたので, 先ほどの二部グラフのような周期性は除外され, 実はx_tの集束することが証明できます (Gの無向性は必要). このようなランダムウォークは遅延単純ランダムウォーク (lazy simple random walk; LSRW) と呼びます (lazyの和訳でよく使われるものを知らないのでとりあえずここでは遅延と呼ぶことにします).



1.1. 到達時間, 全訪問時間, 混交時間


V上のランダムウォーク(X_t)_{t\geq 0}を考えます. 二つの頂点u,vに対し確率変数\tau_{\mathrm{hit}}(u,v)=\min\{t\geq 0\colon X_t=v,X_0=u\}
を考えます. これは頂点uからスタートして頂点vに初めて到達するまでに要する時間を意味します. 定義より明らかに\tau_{\mathrm{hit}}(u,u)=0です.
t_{\mathrm{hit}}=\max_{u,v\in V}\mathrm{E}[\tau_{\mathrm{hit}}(u,v)]
到達時間(hitting time)と呼びます. 以降, ``\tau"が付くものは確率変数で``t"がつくものはそれの期待値だと思ってください.

次に, 全訪問時間(cover time)を定義します. 頂点uに対し確率変数
\tau_{\mathrm{cov}}(u)=\min\{t\geq 0\colon \{X_0,\dots,X_t\}=V,X_0=u\}
を定義します. これはuを始点としたランダムウォークが全ての頂点に少なくとも1回ずつ到達するのに要した時間を表す確率変数です.
t_{\mathrm{cov}}=\max_{u\in V}\mathrm{E}[\tau_{\mathrm{cov}}(u)]
(X_t)全訪問時間(cover time) と呼びます.

1.2. SRWに対する有名なバウンド


この節では連結無向グラフG上のSRWの到達時間と全訪問時間のバウンドに関する既存結果だけを簡単に紹介します. LSRWを考えても期待値的に値は2倍しか変わりません. Gの頂点数をn, 辺数をmとします.

自己ループ付きの完全グラフ上のSRWの全訪問時間はクーポンコレクター問題になり, 古くから研究されており, t_{\mathrm{cov}}=(1+o(1))n\log nです.

n頂点のパスグラフは最悪な始点として端の頂点を考えればよく, この場合はもう一方の端の頂点に到達するまでに要する時間を考えればt_{\mathrm{hit}}=t_{\mathrm{cov}}=\Theta(n^2)が示せます. \Theta(n^2)の直感としては, 無限の数直線\mathbb{Z}上のTステップの単純ランダムウォークはT個の独立なRademacher確率変数 (一様に\pm 1のいずれかを出力する確率変数)の和として表すことができ, 中心極限定理よりTステップ後の座標は絶対値が大体\Theta(\sqrt{T})くらいになります. nだけずれるのに要する時間は\Theta(\sqrt{T})=nTについて解いてT=\Theta(n^2)を得ます.

明らかに到達時間は全訪問時間の下界になるためt_{\mathrm{hit}}\leq t_{\mathrm{cov}}なのですが, 実はt_{\mathrm{cov}}=O(\log n\cdot t_{\mathrm{hit}})が任意のグラフで成り立ちます. これはランダムウォークの文脈ではMatthew's bound [Matthew, Ann. Probab. 88]などと呼ばれる非常に有名なテクニックです.

Aleliunasら [Aleliunas, Karp, Lipton, Lovász, and Rackoff, FOCS1979]は任意の連結グラフに対しt_{\mathrm{cov}}\leq 2m(n-1)を証明しました. この証明は全域木に沿った軌道を考えそれぞれの辺に対するedge commute timeの総和を考えることで得られており, 1ページほどにまとめられていて面白いです.

Kahnら [Kahn, Linial, Nisan, Saks, J. Theor. Probab., 1989]は\frac{m}{2d_{\min}}\leq t_{\mathrm{hit}} \leq t_\mathrm{cov}\leq 16mn/d_{\min} (d_{\min}は最小次数) を示しました. ここから系として, 正則グラフに対するt_{\mathrm{cov}}=O(n^2)というバウンドが得られます. この定理の証明はAleliunasらの証明における全域木を巧妙に構成することによって得られています. この上界は定数倍を除いてタイトで, t_{\mathrm{hit}}=\Omega(n^2)$を満たす3正則グラフが構成されています (cf. Aldous--Fill本).

Aleliunasらの上界がタイトになる例も知られており[Brightwell, Winkler, RSA1990]はロリポップグラフと呼ばれるグラフがt_{\mathrm{hit}}=(4/27+o(1))n^3になることを証明し, Feige [Feige, RSA1995]は任意の連結グラフでt_{\mathrm{cov}}=(4/27)n^3+O(n^{2.5})となることを証明しました.





hardcore lemmaとその証明

1. 導入

Impagliazzoのhardcore lemmaと呼ばれる非常に面白いメッセージ性を持つ平均計算量理論において有名な結果[Impagliazzo, FOCS95]を紹介し, その証明をします. 直感的に言えばこの結果は「任意の"まぁまぁ困難な"計算問題に対して"めちゃくちゃ難しい"インスタンスの集合Hであって密なものが存在する」ということを主張します.

平均計算量理論については以前の記事で触りだけ紹介しています. 本記事では問題として判定問題f\colon \{0,1\}^n\to\{0,1\}を考え, 入力分布としてある有限集合H (例えばH=\{0,1\}^n) 上の一様分布を考えます. また, 計算モデルとしては回路を考え, その効率性を回路サイズ (=ゲートの個数) で測ります. これを回路計算量と呼びます. アルゴリズムの時間計算量と回路計算量の関係性は非自明で以前の記事で触れていますが, 任意のアルゴリズムはその動作を回路で(少しのオーバーヘッドがあるものの)シミュレーションできるため, 「時間計算量が小さいならば回路計算量が小さい」は成り立ちます (逆は必ずしも成り立たちません).


2. Hardcore lemmaの主張


定義1 (関数のhardness).
関数f\colon\{0,1\}^n\to\{0,1\}は, 任意のサイズs以下の回路Cに対し\Pr_{x\sim H}[C(x)=f(x)]\leq 1-\deltaを満たすとき, サイズsに対しH上で\delta-hardであるという. ここで, \Pr_{x\sim H}[...]x\in\{0,1\}^nH上一様ランダムにサンプリングされた時の確率をとることを意味する.

\deltaの値が大きいほどfは難しいと解釈できますが, 常に0を出力する回路と常に1を出力する回路を考えればどちらか一方は半分以上の入力xに対しf(x)を正しく計算できるので, \delta>1/2にはなりえません. 

定理1 (Impagliazzo's hardcore lemma)
任意の\delta,\epsilon>0に対し以下が成り立つ: f\colon\{0,1\}^n\to\{0,1\}がサイズsに対し\{0,1\}^n上で\delta-hardであるならば、サイズ\delta 2^n以上のある集合Hが存在してfはサイズO(\delta^2\epsilon^2 s)に対しH上で(1/2-\epsilon)-hardである.

冒頭でも述べた通り, f\{0,1\}^n上でまぁまぁ難しい (i.e., 0.01-hard) ならば, fがめちゃくちゃ難しい(i.e., 0.499-hard)ようなサイズ0.01\times 2^n以上のインスタンスの集合Hが存在することになります.

3. 証明


主に二通りの証明方法 (ブースティングアルゴリズムに基づくものとNewman's min-max theoremに基づくもの) が知られています. 後者の証明はArora-Barakの本などにも紹介されているので, 本記事では前者の証明を紹介します.

3.1. Hardcore measure


まず, setの連続緩和としてmeasureという概念を定義し, hardcore setの存在性の代わりにhardcore measureの存在性を証明します. 

定義2 (measure)
関数M\colon\{0,1\}^n\to\{0,1\}をmeasureと呼ぶ (測度論における測度とは区別するのを注意してください). Mのサイズを|M|=\sum_{x\in\{0,1\}^n}M(x)とし, 相対サイズを\mu(M)=|M|/2^nとする. \mu(M)\geq \deltaであるとき, M\delta-denseであるという.

定義3 (measureにおけるhardness)
Mをmeasureとする. 関数f\colon \{0,1\}^n\to\{0,1\}は以下を満たすとき, サイズsに対しM上で\delta-hardであるという: 任意のサイズs以下の回路Cに対し\Pr_{x\sim M}[C(x)=f(x)]\leq 1-\delta.
ここで, \Pr_{x\sim M}[...]M(x)に比例する確率でxをサンプリングした時の確率を考える.


注釈: measureは集合H\subseteq \{0,1\}^nを"連続化したもの"と解釈できます. 例えばMとしてHの指示関数 (M(x)=1 if x\in H, M(x)=0 if x\not\in H) をとれば, M\delta-dense \iff |H|\geq \delta 2^n となります.

まず, 定理1の代わりにそれのmeasure版となる以下の結果を証明します:

定理2 (hardcore measure)
任意の\delta,\epsilon>0に対し以下が成り立つ: f\{0,1\}^n上でサイズsに対し\delta-hardならば, ある\delta-denseな measure Mが存在し, fM上でサイズO(\delta^2\epsilon^2s)に対し(1/2-\epsilon)-hardである.


(証明)
待遇 (i.e., 任意のM上でhardでないならば\{0,1\}^n上でhardでない) を示します. 具体的には, 任意の\delta-denseなmeasure Mに対し, fM上でサイズs'に対し(1/2-\epsilon)-hardでないと仮定します. すなわち, 任意の\delta-denseなMに対しあるサイズs'の回路C_Mが存在して\Pr_{x\sim M}[C(x)=f(x)]>1/2+\epsilonとします. これらの回路C_Mを組み合わせることによって, \Pr_{x\sim \{0,1\}^n}[C'(x)=f(x)]>1/2+\deltaとなるようなサイズO(\epsilon^{-2}\delta^{-2}s')の回路C'を構成します.
最終的に得られる回路C'C'=\mathsf{maj}(C_1,\dots,C_t)の形になります (\mathsf{maj}(x_1,\dots,x_t)\sum x_i\geq t/2以上ならば1, そうでなければ0を返す関数で, この関数はサイズO(t)の回路で計算できることが知られています.) 以下ではC_1,\dots,C_tを定義します.

\gamma:=\delta\epsilonとします. まず, 定数measure M_1\equiv 1 から始めます. measure M_iに対しC_i=C_{M_i}とします (待遇の仮定からこのような回路が存在). 事象Zの符号付き指示関数を[Z]と定義し (i.e., Zが真なら[Z]=1, そうでないなら[Z]=-1), R_i(x)=\sum_{j=1}^i [C_i(x)=f(x)]とします. 次のステップにおけるmeasure M_{i+1}を,
M_{i+1}(x) = \begin{cases} 1 & \text{if }R_i(x)\leq 0,\\1-\gamma R_i(x) & \text{if }0<R_i(x)<1/\gamma,\\0 & \text{if }R_i(x)>1/\gamma\end{cases}
で定義します. イメージとしては, これまで得られた回路の過半数が間違えるような入力に対しては最大の重みM_{i+1}(x)=1を与え, これまでの回路のうち多くが正解するような入力に対しては重みを与えない (M_{i+1}(x)=0) ようなものです. これを\mu(M_{i+1})\leq \deltaになるまで繰り返し, 得られた回路をC_1,\dots,C_tとします.

最終的な回路C'の性能を評価します. 入力xに対してC'(x)\neq f(x)ならば, C_1,\dots,C_tのうち過半数が違う値を計算してるので, C_1(x)+\dots+C_t(x)<t/2となり, R_t(x)<0となります. このとき上記の構成よりM_{t+1}(x)=1です. したがって
\Pr_{x\sim \{0,1\}^n}[C'(x)\neq f(x)] \leq \Pr_{x\sim \{0,1\}^n}[M_{t+1}(x)=1] \leq \frac{1}{2^n}\sum_{x\in\{0,1\}^n}M_{t+1}(x)\leq \delta
となるので, C'\{0,1\}^n上でf1-\delta以上の確率で計算していることになります. また, 各C_iのサイズ\leq s'であることからC'のサイズはO(ts')です.

最後にt=O(\epsilon^{-2}\delta^{-2})を示せば証明が完了します. ポテンシャルとして
A_t:=\sum_{1\leq i\leq t}\sum_{x\in\{0,1\}^n}M_i(x)[C_i(x)=f(x)]
を考え, その上下界を求めます:

(1): A_t\geq t2^{n+1}\gamma.
回路C_iM_i上の正答率の仮定から\sum_{x\in\{0,1\}^n}\frac{M_i(x)}{|M_i|}[C_i(x)=f(X)]=2\Pr_{x\sim M_i}[C_i(x)=f(x)]-1\geq 2\epsilonなので,
A_t=\sum_{1\leq i\leq t}|M_i|(2\Pr_{x\sim M_i}[C_i(x)=f(x)]-1)\geq t\delta 2^{n+1}\epsilon=t2^{n+1}\gamma.

(2): A_t\leq 2^n(\gamma t/2+1/\gamma).
x\in\{0,1\}^nを固定し, S:=\sum_{i=1}^tM_i(x)[C_i(x)=f(x)]を上から抑えます. a\in\mathbb{Z}に対して
m(a) = \begin{cases} 1 & \text{if }a\leq 0,\\1-\gamma a & \text{if }0<a<1/\gamma,\\0 & \text{if }a>1/\gamma\end{cases}
と定めると, M_i(x)=m(R_{i-1}(x))と書けます. ここで, 次で定義される辺重み付き有向グラフG=(V,A)を考えます: V=\{R_i(x)\colon i=0,\dots,t\}, A=\{(R_i(x),R_{i+1}(x))\colon i=0,\dots,t-1\}, 辺(R_i(x),R_{i+1}(x))の重みはM_i(x)(R_i(x)-R_{i-1}(x))=m(R_{i-1}(x))(R_i(x)-R_{i-1}(x)).

有向グラフG

ここで, 辺のペア(a,a+1)(a+1,a)を考えます. これらの辺は逆向きなので重みの符号は異なり, その大きさは|M(a)-M(a+1)|\leq \gammaを満たします. このような辺のペアは高々t/2本あり, 総和に対して高々\gamma t/2だけ寄与します. 次に, この辺のペアをGから除去すると残るグラフは右に行き続けるパスまたは左に行き続けるパスになります.

ペアを全て除去して残ったグラフ


上図のように左に行き続けるパス (つまり, 頂点a\to a-1\to\dots \to a-\ellを辿るパス) の辺重みは全て負なので, パス重みの総和には寄与しません. また, 右に行き続けるパス (頂点a\to a+1\to \dots \to a+\ellを辿るパス) の寄与はm(a)+m(a+1)+\dots+m(a+\ell-1)ですが, b>1/\gammaなる任意のbに対してm(b)=0なのでこの寄与は高々1/\gammaとなります. 従って, パス重みの総和は高々\gamma t/2 + 1/\gammaです. 考えるべきパスは2^n個あるから, A_t\leq 2^n(\gamma t/2+1/\gamma)を得ます.


(1),(2)のバウンドより, 
t2^{n+1}\gamma \leq A_t \leq 2^n(\gamma t/2+1/\gamma)
となるので, t\leq 2/(3\gamma^2) \leq (\delta\epsilon)^{-2}を得ます.

3.2. Hardcore measure \Rightarrow Hardcore set


3.1の議論により, hardcore measure Mの存在性が言えました. randomized roundingとprobabilistic methodを組み合わせてhardcore set Hの存在性を証明します. 整理すると, M\delta-denseであり, かつ任意の小さい回路Cに対して
\Pr_{x\sim M}[C(x)=f(x)]\leq \frac{1}{2}+\epsilon
を満たします. この節では|H|\geq \delta/2\cdot 2^nであり, かつ任意の小さい回路Cに対して
\Pr_{x\sim H}[C(x)=f(x)]\leq \frac{1}{2}+\epsilon
を満たす集合H\subseteq\{0,1\}^nの存在性を証明します.

Hardcore measure M を考えます. 各x\in\{0,1\}^nに対して, 独立に確率M(x)/|M|xを含むようなランダム集合をHとします. まず, |H|の期待値は|M|なので, Hoeffding boundより確率1-2^{-\Omega(2^{n})}|H|\geq 0.9|M|を満たします (つまりHは高確率で密な集合). 次に\Pr_{x\sim H}[C(x)=f(x)]=\frac{|\{x\in H\colon C(x)=f(x)\}|}{|H|}を考えます (Hがランダム集合なので, この値はHのランダムネスに起因する確率変数となる). 先ほど分母の下界を求めたので, 次は分子の上界を求めます. まず, 回路Cを固定してA_C=\{x\colon C(x)=f(x)\}を回路Cが正解する入力の集合とします. すると分子は|H\cap A_C|=\sum_{x\in A_C}\mathbf{1}_{x\in H}となり, これは(Hの構成法により)独立な確率変数の和となります. さらにその期待値は\mathrm{E}[|H\cap A_C|]=|M|\sum_{x\in A_C}\frac{M(x)}{|M|}=|M|\Pr_{x\sim M}[C(x)=f(x)]\leq (1/2+\epsilon)|M|となるので, 非常に高い確率 (確率1-2^{-\Omega(2^n)}) で|H\cap A_C|\leq 1.001(1/2+\epsilon)|M|\leq (1/2+\epsilon')|M|となります. 従って, 回路Cに関するunion bound (Cが小さいサイズ, 例えば多項式サイズならば, Cの総数は2^{\mathrm{poly}(n)}以下になる) により, 
\Pr_H[\forall C,\Pr_{x\sim H}[C(x)=f(x)]\leq \frac{1}{2}+\epsilon'] \geq 1-2^{-\Omega(2^n)}\cdot 2^{\mathrm{poly(n)}}>0.
よって正の確率でHはhardcore setの条件を満たすので, 所望のHの存在性が証明できました (証明終).

4. 教師有り学習のブースティングとの関係


教師有り学習の文脈では, f\colon\{0,1\}^n\to\{0,1\}を二値分類タスクとみなし, C_MM上で動作する弱い分類器とみなすことにより, C'の構成をブースティングの一種と解釈することができます (ただし上記の証明ではあくまでもC'の存在性にすぎず, その構成アルゴリズムを与えたものではないため, ブースティングアルゴリズムそのものは与えていません). 上記の証明はMを上手く更新しながら対応する分類器をとってきてそれらのmajorityをとるものになっており, 今回の証明以外にもMの更新方法は様々知られており, 例えばAdaBoostのようなmultiplicative updateに基づくもの (+Bregman projection)も知られており, t=O(\epsilon^{-2}\log\delta^{-1})まで改善されています (Barak et al. SODA09).




講義資料をNotionで書いてみた

 プログラミング応用という名前の講義を受け持っており, そこで組合せ最適化のベーシックな話題とそのPythonでの実装を教えているのですが, 資料をNotionで書いてみました. 講義資料をNotionで公開しているのでアルゴリズムの基礎とかNP困難性とかを勉強したい人はどう...