教材一覧
教材一覧
教材検索

不完備情報の静学ゲーム

ベイジアンゲームのハーサニ変換とベイズ同値仮説

目次

Twitterで共有
メールで共有

ハーサニ変換

ベイジアンゲーム\(G\)において共通事前分布を仮定する場合、それぞれのプレイヤー\(i\)の信念\(f_{i}=\left\{ f_{i}\left( \cdot |\theta _{i}\right)\right\} _{\theta _{i}\in \Theta _{i}}\)は、プレイヤーたちにとって共有知識である共通事前分布\(f^{\ast }:\Theta _{I}\rightarrow \left[ 0,1\right] \)と整合的です。つまり、プレイヤー\(i\in I\)とそのタイプ\(\theta _{i}\in \Theta _{i}\)および他のプレイヤーたちのタイプ\(\theta _{-i}\in\Theta _{-i}\)をそれぞれ任意に選んだときに、\(f_{i}\)と\(f^{\ast }\)の間には、\begin{equation*}f_{i}\left( \theta _{-i}|\theta _{i}\right) =\frac{f^{\ast }\left( \theta
_{i},\theta _{-i}\right) }{\sum\limits_{\theta _{-i}\in \Theta _{-i}}f^{\ast
}\left( \theta _{i},\theta _{-i}\right) }
\end{equation*}という関係が成り立つということです。この意味において、共通事前分布の仮定はすべてのプレイヤーが同一の主観的予想を持っていることを要求します。

また、ベイジアンゲーム\(G\)の定義より、プレイヤーたちのタイプ集合\(\Theta _{1},\cdots ,\Theta _{n}\)もまた共有知識です。したがって、それぞれのプレイヤー\(i\)は共通事前分布\(f^{\ast }\)から自身の信念\(f_{i}=\left\{ f_{i}\left( \cdot |\theta _{i}\right)\right\} _{\theta _{i}\in \Theta _{i}}\)を導出できるだけでなく、他の任意のプレイヤー\(j\ \left( \not=i\right) \)の信念\(f_{j}=\left\{ f_{j}\left(\cdot |\theta _{j}\right) \right\} _{\theta _{j}\in \Theta _{j}}\)を導出することもできます。つまり、共通事前分布の仮定のもとでは、プレイヤーたちの信念からなる組\(\left\{ f_{i}\right\} _{i\in I}\)もまた共有知識になります。共通事前分布を導入することによりプレイヤーたちの信念が私的情報から共有知識へ変化します。

では、共通事前分布の仮定を認める場合、不完備情報ゲームにおける情報の非対称性、すなわち、それぞれのプレイヤーにとって自身の真のタイプが私的情報であるという状況をどのように表現すればよいでしょうか。共通事前分布\(f^{\ast }\)を仮定する場合には、ベイジアンゲームを\(G\)を以下の手順を通じて不完全な動学ゲームへ変換することにより、一般性を失わないまま、プレイヤーにとって自身の真のタイプが私的情報である状況を表現できます。このような変換をハーサニ変換(Harsanyi transformation)と呼びます。

  1. 自然(nature)と呼ばれるプレイヤーが、状態集合\(\Theta _{I}\)上の同時確率関数である共通事前分布\begin{equation*}f^{\ast }:\Theta _{I}\rightarrow \left[ 0,1\right]\end{equation*}を定める。\(\Theta _{I}\)および\(f^{\ast }\)は共有知識である。
  2. 自然はそれぞれのプレイヤー\(i\)に対して、その人の真のタイプ\(\theta _{i}\in \Theta _{i}\)を明かすが、他のプレイヤーには明かさない。つまり、プレイヤー\(i\)の真のタイプ\(\theta _{i}\)は彼の私的情報になる。
  3. それぞれのプレイヤー\(i\)は自身の行動集合\(A_{i}\)の中から特定の行動\(a_{i}\)を選択する。その際、他のプレイヤーたちが選択する行動を事前に観察できない。
  4. プレイヤーたちが選択した行動\(a_{I}\in A_{I}\)に対してゲームのルールが結果を定める。
  5. 真の状態\(\theta _{I}\)とプレイヤーたちが選択した行動の組\(a_{I}\)に応じて、それぞれのプレイヤー\(i\)は利得関数\(u_{i}\left( \cdot ,\theta _{I}\right) \)のもとで先の結果を評価し、利得\(u_{i}\left( a_{I},\theta _{I}\right) \)を獲得する。

繰り返しになりますが、自然が定める共通事前分布\(f^{\ast }\)は、それぞれの状態\(\theta _{I}\in \Theta _{I}\)が起こる確率\(f^{\ast }\left( \theta_{I}\right) \)を特定する同時確率関数であり、これは、ハーサニ変換前のベイジアンゲーム\(G\)におけるプレイヤーたちの信念\(\left\{ f_{i}\right\} _{i\in I}\)と整合的でなければなりません。具体的には、プレイヤー\(i\in I\)とそのタイプ\(\theta _{i}\in \Theta _{i}\)および他のプレイヤーたちのタイプ\(\theta _{-i}\in\Theta _{-i}\)をそれぞれ任意に選んだときに、タイプ集合が離散的である場合には、\begin{equation*}f_{i}\left( \theta _{-i}|\theta _{i}\right) =\frac{f^{\ast }\left( \theta
_{i},\theta _{-i}\right) }{\sum\limits_{\theta _{-i}\in \Theta _{-i}}f^{\ast
}\left( \theta _{i},\theta _{-i}\right) }
\end{equation*}が成り立ち、タイプ集合が連続的である場合には、\begin{equation*}
f_{i}\left( \theta _{-i}|\theta _{i}\right) =\frac{f^{\ast }\left( \theta
_{i},\theta _{-i}\right) }{\int\limits_{\theta _{-i}\in \Theta _{-i}}f^{\ast
}\left( \theta _{i},\theta _{-i}\right) d\theta _{-i}}
\end{equation*}が成り立つということです。自然はプレイヤー\(i\)に対してその人の真のタイプだけを伝えるため、真のタイプはプレイヤーの私的情報です。したがって、プレイヤー\(i\)の信念\(f_{i}=\left\{ f_{i}\left( \cdot |\theta_{i}\right) \right\} _{\theta _{i}\in \Theta _{i}}\)の中でも、どの信念\(f_{i}\left( \cdot |\theta_{i}\right) \)が真のタイプ\(\theta _{i}\)にもとづくものであるかはプレイヤー\(i\)の私的情報です。

一般に、全員の信念\(\left\{ f_{i}\right\} _{i\in I}\)と整合的であるような同時確率関数\(f^{\ast }\)は存在するとは限らないため、ベイジアンゲームはハーサニ変換であるとは限りません。ベイジアンゲーム\(G\)がハーサニ変換可能である場合、変換後のゲームを\(\Gamma \)で表記します。これはベイジアンゲーム\(G\)の要素に共通事前分布\(f^{\ast }\)を加えることで得られるゲーム\begin{equation*}\Gamma =\left( I,\left\{ A_{i}\right\} _{i\in I},\left\{ \Theta _{i}\right\}
_{i\in I},\left\{ u_{i}\right\} _{i\in I},f^{\ast }\right)
\end{equation*}です。

ベイジアンゲーム\(G\)は静学ゲームである一方、ハーサニ変換後のゲーム\(\Gamma \)は自然が最初に行動し、続いてプレイヤーたちが行動する動学ゲームです。加えて、自然はそれぞれのプレイヤー\(i\)に対してその人の真のタイプだけを伝えるため、プレイヤー\(i\)は自分以外の任意のプレイヤー\(j\ \left(\not=i\right) \)の真のタイプを知ることができません。つまり、それぞれのプレイヤー\(i\)は自身が行動する手番において、そこまでのゲームの歴史を完全に把握しておらず、したがってハーサニ変換後のゲーム\(\Gamma \)は不完全情報ゲームです。また、ベイジアンゲーム\(G\)のすべての要素は共有知識であり、なおかつ共通事前分布\(f^{\ast }\)もまた共有知識であるため、ハーサニ変換後のゲーム\(\Gamma \)のすべての要素もまた共有知識です。

ハーサニ変換前のベイジアンゲーム\(G\)では、プレイヤーの信念は私的情報であるため、プレイヤーは他のプレイヤーたちのタイプを予想するだけでなく、他のプレイヤーたちがどのような信念を持っているかを予想する必要があり、加えて、自分の信念を他のプレイヤーたちがどのように予想しているかを予想する必要があるなど、検討すべき要素が無限に積み重なってしまいます。ベイジアンゲームを分析する際の困難はここにあります。一方、ハーサニ変換後のゲーム\(\Gamma \)では、形式的には全員が共通の主観的予想を持っていることが保証され、さらにその事実が共有知識になります。したがって、ハーサニ変換後のゲーム\(\Gamma \)においては、他のプレイヤーたちの信念を予想したり、また、自分の信念を他のプレイヤーたちがどのように予想しているかを予想するなど、そのような複雑なことを考える必要がありません。ただ、ハーサニ変換後のゲーム\(\Gamma \)においても、プレイヤーの真のタイプは依然として私的情報です。そのため、ハーサニ変換後のゲーム\(\Gamma \)におけるプレイヤー\(i\)の純粋戦略もまた、変換前のベイジアンゲーム\(G\)と同様に、\begin{equation*}s_{i}:\Theta _{i}\rightarrow A_{i}
\end{equation*}と定式化されます。つまり、純粋戦略\(s_{i}\)のもとで、プレイヤー\(i\)は自身のタイプが\(\theta _{i}\in \Theta _{i}\)である場合には行動\(s_{i}\left( \theta _{i}\right) \in A_{i}\)を選択するということです。

 

事前期待利得

ハーサニ変換後のゲーム\(\Gamma \)において任意のプレイヤー\(i\)は共通事前分布\(f^{\ast }\)と整合的な信念\(f_{i}\)を持っているため、変換前のベイジアンゲーム\(G\)と同様、自身のタイプ\(\theta _{i}\)を知った段階において、純粋戦略の組\(s_{I}\)がもたらす中間期待利得\begin{equation*}E_{\theta _{-i}}\left[ u_{i}\left( s_{I}\left( \theta _{I}\right) ,\theta
_{I}\right) \ |\ \theta _{i}\right] \end{equation*}を計算できます。加えて、ハーサニ変換後のゲーム\(\Gamma \)では、変換前のゲーム\(G\)とは異なり、任意のプレイヤーは共通事前分布\(f^{\ast }\)を知っているため、自身のタイプ\(\theta _{i}\)を知る前の段階において、純粋戦略の組\(s_{I}\)がもたらす利得の期待値を計算できます。具体的には、タイプ集合が離散型である場合には、\begin{equation*}\sum_{\theta _{I}\in \Theta _{I}}\left[ u_{i}\left( s_{I}\left( \theta
_{I}\right) ,\theta _{I}\right) \cdot f^{\ast }\left( \theta _{I}\right) \right] \end{equation*}となり、タイプ集合が連続型である場合には、\begin{equation*}
\int_{\theta _{I}\in \Theta _{I}}\left[ u_{i}\left( s_{I}\left( \theta
_{I}\right) ,\theta _{I}\right) \cdot f^{\ast }\left( \theta _{I}\right) \right] d\theta _{I}
\end{equation*}となります。そこで、これを純粋戦略の組\(s_{I}\)からプレイヤー\(i\)が得る事前期待利得(ex-ante expected payoff)と呼び、\begin{equation*}E_{\theta _{I}}\left[ u_{i}\left( s_{I}\left( \theta _{I}\right) ,\theta
_{I}\right) \ |\ \theta _{I}\right] \end{equation*}で表記します。

ハーサニ変換後のゲーム\(\Gamma \)において、中間期待利得と事前期待利得の間には以下の関係が成り立ちます。

命題(事前期待利得と中間期待利得の関係)
ハーサニ変換後のゲーム\(\Gamma \)において、純粋戦略の組\(s_{I}\in S_{i}\)とプレイヤー\(i\in I\)をそれぞれ任意に選んだとき、タイプ集合が離散型の場合には、\begin{equation*}E_{\theta _{I}}\left[ u_{i}\left( s_{I}\left( \theta _{I}\right) ,\theta
_{I}\right) \ |\ \theta _{I}\right] =\sum_{\theta _{i}\in \Theta
_{i}}\left\{ E_{\theta _{-i}}\left[ u_{i}\left( s_{I}\left( \theta
_{I}\right) ,\theta _{I}\right) \ |\ \theta _{i}\right] \cdot f^{\ast
}\left( \theta _{i}\right) \right\}
\end{equation*}という関係が成り立つ。ただし、\(f^{\ast }\left( \theta_{i}\right) \)は共通事前分布\(f^{\ast }:\Theta _{I}\rightarrow \left[ 0,1\right] \)から得られる\(\theta _{i}\)に関する周辺確率分布であり、\begin{equation*}f^{\ast }\left( \theta _{i}\right) =\sum_{\theta _{-i}\in \Theta
_{-i}}f^{\ast }\left( \theta _{i},\theta _{-i}\right)
\end{equation*}である。また、タイプ集合が連続型の場合には、\begin{equation*}
E_{\theta _{I}}\left[ u_{i}\left( s_{I}\left( \theta _{I}\right) ,\theta
_{I}\right) \ |\ \theta _{I}\right] =\int_{\theta _{i}\in \Theta
_{i}}\left\{ E_{\theta _{-i}}\left[ u_{i}\left( s_{I}\left( \theta
_{I}\right) ,\theta _{I}\right) \ |\ \theta _{i}\right] \cdot f^{\ast
}\left( \theta _{i}\right) \right\} d\theta _{i}
\end{equation*}という関係が成り立つ。ただし、\(f^{\ast }\left( \theta_{i}\right) \)は共通事前分布\(f^{\ast }:\Theta _{I}\rightarrow \left[ 0,1\right] \)から得られる\(\theta _{i}\)に関する周辺確率分布であり、\begin{equation*}f^{\ast }\left( \theta _{i}\right) =\int_{\theta _{-i}\in \Theta
_{-i}}f^{\ast }\left( \theta _{i},\theta _{-i}\right) d\theta _{-i}
\end{equation*}である。

証明

プレミアム会員専用コンテンツです
ログイン】【会員登録

 

ハーサニ変換後のゲームにおける事前ベイジアンナッシュ均衡

ベイジアンゲーム\(G\)においてそれぞれのプレイヤーは、ベイジアン仮説のもと、自身のタイプにもとづく信念から導出される中間期待利得を最大化するような純粋戦略を選択します。一方、ハーサニ変換後のゲーム\(\Gamma \)においてそれぞれのプレイヤーは、自身のタイプ\(\theta _{i}\)を知る前の段階において、事前期待利得を最大化するような純粋戦略を選択できます。言い換えると、共通事前分布にもとづいて市場の真の状態を予想し、その予想から導出される事前期待利得を最大化するような純粋戦略を模索できるということです。以上を踏まえた上で、ハーサニ変換後のゲーム\(\Gamma \)における均衡概念を以下のように考えます。

ハーサニ変換後のゲーム\(\Gamma \)において、プレイヤー\(i\)が他のプレイヤーたちの純粋戦略\(s_{-i}\in S_{-i}\)に直面した状況を想定します。仮に市場の状態が\(\theta _{I}=\left(\theta _{i},\theta _{-i}\right) \in \Theta _{I}\)である場合、他のプレイヤーたち選ぶ行動は\(s_{-i}\left( \theta _{-i}\right) \in A_{-i}\)となります。仮にプレイヤーが純粋戦略\(s_{i}\in S_{i}\)を選ぶのであれば、彼が選ぶ行動は\(s_{i}\left( \theta _{i}\right) \in A_{i}\)となります。状態\(\theta _{I}\)におけるプレイヤー\(i\)の利得関数は\(u_{i}\left(\cdot |\theta _{I}\right) \)であるため、以上の想定のもとでプレイヤー\(i\)が得る利得は、\begin{equation*}u_{i}\left( s_{i}\left( \theta _{i}\right) ,s_{-i}\left( \theta _{-i}\right)
,\theta _{I}\right)
\end{equation*}であり、プレイヤー\(i\)はこの利得を事前に把握しています。加えて、プレイヤー\(i\)は状態\(\theta _{I}\)がしたがう確率分布に相当する共通事前分布\(f^{\ast }:\Theta _{I}\rightarrow \left[ 0,1\right] \)を把握しているため、他のプレイヤーたちが\(s_{-i}\)を選ぶという前提のもとで自分は\(s_{i}\)を選ぶ場合、自身が直面する事前期待利得を、\begin{eqnarray*}&&E_{\theta _{I}}\left[ u_{i}\left( s_{i}\left( \theta _{i}\right)
,s_{-i}\left( \theta _{-i}\right) ,\theta _{I}\right) \ |\ \theta _{I}\right] \\
&=&\sum_{\theta _{I}\in \Theta _{I}}\left[ u_{i}\left( s_{i}\left( \theta
_{i}\right) ,s_{-i}\left( \theta _{-i}\r