メカニズムのもとでのベイジアンゲーム
仮に、制度設計者が非分割財の交換問題の真の状態、すなわちエージェントたちの真の選好を観察できるのであれば、観察した真の状態を基準に社会的に望ましい配分を特定し、それを遂行すればよいことになります。しかし、実際には、選好はエージェントが持つ私的情報であるため、制度設計者は真の状態を観察できず、したがって社会的に望ましい配分を事前に特定することはできません。そこで、制度設計者はエージェントたちに自身の選好を申告させた上で、申告された選好の組を基準に社会的に望ましい配分を特定し、それを遂行しようとします。このような資源配分ルールをメカニズムと呼ばれる概念として定式化しました。
繰り返しになりますが、メカニズムに直面したそれぞれのエージェントは自身の真の選好を正直に申告するとは限りません。エージェントは自分にとって望ましい配分を実現するために戦略的に行動しますが、その一環として、偽りの選好を申告する可能性があるからです。エージェントの選好は私的情報であるため、エージェントが嘘をついて真の選好とは異なる選好を申告しても、制度設計者はそれが嘘であるかどうかを知る術がありません。エージェントたちが偽りの選好を表明する場合、制度設計者は偽りの選好の組を基準に配分を決定することとなり、それは真の意味で社会的に望ましい配分とは異なるものになってしまう可能性があります。情報の非対称に起因するこのような問題をインセンティブの問題と呼びます。
インセンティブの問題を引き起こす原因が情報の非対称性である以上、インセンティブの問題を解決するためには、何らかの方法を通じて情報の非対称性を解消する必要があります。具体的には、それぞれのエージェントにとって、自分の真の選好を正直に申告することが得であるようなメカニズムを設計すれば、そのようなメカニズムのもと、エージェントたちは自分の真の選好を自ら進んで正直に申告するため、結果として情報の非対称性は解消されます。以上のことをよりテクニカルに表現すると、メカニズムを提示されたエージェントたちが直面する戦略的状況をゲームとして記述したとき、そのゲームにおいて、「すべてのエージェントが自身の選好を正直に申告する」ことが均衡になるのであれば、そのようなメカニズムのもとで情報の非対称性は解消されるということです。ただ、そもそも、そのようなメカニズムを設計することは可能なのでしょうか。こうした問いについて考えるために、まずは、メカニズムを提示されたエージェントたちが直面する戦略的状況をゲームとして記述します。
非分割財の交換問題において、制度設計者はメカニズム\(\phi :\mathcal{R}_{I}\rightarrow A\)を設計し、それをエージェントたちに提示します。仮にすべてのエージェントが提示されたメカニズム\(\phi \)に同意するのであれば、それぞれのエージェント\(i\in I\)は自身の選好\(\succsim _{i}\in \mathcal{R}_{i}\)を制度設計者へ申告することになります。その際、他のエージェントたちが申告する選好を事前に観察できません。また、エージェントは真の選好を正直に申告するとは限りません。いずれにせよ、エージェントたちが申告してきた選好の組\(\succsim _{I}\in \mathcal{R}_{I}\)に対し、制度設計者はあらかじめ提示したメカニズム\(\phi \)にもとづいて配分\(\phi \left( \succsim _{I}\right) \in A\)を選び取り、これを遂行します。その結果、それぞれのエージェント\(i\)は商品\(\phi _{i}\left( \succsim _{I}\right) \in H\)を入手します。メカニズム\(\phi \)を提示されたエージェントたちが直面する以上のような戦略的状況をゲームとみなした上で、それを\(G\left( \phi \right) \)と表記し、これをメカニズム\(\phi \)のもとでのゲームと呼ぶこととします。以降では、このゲーム\(G\left( \phi \right) \)を構成する要素を具体的に特定します。
まず、このゲームのエージェントは商品の交換に臨むエージェントたちであるため、ゲーム\(G\left( \phi \right) \)のプレイヤー集合は問題としている非分割財の交換問題のエージェント集合\(I\)と一致します。
それぞれのエージェント\(i\in I\)は自身が商品どうしを比較する商品集合\(H\)上に定義された選好\(\succsim _{i}\)を私的情報として持っています。つまり、ゲーム\(G\left( \phi \right) \)におけるエージェント\(i\)のタイプは選好\(\succsim _{i}\)であり、タイプ集合は選好集合\(\mathcal{R}_{i}\)と一致します。エージェント\(i\)のタイプ\(\succsim _{i}\)はタイプ集合\(\mathcal{R}_{i}\)に属する様々な値を取り得ますが、\(\succsim _{i}\)の真の値を知っているのはエージェント\(i\)だけです。他の任意のエージェントや制度設計者は\(\succsim _{i}\)がとり得る値の範囲\(\mathcal{R}_{i}\)を知っていますが、その中のどの値が真の値であるかは知らないものと仮定することで、エージェント\(i\)の選好が私的情報であるという状況を表現します。
メカニズム\(\phi \)に直面したそれぞれのエージェント\(i\)は自身の選好\(\succsim _{i}\)を申告する必要があります。したがって、ゲーム\(G\left( \phi\right) \)においてエージェント\(i\)に与えられた行動は自身が申告する選好\(\succsim _{i}\)であり、行動集合は選好集合\(\mathcal{R}_{i}\)と一致します。それぞれのエージェントは自身の真の選好を正直に表明するとは限りません。
エージェントたちが選択する行動の組、すなわち申告する選好の組が\(\succsim _{I}\in \mathcal{R}_{I}\)であるとき、それに対してメカニズム\(\phi \)は配分\(\phi \left( \succsim _{I}\right) \in A\)を選び取ります。行動の組\(\succsim _{I}\)が変われば配分\(\phi \left( \succsim _{I}\right) \)も変化しますが、どのように変化するかはメカニズム\(\phi \)の内容に依存します。以上がゲーム\(G\left( \phi \right) \)において起こり得る結果です。
エージェント\(i\)が結果どうしを比較する評価体系は、自身が配分どうしを比較する配分集合\(A\)上に定義された選好\(\succsim _{i}^{A}\)として記述されます。一般に、エージェントが配分どうしを比較する選好\(\succsim _{i}^{A}\)の形状はすべてのエージェントの選好\(\succsim _{I}\)に依存するため、そのことを明示するために\(\succsim_{i}^{A}\)を\(\succsim _{i}^{A}\left[ \succsim _{I}\right] \)と表記します。つまり、ゲーム\(G\left( \phi \right) \)におけるエージェント\(i\)の選好は\(\succsim _{i}^{A}\left[ \succsim _{I}\right] \)であり、これは状態\(\succsim _{I}\)に依存するため、エージェント\(i\)の選好がとり得る値からなる集合は、\begin{equation*}\mathcal{R}_{i}^{A}=\left\{ \succsim _{i}^{A}\left[ \succsim _{I}\right]
\right\} _{\succsim _{I}\in \mathcal{R}_{I}}
\end{equation*}となります。
以上でゲーム\(G\left( \phi \right) \)の要素がすべて出揃いました。つまり、このゲームはエージェントが私的情報を持つ不完備情報ゲームであり、以下のようなベイジアンゲーム\begin{equation*}G\left( \phi \right) =\left( I,\left\{ \mathcal{R}_{i}\right\} _{i\in
I},\left\{ \mathcal{R}_{i}^{A}\right\} _{i\in I}\right)
\end{equation*}として定式化されます。ただし、\(\mathcal{R}_{i}\)はエージェント\(i\)のタイプ集合と行動集合を兼ねています。これをメカニズム\(\phi \)のもとでのゲームと呼ぶこととします。
a_{i}\succsim _{i}a_{i}^{\prime }
\end{equation*}という関係が成り立つため、エージェント\(i\)が配分どうしを比較する選好\(\succsim _{i}^{A}[\succsim _{I}]\)について考えるかわりに、エージェント\(i\)が商品どうしを比較する選好\(\succsim _{i}\)について考えても一般性は失われません。したがって、私的価値モデルではメカニズム\(\phi \)のもとでのゲームを、\begin{equation*}G\left( \phi \right) =\left( I,\left\{ \mathcal{R}_{i}\right\} _{i\in
I}\right)
\end{equation*}と表現できます。ただし、\(\mathcal{R}_{i}\)はエージェント\(i\)のタイプ集合と行動集合に加え、選好集合を兼ねています。
ゲーム\(G\left( \phi \right) \)を構成するすべての要素はエージェントたちの共有知識です。それぞれのエージェント\(i\in I\)は自身のタイプ\(\succsim _{i}\)の真の値(便宜的にこれを\(\succsim _{i}^{\ast }\)と表記します)を知っていますが、他の任意のエージェント\(j\ \left( \not=i\right) \)のタイプ\(\succsim _{j}\)の真の値\(\succsim _{j}^{\ast }\)は知りません。エージェント\(i\)が他のエージェント\(j\)について知っていることは\(\succsim _{j}\)がとり得る値の範囲\(\mathcal{R}_{j}\)だけです。したがって、エージェント\(i\)が直面し得る状態からなる集合は、\begin{equation*}\left\{ \left( \succsim _{i}^{\ast },\succsim _{-i}\right) \right\}
_{\succsim _{-i}\in \mathcal{R}_{-i}}
\end{equation*}となります。他の任意のエージェントについても同様の議論が成立します。また、ベイジアンゲームの静学性と不完備性より、ゲーム\(G\left( \phi \right) \)においてエージェントたちは以下の手順で意思決定を行います。
- 自身の真の選好\(\succsim_{i}^{\ast }\in \mathcal{R}_{i}\)を知っているが他のエージェントたちの真の選好\(\succsim_{-i}^{\ast }\in \mathcal{R}_{-i}\)を知らないそれぞれのエージェント\(i\in I\)は自身の選好集合\(\mathcal{R}_{i}\)の中から特定の選好\(\succsim _{i}\)を選択して申告する。その際、他のエージェントたちが申告する選好を観察できない。エージェント\(i\)が申告する選好\(\succsim _{i}\)は自身の真の選好\(\succsim _{i}^{\ast }\)であるとは限らない。
- エージェントたちが申告した選好の組\(\succsim _{I}\in \mathcal{R}_{I}\)に対して、メカニズム\(\phi :\mathcal{R}_{I}\rightarrow A\)が配分\(\phi \left( \succsim _{I}\right) \in A\)を定める。その結果、それぞれのエージェント\(i\)は商品\(\phi _{i}\left( \succsim_{I}\right) \in H\)を入手する。
- それぞれのエージェント\(i\)は真の状態\(\succsim_{I}^{\ast }\)のもとでの選好関係\(\succsim _{i}^{A}\left[ \succsim _{I}^{\ast }\right] \)を通じて先の配分\(\phi \left(\succsim _{I}\right) \)を評価する。
I}\right)
\end{equation*}と表現されます。ただし、\(\mathcal{R}_{i}\)はエージェント\(i\)のタイプ集合と行動集合に加え、選好集合を兼ねています。このゲーム\(G\left(\phi \right) \)においてエージェントたちは以下の手順で意思決定を行います。
- 自身の真の選好\(\succsim_{i}^{\ast }\in \mathcal{R}_{i}\)を知っているが他のエージェントたちの真の選好\(\succsim_{-i}^{\ast }\in \mathcal{R}_{-i}\)を知らないそれぞれのエージェント\(i\in I\)は自身の選好集合\(\mathcal{R}_{i}\)の中から特定の選好\(\succsim _{i}\)を選択して申告する。その際、他のエージェントたちが申告する選好を観察できない。エージェント\(i\)が申告する選好\(\succsim _{i}\)は自身の真の選好\(\succsim _{i}^{\ast }\)であるとは限らない。
- エージェントたちが申告した選好の組\(\succsim _{I}\in \mathcal{R}_{I}\)に対して、メカニズム\(\phi :\mathcal{R}_{I}\rightarrow A\)が配分\(\phi \left( \succsim _{I}\right) \in A\)を定める。その結果、それぞれのエージェント\(i\)は商品\(\phi _{i}\left( \succsim_{I}\right) \in H\)を入手する。
- それぞれのエージェント\(i\)は自身の真の選好\(\succsim _{i}^{\ast }\)のもとで先の商品\(\phi _{i}\left( \succsim _{I}\right) \)を評価する。
エージェントの純粋戦略
メカニズム\(\phi \)のもとでのゲーム\(G\left( \phi \right) \)において、仮にすべてのエージェントが真の状態\(\succsim _{I}^{\ast }\)を把握しており、なおかつそのことが共有知識であるならば、それぞれのエージェント\(i\in I\)の選好が\(\succsim _{i}^{A}\left[ \succsim_{I}^{\ast }\right] \)であることが確定するため、エージェントたちが直面する戦略的状況はもはや不完備情報ゲームではなく、以下のような完備情報ゲーム\begin{equation*}G\left( \phi ,\succsim _{I}^{\ast }\right) =\left\{ I,\left\{ \mathcal{R}_{i}\right\} _{i\in I},\left\{ \succsim _{i}^{A}\left[ \succsim _{I}^{\ast }\right] \right\} _{i\in I}\right\}
\end{equation*}となります。ただし、\(I\)はエージェント集合、\(\mathcal{R}_{i}\)はエージェント\(i\)の行動集合、\(\succsim_{i}^{A}\left[ \succsim _{I}^{\ast }\right] \)はエージェント\(i\)の選好関係です。これを\(\succsim _{I}^{\ast }\)のもとでの状態ゲームと呼ぶこととします。状態ゲーム\(G\left( \phi ,\succsim_{I}^{\ast }\right) \)は完備情報ゲームであるため、そこでのエージェントの戦略とは、単純に、エージェントが選択可能な行動の中から1つの行動を選ぶことを意味します。
I}\right)
\end{equation*}と表現されます。ただし、\(\mathcal{R}_{i}\)はエージェント\(i\)のタイプ集合と行動集合に加え、選好集合を兼ねています。したがって、真の状態\(\succsim _{I}^{\ast }\)のもとでの状態ゲームは、\begin{equation*}G\left( \phi ,\succsim _{I}^{\ast }\right) =\left\{ I,\left\{ \mathcal{R}_{i}\right\} _{i\in I},\left\{ \succsim _{i}^{\ast }\right\} _{i\in
I}\right\}
\end{equation*}となります。ただし、\(\mathcal{R}_{i}\)はエージェント\(i\)の行動集合であり、\(\succsim _{i}^{\ast }\)はエージェント\(i\)の選好関係です。
ただ、実際にはゲーム\(G\left( \phi \right) \)において真の状態\(\succsim _{I}^{\ast }=\left( \succsim _{i}^{\ast},\succsim _{-i}^{\ast }\right) \)を把握しているエージェントは存在せず、それぞれのエージェント\(i\)は真の状態\(\succsim _{I}^{\ast }\)に関する断片的な知識、すなわち自身の真のタイプ\(\succsim _{i}^{\ast }\)に関する情報しか持っていないため、エージェントは複数の状態ゲームに直面し得る中で意思決定を行う必要があります。具体的には、エージェントが直面し得る状態ゲームからなる集合は、\begin{equation}\left\{ G\left( \phi ,\succsim _{i}^{\ast },\succsim _{-i}\right) \right\}
_{\succsim _{-i}\in \mathcal{R}_{-i}} \quad \cdots (1)
\end{equation}です。しかも、それぞれのエージェント\(i\)は自身が直面し得るそれぞれの状態ゲーム\(G\left( \phi ,\succsim _{i}^{\ast },\succsim _{-i}\right) \)に対して、そこで選択する行動を個別に指定することはできません。なぜなら、エージェント\(i\)は他のエージェントたちのタイプ\(\succsim _{-i}\)を観察できず、ゆえに自分が\(\left(1\right) \)に属するどの状態ゲームをプレーしているかを判別できないからです。したがって、エージェント\(i\)は特定の行動\(\succsim _{i}\)を事前に選び、その1つの行動のもとで、自分が直面し得る\(\left( 1\right) \)に属するすべての状態ゲームに備えることを強いられます。
エージェント\(i\)は自身のタイプ\(\succsim _{i}\)の真の値\(\succsim _{i}^{\ast }\)を知っているため、\(\succsim _{i}^{\ast }\)のもとで直面し得る状態ゲームの集合\(\left( 1\right) \)に対してのみ1つの行動を定めればよいと考えるかもしれませんが、この考えは誤りです。他のエージェント\(j\ \left( \not=i\right) \)の視点から考えてみると、エージェント\(j\)にとっての最適な行動はエージェント\(i\)の行動に依存するため、エージェント\(j\)はエージェント\(i\)の行動を予想しながら自身の行動を決定します。エージェント\(i\)の行動は自身のタイプ\(\succsim _{i}\)に依存しますが、エージェント\(j\)はエージェント\(i\)の真のタイプ\(\succsim _{i}^{\ast }\)を知らない以上、\(\mathcal{R}_{i}\)に属するそれぞれのタイプごとに、そこでのエージェント\(i\)の行動を予想した上で、その予想を踏まえた上で自身の行動を決定します。つまり、エージェント\(j\)の行動はエージェント\(i\)のそれぞれのタイプのもとでの行動に依存します。逆に、エージェント\(i\)の最適な行動はエージェント\(j\)の行動に依存しますが、エージェント\(j\)の行動がエージェント\(i\)のそれぞれのタイプのもとでの行動に依存する以上、エージェント\(i\)が自身の最適な行動を考えるためには、エージェント\(i\)は自身の真のタイプ\(\succsim_{i}^{\ast }\)とは限らない自身のそれぞれのタイプにおいて自分が何をするであろうか考える必要があります。つまり、真のタイプ\(\succsim _{i}^{\ast }\)とは異なるそれぞれのタイプ\(\succsim _{i}\)についても、エージェント\(i\)はその場合に自身が選択するであろう行動をあらかじめ定める必要があります。
以上を踏まえると、メカニズム\(\phi \)のもとでのゲーム\(G\left( \phi \right) \)において、それぞれのエージェントは自身のそれぞれのタイプごとに自身が選択するであろう行動を包括的に定めておく必要があります。具体的には、ゲーム\(G\left( \phi\right) \)におけるエージェント\(i\)の戦略は写像\begin{equation*}s_{i}:\mathcal{R}_{i}\rightarrow \mathcal{R}_{i}
\end{equation*}として定式化されます。この戦略\(s_{i}\)のもとで、エージェント\(i\)は自分のタイプが\(\succsim_{i}\in \mathcal{R}_{i}\)の場合には行動\(s_{i}\left( \succsim _{i}\right) \in \mathcal{R}_{i}\)を選択します。言い換えると、自身のタイプが\(\succsim _{i}\)である場合、戦略\(s_{i}\)のもとでは、エージェント\(i\)は制度設計者に対して自身のタイプが\(s_{i}\left( \succsim_{i}\right) \)であると申告するということです。このような行動計画\(s_{i}\)をエージェントの純粋戦略(pure strategy)と呼びます。
すべてのエージェントの純粋戦略の組を\(s_{I}=(s_{i})_{i\in I}\)で表し、エージェント\(i\)以外のエージェントたちの純粋戦略からなる組を\(s_{-i}=(s_{j})_{j\in I\backslash \left\{ i\right\} }\)で表します。\(s_{I}=\left( s_{i},s_{-i}\right) \)です。
エージェント\(i\)が選択可能なすべての純粋戦略からなる集合をエージェント\(i\)の戦略集合(strategy set)や戦略空間(strategy space)などと呼び、これを\(S_{i}\)で表します。\(s_{i}\in S_{i}\)です。すべてのエージェントの戦略集合の直積を\(S_{I}=\prod_{i\in I}S_{i}\)で表します。また、\(S_{-i}=\prod_{j\in I\backslash\left\{ i\right\} }S_{j}\)とします。\(s_{I}\in S_{I}\)かつ\(s_{-i}\in S_{-i}\)です。
メカニズムのもとでのゲーム\(G\left( \phi \right) \)においてエージェントたちが選択する純粋戦略からなる組が\(s_{I}\)であるとき、以下の形でゲームが進行します。
- 自身の真の選好\(\succsim_{i}^{\ast }\in \mathcal{R}_{i}\)を知っているが他のエージェントたちの真の選好\(\succsim_{-i}^{\ast }\in \mathcal{R}_{-i}\)を知らないそれぞれのエージェント\(i\in I\)は自身の純粋戦略\(s_{i}\)にもとづき特定の選好\(s_{i}\left( \succsim _{i}^{\ast }\right)\in \mathcal{R}_{i}\)を選択して申告する。その際、他のエージェントたちが申告する選好を観察できない。エージェント\(i\)が選択する選好\(s_{i}\left( \succsim _{i}^{\ast }\right) \)は自身の真の選好\(\succsim _{i}^{\ast }\)であるとは限らない。
- エージェントたちが申告した選好の組\(s_{I}\left( \succsim _{I}^{\ast }\right) =\left( s_{i}\left( \succsim_{i}^{\ast }\right) \right) _{i\in I}\in \mathcal{R}_{I}\)に対してメカニズム\(\phi :\mathcal{R}_{I}\rightarrow A\)は配分\(\phi \left( s_{I}\left( \succsim_{I}^{\ast }\right) \right) \in A\)を定める。その結果、それぞれのエージェント\(i\)は商品\(\phi _{i}\left( s_{I}\left( \succsim _{I}^{\ast }\right) \right)\in H\)を入手する。
- それぞれのエージェント\(i\)は真の状態\(\succsim_{I}^{\ast }\)のもとでの選好関係\(\succsim _{i}^{A}\left[ \succsim _{I}^{\ast }\right] \)を通じて先の配分\(\phi \left(s_{I}\left( \succsim _{I}^{\ast }\right) \right) \)を評価する。
I}\right)
\end{equation*}と表現されます。ただし、\(\mathcal{R}_{i}\)はエージェント\(i\)のタイプ集合と行動集合に加え、選好集合を兼ねています。ゲーム\(G\left( \phi \right) \)においてエージェントたちが選択する純粋戦略からなる組が\(s_{I}\)であるとき、以下の形でゲームが進行します。
- 自身の真の選好\(\succsim_{i}^{\ast }\in \mathcal{R}_{i}\)を知っているが他のエージェントたちの真の選好\(\succsim_{-i}^{\ast }\in \mathcal{R}_{-i}\)を知らないそれぞれのエージェント\(i\in I\)は自身の純粋戦略\(s_{i}\)にもとづき特定の選好\(s_{i}\left( \succsim _{i}^{\ast }\right)\in \mathcal{R}_{i}\)を選択して申告する。その際、他のエージェントたちが申告する選好を観察できない。エージェント\(i\)が選択する選好\(s_{i}\left( \succsim _{i}^{\ast }\right) \)は自身の真の選好\(\succsim _{i}^{\ast }\)であるとは限らない。
- エージェントたちが申告した選好の組\(s_{I}\left( \succsim _{I}^{\ast }\right) =\left( s_{i}\left( \succsim_{i}^{\ast }\right) \right) _{i\in I}\in \mathcal{R}_{I}\)に対してメカニズム\(\phi :\mathcal{R}_{I}\rightarrow A\)は配分\(\phi \left( s_{I}\left( \succsim_{I}^{\ast }\right) \right) \in A\)を定める。その結果、それぞれのエージェント\(i\)は商品\(\phi _{i}\left( s_{I}\left( \succsim _{I}^{\ast }\right) \right)\in H\)を入手する。
- それぞれのエージェント\(i\)は自身の真の選好\(\succsim _{i}^{\ast }\)を通じて先の商品\(\phi _{i}\left( s_{I}\left( \succsim_{I}^{\ast }\right) \right) \)を評価する。
以下がメカニズムと純粋戦略の具体例です。
I=\left\{ 1,2,3\right\}
\end{equation*}であるとともに、エージェントたちの真の選好プロファイル\(\succsim _{I}\)が以下の表で与えられているものとします。
$$\begin{array}{cccc}\hline
プレイヤー\diagdown 順位 & 1 & 2 & 3 \\ \hline
1 & h_{2} & h_{3} & h_{1} \\ \hline
2 & h_{2} & h_{1} & h_{3} \\ \hline
3 & h_{1} & h_{2} & h_{3} \\ \hline
\end{array}$$
メカニズム\(\phi \)が「エージェント\(1,2,3\)の順番で優先的に欲しがっている商品を与える」というものであるものとします。加えて、すべてのエージェント\(i\)が「自分の真の選好を正直に表明する」という純粋戦略\(s_{i}\)にもとづいて行動するのであれば、エージェントたちが申告する選好プロファイルは、\begin{eqnarray*}s_{I}\left( \succsim _{I}\right) &=&\left( s_{1}\left( \succsim _{1}\right)
,s_{2}\left( \succsim _{2}\right) ,s_{3}\left( \succsim _{3}\right) \right)
\\
&=&\left( \succsim _{1},\succsim _{2},\succsim _{3}\right) \quad \because
s_{i}\text{の定義} \\
&=&\succsim _{I}
\end{eqnarray*}すなわち、\begin{equation}
s_{I}\left( \succsim _{I}\right) =\succsim _{I} \quad \cdots (1)
\end{equation}であるため、これに対してメカニズム\(\phi \)が定める配分は、\begin{eqnarray*}\phi \left( s_{I}\left( \succsim _{I}\right) \right) &=&\phi \left(
\succsim _{I}\right) \quad \because \left( 1\right) \\
&=&\left( \phi _{1}\left( \succsim _{I}\right) ,\phi _{2}\left( \succsim
_{I}\right) ,\phi _{3}\left( \succsim _{I}\right) \right) \\
&=&\left( h_{2},h_{1},h_{3}\right) \quad \because \phi \text{の定義}
\end{eqnarray*}となります。同じメカニズム\(\phi \)のもとで、すべてのエージェント\(i\)が「1番目に望ましい商品と2番目に望ましい商品を入れ替える形で偽って申告する」という純粋戦略\(s_{i}^{\prime }\)にもとづいて行動するのであれば、エージェントたちが申告する選好プロファイル\(s_{I}^{\prime }\left( \succsim _{I}\right) \)は以下の表で与えられます。
$$\begin{array}{cccc}\hline
プレイヤー\diagdown 順位 & 1 & 2 & 3 \\ \hline
1 & h_{3} & h_{2} & h_{1} \\ \hline
2 & h_{1} & h_{2} & h_{3} \\ \hline
3 & h_{2} & h_{1} & h_{3} \\ \hline
\end{array}$$
これに対してメカニズム\(\phi \)が定める配分は、\begin{equation*}\phi \left( s_{I}^{\prime }\left( \succsim _{I}\right) \right) =\left(
h_{3},h_{1},h_{2}\right)
\end{equation*}となります。
プレミアム会員専用コンテンツです
【ログイン】【会員登録】