WIIS

完備情報の動学ゲーム

展開型ゲームにおける行動戦略

目次

関連知識

Mailで保存
Xで共有

展開型ゲームにおける局所戦略

問題としている戦略的状況が完備情報の動学ゲームであり、それが展開型ゲーム\(\Gamma \)として表現されているものとします。ゲーム\(\Gamma \)においてそれぞれのプレイヤーが純粋戦略を採用することとは、自身が直面し得るそれぞれの情報集合に対して、そこで自分が選択するであろう行動をあらかじめ包括的に定める行動計画を策定することを意味します。さらに、プレイヤーが混合戦略を採用することとは、自身が選択し得るそれぞれの純粋戦略に対してそれを採用する確率を割り当てた上で、その確率分布にしたがってランダムに特定の純粋戦略を選択することを意味します。言い換えると、プレイヤーが混合戦略を採用することとは、ゲームの開始時点において、複数の包括的な行動計画の中から特定の行動計画をランダムに選択し、以降は選択した行動計画にもとづいて意思決定を行うことを意味します。

プレイヤーが何らかの確率分布にもとづいてランダムに意思決定を行う状況を想定する場合には、混合戦略とは異なり、純粋戦略の存在を前提としない形でプレイヤーの意思決定を定式化することもできます。具体的には、ゲームの開始後、プレイヤーは自身が意思決定を行うそれぞれの情報集合において、そこで選択可能な行動の中から特定の行動を何らかの確率分布にもとづいてランダムに選択していく状況を想定します。以下ではそのような意思決定を定式化します。

展開型ゲーム\(\Gamma \)においてプレイヤー\(i\in I\)が意思決定を行う可能性のあるすべての情報集合からなる集合族は、\begin{equation*}\mathcal{H}_{i}=\left\{ H\in \mathcal{H}\ |\ i\left( H\right) =i\right\}
\end{equation*}です。プレイヤー\(i\)の情報集合\(H\in \mathcal{H}_{i}\)を任意に選んだとき、そこでプレイヤー\(i\)が選択可能なすべての行動からなる集合が有限集合\begin{equation*}A\left( H\right) =\left\{ a_{i1},\cdots ,a_{im}\right\}
\end{equation*}であるものとします。以上を踏まえたとき、それぞれの行動\(a_{ij}\in A\left( H\right) \)に対して、それが選ばれる確率\(b_{i}\left(a_{ij}|H\right) \in \mathbb{R} \)を指定する確率関数\begin{equation*}b_{i}\left( \cdot |H\right) :A\left( H\right) \rightarrow \mathbb{R} \end{equation*}を定義し、これをプレイヤー\(i\)の情報集合\(H\)における局所戦略(local strategy)と呼びます。ただし、確率関数の定義より、\(b_{i}\left( \cdot |H\right) \)は以下の性質\begin{eqnarray*}&&\left( a\right) \ \forall j\in \left\{ 1,\cdots ,m\right\} :0\leq
b_{i}\left( a_{ij}|H\right) \leq 1 \\
&&\left( b\right) \ \sum_{j=1}^{m}b_{i}\left( a_{ij}|H\right) =1
\end{eqnarray*}をともに満たす必要があります。条件\(\left(a\right) \)は、局所戦略\(b_{i}\left( \cdot|H\right) \)のもとでは、情報集合\(H\)において選択可能なそれぞれの行動が選ばれる確率が\(0\)以上\(1\)以下であることを意味します。条件\(\left(b\right) \)は、局所戦略\(b_{i}\left( \cdot|H\right) \)のもとでは、情報集合\(H\)において選択可能なそれぞれの行動が選ばれる確率をすべて足し合わせると\(1\)になることを意味します。

プレイヤー\(i\)の情報集合\(H\)における局所戦略\(b_{i}\left( \cdot |H\right) \)を指定することとは、情報集合\(H\)においてそれぞれの行動\(a_{ij}\in A\left( H\right) \)が選ばれる確率を特定するベクトル\begin{equation*}b_{i}\left( \cdot |H\right) =\left( b_{i}\left( a_{i1}|H\right) ,\cdots
,b_{i}\left( a_{im}|H\right) \right) \in \mathbb{R} ^{m}
\end{equation*}を指定することと実質的に同じです。ただし、このベクトル先の条件\(\left( a\right) ,\left( b\right) \)をともに満たすものでなければなりません。

プレイヤー\(i\in I\)が情報集合\(H\in \mathcal{H}_{i}\)において選び得るすべての局所戦略からなる集合を、\begin{equation*}\Delta \left( A\left( H\right) \right) =\left\{ \left( b_{i}\left(
a_{i1}|H\right) ,\cdots ,b_{i}\left( a_{im}|H\right) \right) \in \mathbb{R} ^{m}\ |\ \sum_{j=1}^{m}b_{i}\left( a_{ij}|H\right) =1,\ \forall j\in \left\{
1,\cdots ,m\right\} :0\leq b_{i}\left( a_{ij}|H\right) \leq 1\right\}
\end{equation*}で表記し、これをプレイヤー\(i\)の情報集合\(H\)における局所戦略集合(local strategy set)と呼びます。つまり、局所戦略集合\(\Delta \left( A\left( H\right) \right) \)とは情報集合\(H\)においてプレイヤー\(i\)が選択可能な行動からなる集合\(A\left( H\right) \)上の確率分布をすべて集めてできる集合です。\(b_{i}\left( \cdot|H\right) \in \Delta \left( A\left( H\right) \right) \)です。

例(展開型ゲームにおける局所戦略)
以下のゲームの木によって表現される展開型ゲーム\(\Gamma \)について考えます。ただし、利得を省略しています。

図:ゲームの木
図:ゲームの木

プレイヤー\(1\)の情報集合からなる集合族は、\begin{equation*}\mathcal{H}_{1}=\left\{ \left\{ x_{0}\right\} \right\}
\end{equation*}です。プレイヤー\(1\)が情報集合\(\left\{ x_{0}\right\} \)において選択可能な行動からなる集合は、\begin{equation*}A\left( \left\{ x_{0}\right\} \right) =\left\{ a_{11},a_{12}\right\}
\end{equation*}であるため、プレイヤー\(1\)の情報集合\(\left\{x_{0}\right\} \)における局所戦略とは、\begin{eqnarray*}&&\left( a\right) \ \forall j\in \left\{ 1,2\right\} :b_{1}\left(
a_{1j}|\left\{ x_{0}\right\} \right) \geq 0 \\
&&\left( b\right) \ b_{1}\left( a_{11}|\left\{ x_{0}\right\} \right)
+b_{1}\left( a_{12}|\left\{ x_{0}\right\} \right) =1
\end{eqnarray*}を満たす確率関数$b_{1}\left(\cdot |\left\{ x_{0}\right\} \right) :A\left( \left\{ x_{0}\right\} \right)
\rightarrow \mathbb{R} $として定義されます。例えば、以下の局所戦略\begin{equation*}b_{1}\left( \cdot |\left\{ x_{0}\right\} \right) =\left( b_{1}\left(
a_{11}|\left\{ x_{0}\right\} \right) ,b_{1}\left( a_{12}|\left\{
x_{0}\right\} \right) \right) =\left( \frac{1}{2},\frac{1}{2}\right)
\end{equation*}のもとでは、2つの行動\(a_{11},a_{12}\)は等しい確率で選ばれます。一方、\begin{equation*}b_{1}\left( \cdot |\left\{ x_{0}\right\} \right) =\left( b_{1}\left(
a_{11}|\left\{ x_{0}\right\} \right) ,b_{1}\left( a_{12}|\left\{
x_{0}\right\} \right) \right) =\left( \frac{1}{3},\frac{1}{3}\right)
\end{equation*}と定義される\(b_{1}\left( \cdot |\left\{x_{0}\right\} \right) \)は条件\(\left( b\right) \)を満たしていないため、これは局所戦略ではありません。一方、プレイヤー\(2\)の情報集合からなる集合族は、\begin{equation*}\mathcal{H}_{2}=\left\{ \left\{ x_{1}\right\} ,\left\{ x_{2}\right\}
\right\}
\end{equation*}です。プレイヤー\(2\)が情報集合\(\left\{ x_{1}\right\} \)において選択可能な行動からなる集合は、\begin{equation*}A\left( \left\{ x_{1}\right\} \right) =\left\{ a_{21},a_{22}\right\}
\end{equation*}であるため、プレイヤー\(2\)の情報集合\(\left\{x_{1}\right\} \)における局所戦略とは、\begin{eqnarray*}&&\left( a\right) \ \forall j\in \left\{ 1,2\right\} :b_{2}\left(
a_{2j}|\left\{ x_{1}\right\} \right) \geq 0 \\
&&\left( b\right) \ b_{2}\left( a_{21}|\left\{ x_{1}\right\} \right)
+b_{2}\left( a_{22}|\left\{ x_{1}\right\} \right) =1
\end{eqnarray*}を満たす確率関数\(b_{2}\left(\cdot |\left\{ x_{1}\right\} \right) :A\left( \left\{ x_{1}\right\} \right)
\rightarrow \mathbb{R} \)として定義されます。また、プレイヤー\(2\)が情報集合\(\left\{ x_{2}\right\} \)において選択可能な行動からなる集合は、\begin{equation*}A\left( \left\{ x_{2}\right\} \right) =\left\{ a_{21},a_{22}\right\}
\end{equation*}であるため、プレイヤー\(2\)の情報集合\(\left\{x_{2}\right\} \)における局所戦略とは、\begin{eqnarray*}&&\left( a\right) \ \forall j\in \left\{ 1,2\right\} :b_{2}\left(
a_{2j}|\left\{ x_{2}\right\} \right) \geq 0 \\
&&\left( b\right) \ b_{2}\left( a_{21}|\left\{ x_{2}\right\} \right)
+b_{2}\left( a_{22}|\left\{ x_{2}\right\} \right) =1
\end{eqnarray*}を満たす確率関数$b_{2}\left(\cdot |\left\{ x_{2}\right\} \right) :A\left( \left\{ x_{2}\right\} \right)
\rightarrow \mathbb{R} $として定義されます。

 

展開型ゲームにおける行動戦略

局所戦略は展開型ゲームにおいてプレイヤーが直面し得る特定の情報集合における行動指針を与えます。一方、完備情報の動学ゲームにおける戦略とは、プレイヤーが直面し得るすべての情報集合における行動指針を包括的に指定する行動計画でなければなりません。そこで、展開型ゲームにおいてプレイヤーが意思決定を行うそれぞれの情報集合に対して、そこで採用する局所戦略を1つずつ定める行動計画としての戦略を定義し、これを行動戦略(behavior strategy)と呼びます。行動計画は以下のように定式化されます。

展開型ゲーム\(\Gamma \)においてプレイヤー\(i\in I\)が意思決定を行う可能性のあるすべての情報集合からなる集合族は、\begin{equation*}\mathcal{H}_{i}=\left\{ H\in \mathcal{H}\ |\ i\left( H\right) =i\right\}
\end{equation*}です。プレイヤー\(i\)の情報集合\(H\in \mathcal{H}_{i}\)における局所戦略は、\begin{equation*}b_{i}\left( \cdot |H\right) :A\left( H\right) \rightarrow \mathbb{R} \end{equation*}と定式化され、プレイヤー\(i\)が情報集合\(H\)において選択可能なすべての局所戦略からなる集合は、\begin{equation*}\Delta \left( A\left( H\right) \right)
\end{equation*}と定式化されます。したがって、プレイヤー\(i\)がこのゲーム\(\Gamma \)において選択し得るすべての局所戦略からなる集合は、\begin{equation*}L_{i}=\bigcup_{H\in \mathcal{H}_{i}}\Delta \left( A\left( H\right) \right)
\end{equation*}となります。プレイヤー\(i\)の行動戦略\(b_{i}\)とは、彼が意思決定を行うそれぞれの情報集合\(H\in \mathcal{H}_{i}\)に対して、そこで採用する局所戦略\(b_{i}\left( H\right) \in L_{i}\)を1つずつ指定する写像\begin{equation*}b_{i}:\mathcal{H}_{i}\rightarrow L_{i}
\end{equation*}として定式化されます。ただし、行動戦略\(b_{i}\)が情報集合\(H\)において採用する局所戦略は\(H\)において選択可能でなければならないため、局所戦略\(b_{i}\)は以下の条件\begin{equation*}\forall H\in \mathcal{H}_{i}:b_{i}\left( H\right) \in \Delta \left( A\left(
H\right) \right)
\end{equation*}を満たす必要があります。言い換えると、行動戦略\(b_{i}\left( \cdot \right) \)と局所戦略\(b_{i}\left( \cdot |\cdot \right) \)の間には、\begin{equation*}\forall H\in \mathcal{H}_{i}:b_{i}\left( H\right) =b_{i}\left( \cdot
|H\right)
\end{equation*}という関係が成り立つということです。

加えて、プレイヤーが行動戦略のもとで自身のそれぞれの情報集合に対して定める局所戦略は互いに独立であるものと仮定します。このことをより正確に表現すると、プレイヤー\(i\)が意思決定を行う情報集合\(H,H^{\prime }\in \mathcal{H}_{i}\)と、そこで選択可能な行動である\(a\in A\left( H\right) \)および\(a^{\prime }\in A\left( H^{\prime }\right) \)をそれぞれ任意に選んだとき、行動戦略\(b_{i}\)のもとで\(H\)において\(a\)を選び、なおかつ\(H^{\prime }\)のもとで\(a^{\prime }\)を選ぶ確率は、\begin{equation*}b_{i}\left( a|H\right) \times b_{i}\left( a^{\prime }|H^{\prime }\right)
\end{equation*}として評価されるということです。

行動戦略がプレイヤーが直面し得る「すべての」情報集合に対して局所戦略を1つずつ定めるものでなければなりません。自分が実際に到達するであろうと思われる情報集合に対して局所戦略を1つずつ定めただけでは、その行動計画は行動戦略としての要件を満たしません。自分が実際には到達しないであろうと思われる情報集合に対しても、そこで自分が採用するであろう局所戦略をあらかじめ定める必要があります。戦略とは、客観的に起こり得るすべてのシナリオに対して、そこで自分が選ぶであろう行動を包括的に記述した行動計画だからです。

すべてのプレイヤーの行動戦略の組を\(b_{I}=\left( b_{i}\right) _{i\in I}\)で表記し、プレイヤー\(i\)以外のプレイヤーたちの行動戦略の組を\(b_{-i}=\left( b_{j}\right) _{j\in I\backslash \left\{ i\right\} }\)で表記します。\(b_{I}=\left( b_{i},b_{-i}\right) \)です。

プレイヤーが選択可能なすべての行動戦略からなる集合をプレイヤー\(i\)の行動戦略集合(behavior strategy set)と呼び、これを\(B_{i}\)で表記します。\(b_{i}\in B_{i}\)です。すべてのプレイヤーの行動戦略集合の直積を\(B_{I}=\prod_{i\in I}B_{i}\)で表記し、プレイヤー\(i\)以外のプレイヤーたちの行動戦略集合の直積を\(B_{-i}=\prod_{j\in I\backslash \left\{ i\right\} }B_{i}\)で表記します。\(b_{I}\in B_{I}\)かつ\(b_{-i}\in B_{-i}\)です。

繰り返しになりますが、プレイヤー\(i\)の局所戦略\(b_{i}\left( \cdot |H\right) :A\left( H\right)\rightarrow \mathbb{R} \)とは、情報集合\(H\in \mathcal{H}_{i}\)において自身が選択可能なそれぞれの行動\(a_{ij}\in A\left( H\right) \)に対し、それが選ばれる\(b_{i}\left( a_{ij}|H\right)\in \mathbb{R} \)を指定する行動計画です。プレイヤー\(i\)が情報集合\(H\)において選択可能なすべての局所戦略からなる集合が\(\Delta \left( A\left( H\right) \right) \)であることを踏まえると、プレイヤー\(i\)が選択可能なすべての行動戦略からなる集合、すなわちプレイヤー\(i\)の行動戦略集合は、\begin{equation*}B_{i}=\prod_{H\in \mathcal{H}_{i}}\Delta \left( A\left( H\right) \right)
\end{equation*}となります。

例(展開型ゲームにおける行動戦略)
以下のゲームの木によって表現される展開型ゲーム\(\Gamma \)について考えます。ただし、利得を省略しています。

図:ゲームの木
図:ゲームの木

プレイヤー\(1\)の情報集合からなる集合族は、\begin{equation*}\mathcal{H}_{1}=\left\{ \left\{ x_{0}\right\} \right\}
\end{equation*}であるため、プレイヤー\(1\)の行動戦略\(b_{1}\)は、\begin{equation*}b_{1}=\left( b_{1}\left( \cdot |\left\{ x_{0}\right\} \right) \right)
\end{equation*}と定式化されます。つまり、行動戦略\(b_{1}\)のもとでは、情報集合\(\left\{ x_{0}\right\} \)において局所戦略\(b_{1}\left( \cdot |\left\{ x_{0}\right\} \right) \)を採用するということです。例えば、「すべての情報集合においてすべての行動を等しい確率で選ぶ」という行動戦略\(b_{1}\)は、\begin{equation*}b_{1}\left( a_{11}|\left\{ x_{0}\right\} \right) =b_{1}\left( a_{12}|\left\{
x_{0}\right\} \right) =\frac{1}{2}
\end{equation*}を満たします。一方、プレイヤー\(2\)の情報集合からなる集合族は、\begin{equation*}\mathcal{H}_{2}=\left\{ \left\{ x_{1}\right\} ,\left\{ x_{2}\right\}
\right\}
\end{equation*}であるため、プレイヤー\(2\)の行動戦略\(b_{2}\)は、\begin{equation*}b_{2}=\left( b_{2}\left( \cdot |\left\{ x_{1}\right\} \right) ,b_{2}\left(
\cdot |\left\{ x_{2}\right\} \right) \right)
\end{equation*}と定式化されます。つまり、行動戦略\(b_{2}\)のもとでは、情報集合\(\left\{ x_{1}\right\} \)において局所戦略\(b_{2}\left( \cdot |\left\{ x_{1}\right\} \right) \)を採用し、情報集合\(\left\{ x_{2}\right\} \)において局所戦略\(b_{2}\left( \cdot |\left\{ x_{2}\right\} \right) \)を採用するということです。例えば、「すべての情報集合においてすべての行動を等しい確率で選ぶ」という行動戦略\(b_{2}\)は、\begin{eqnarray*}b_{2}\left( a_{21}|\left\{ x_{1}\right\} \right) &=&b_{2}\left(
a_{22}|\left\{ x_{1}\right\} \right) =\frac{1}{2} \\
b_{2}\left( a_{21}|\left\{ x_{2}\right\} \right) &=&b_{2}\left(
a_{22}|\left\{ x_{2}\right\} \right) =\frac{1}{2}
\end{eqnarray*}を満たします。

 

行動戦略と純粋戦略の関係

展開型ゲーム\(\Gamma \)におけるプレイヤー\(i\)の純粋戦略とは、ゲームにおいて彼が直面し得るそれぞれの情報集合\(H\in \mathcal{H}_{i}\)に対して、そこで彼が確定的に選択する行動\(s_{i}\left(H\right) \in A_{i}\)を1つずつ指定する写像\begin{equation*}s_{i}:\mathcal{H}_{i}\rightarrow A_{i}
\end{equation*}として定式化されます。そこで、それぞれの情報集合\(H\in \mathcal{H}_{i}\)に対して、行動\(s_{i}\left(H\right) \in A\left( H\right) \)に確率\(1\)を付与し、\(A\left( H\right) \)に属する他の任意の行動に確率\(0\)を付与する局所戦略\(b_{i}\left( \cdot |H\right) \)だけから構成される行動戦略\begin{equation*}b_{i}:\mathcal{H}_{i}\rightarrow L_{i}
\end{equation*}を構成すれば、これは純粋戦略\(s_{i}\)と実質的に等しいと言えます。つまり、任意の純粋戦略は行動戦略として表現できるということです。言い換えると、純粋戦略は特別な行動戦略です。

その逆は成立するとは限りません。つまり、行動戦略は純粋戦略であるとは限りません。実際、ある行動戦略\(b_{i}\)がある情報集合\(H\)に対して指定する行動戦略\(b_{i}\left( \cdot |H\right) \)のもとで複数の異なる行動\(a,a^{\prime }\in A\left( H\right) \)に正の確率が付与されるとき、そのような意思決定を純粋戦略として記述できないからです。

例(行動戦略と純粋戦略の関係)
繰り返しになりますが、以下のゲームの木によって表現される展開型ゲーム\(\Gamma \)について考えます。ただし、利得を省略しています。

図:ゲームの木
図:ゲームの木

プレイヤー\(1\)による「情報集合\(\left\{ x_{0}\right\} \)において行動\(a_{11}\)を選択する」という純粋戦略は、\begin{equation*}b_{1}\left( a_{11}|\left\{ x_{0}\right\} \right) =1
\end{equation*}を満たす行動戦略\(b_{1}\)として表現され、「情報集合\(\left\{ x_{0}\right\} \)において行動\(a_{12}\)を選択する」という純粋戦略は、\begin{equation*}b_{1}\left( a_{12}|\left\{ x_{0}\right\} \right) =1
\end{equation*}を満たす行動戦略\(b_{1}\)として表現されます。また、プレイヤー\(2\)による「情報集合\(\left\{x_{1}\right\} \)において行動\(a_{21}\)を選択し情報集合\(\left\{x_{2}\right\} \)において行動\(a_{21}\)を選択する」という純粋戦略は、\begin{equation*}b_{2}\left( a_{21}|\left\{ x_{1}\right\} \right) =b_{2}\left( a_{21}|\left\{
x_{2}\right\} \right) =1
\end{equation*}を満たす行動戦略\(b_{2}\)として記述されます。また、プレイヤー\(2\)による「情報集合\(\left\{x_{1}\right\} \)において行動\(a_{21}\)を選択し情報集合\(\left\{x_{2}\right\} \)において行動\(a_{22}\)を選択する」という純粋戦略は、\begin{equation*}b_{2}\left( a_{21}|\left\{ x_{1}\right\} \right) =b_{2}\left( a_{22}|\left\{
x_{2}\right\} \right) =1
\end{equation*}を満たす行動戦略\(b_{2}\)として記述されます。プレイヤー\(2\)の他の純粋戦略についても同様です。

 

行動戦略と混合戦略の関係

展開型ゲーム\(\Gamma \)におけるプレイヤーの混合戦略とは、自身が選択し得るそれぞれの純粋戦略に対して、それを採用する確率を割り当てた上で、その確率分布にしたがってランダムに1つの純粋戦略を選択することを意味します。したがって、プレイヤーが混合戦略を採用することとは、ゲームの開始時点において、何らかの確率分布にもとづいて1つの純粋戦略をランダムに選択し、以降は選択した純粋戦略にしたがって意思決定を行うことを意味します。

一方、展開型ゲーム\(\Gamma \)におけるプレイヤーの行動戦略とは、自身のそれぞれの情報集合に対して、そこで採用する局所戦略を1つずつ選択することを意味します。ただし、ある情報集合における局所戦略とは、その情報集合において自身が選択し得るそれぞれの行動に対して、それを選ぶ確率を割り当てた上で、その確率分布にしたがってランダムに1つの行動を選択することを意味します。したがって、プレイヤーが行動戦略を採用することとは、プレイヤーが意思決定を行うある局面において特定の行動をランダムに選択し、以降において意思決定を行う局面に直面すれば、やはりそこでも特定の行動をランダムに選択するという形で、ゲームの進行にあわせてそれぞれの局面において逐次的にランダムな意思決定を行うことを意味します。

以上の違いを踏まえたとき、混合戦略と実質的に等しい行動戦略は存在するとは限らず、逆に、行動戦略と実質的に等しい混合戦略もまた存在するとは限らないことが示されます。ただ、ある一定の条件のもとでは、混合戦略と行動戦略が実質的に等しくなることが保証されます(クーンの定理)。ただ、これらの主張に関して詳細な議論を行うためには、混合戦略と行動戦略が「実質的に等しい」ことの意味を正確に定義する必要があります。混合戦略と行動戦略の関係については場を改めて解説します。

関連知識

Mailで保存
Xで共有

質問とコメント

プレミアム会員専用コンテンツです

会員登録

有料のプレミアム会員であれば、質問やコメントの投稿と閲覧、プレミアムコンテンツ(命題の証明や演習問題とその解答)へのアクセスなどが可能になります。

ワイズのユーザーは年齢・性別・学歴・社会的立場などとは関係なく「学ぶ人」として対等であり、お互いを人格として尊重することが求められます。ユーザーが快適かつ安心して「学ぶ」ことに集中できる環境を整備するため、広告やスパム投稿、他のユーザーを貶めたり威圧する発言、学んでいる内容とは関係のない不毛な議論などはブロックすることになっています。詳細はガイドラインをご覧ください。

誤字脱字、リンク切れ、内容の誤りを発見した場合にはコメントに投稿するのではなく、以下のフォームからご連絡をお願い致します。

プレミアム会員専用コンテンツです
ログイン】【会員登録