FANDOM


平均とは、観測されるデータから、算術的に計算して”得られる、統計学的な指標値である。

統計学では、平均には「母平均」と「標本平均」がある。母平均は、母集団の全ての要素に関する相加平均である。

標本平均は、母集団から抽出した標本(母集団の部分集合)の要素に関する相加平均である。

母平均はμと書き、標本平均はmなどと書いて区別する。

算術平均 編集

算術平均は、加法とスカラー倍が可能であるような量(実数, 複素数, ベクトル等)について定義できる。算術平均は、統計量のひとつ。数学および統計学における標本空間代表値のひとつであり、一群の数をひとつの数値で表すために用いる。文脈上明らかな場合は単に平均とも呼ぶ。

算術平均または相加平均という呼称は主に数学や統計学で使われ、幾何平均や調和平均などの他の平均と区別するためのものである。

数学や統計学だけでなく、経済学、社会学、歴史学などあらゆる学問分野で算術平均が使われている。例えば、国内総生産を人口で割った算術平均からその国民の平均収入を推定することができる。

相加平均は代表値としてよく使われるが、外れ値に大きく影響される。特に歪度の大きい分布では算術平均は通常の「真ん中」の観念と一致しないことがあり、中央値のようなロバスト統計量の方が代表値としてふさわしい場合がある。

定義 編集

標本空間が \{a_1,\ \ldots,\ a_n\} であるとき、その算術平均 A は次のとおりに定義される。

A = \frac{1}{n}\sum_{k=1}^{n} a_k = \frac{a_1 + a_2 + \cdots + a_n}{n}

\{a_1,\ \ldots,\ a_n\}母集団そのものならA母平均 (population mean) と呼び、統計標本なら A標本平均 (sample mean) と呼ぶ。

動機となる属性 編集

算術平均には、代表値として用いるのに適した次のような属性がある。

  • a_1,\ \ldots,\ a_n の算術平均が A であるとき、次式が成り立つ。
(a_1-A) + \ldots + (a_n-A) = \sum_{k=1}^{n} a_k - nA = 0
(a_k-A)a_k と平均値との距離なので、平均値の左にある数と右にある数が釣り合っていると解釈することもできる。(つまり、A重心である)この場合の平均とは、個々の数と平均値との差(偏差)の総和がゼロになる唯一の数値である。
  • a_1,\ \ldots,\ a_n の算術平均が A であるとき、偏差の平方 (a_k-A)^2 の総和を最小にするという意味で、すなわち平均二乗偏差を最小にするという意味で、算術平均が最良の単一推測値となる。
  • 正規分布では、算術平均は中央値や最頻値などの代表値と等しい。

算術平均と中央値 編集

算術平均は、多くの場合に中央値とは異なる。例えば、標本空間 {1,2,3,4} の算術平均は2.5であり、中央値と一致する。しかし {1,2,4,8,16} のように偏った標本空間では中央値と算術平均は大きく異なる。この場合の算術平均は6.2だが、中央値は4である。算術平均と中央値との差は、その標本空間の偏りを表している。

この性質は経済学などで応用されている。例えば1980年代以降のアメリカ合衆国では、収入の中央値は収入の算術平均より低く、その差は広がり続けている。これは貧富の差が広がっていることを意味する[1]

角度 編集

位相や角度などの周期的データを扱う場合は、特別な配慮が必要である。1°と359°の単純な算術平均は180°になってしまうが、これは2つの意味で正しくない。

  • 角度の値は360°(単位がラジアンの場合は 2π)の剰余として定義される。したがって、1°と359°を、1°と −1°とみなすこともできるし、1°と719°とみなすこともでき、それぞれの単純な算術平均は異なる。
  • この例では0°(または360°)が幾何学的によりよい「平均」であり、これのほうがばらつきが小さい。一般にこのような場合に単純に算術平均を求めると、平均値が値の範囲の中央付近になる傾向がある。

これを防ぐには、ばらつきが最小となるような点を平均値とし、円周上の2点の角度の小さい方を2点の角度とするよう再定義する。

幾何平均 編集

幾何平均または相乗平均は数学における平均の一種で、数値群の代表値である。それぞれの数値をかけ、その冪根(数値がn個ならn乗根)をとることで得られる。

概要 編集

2つの数の幾何平均はその積の平方根であり、例えば 2 と 8 なら \sqrt[2]{2 \times 8} = 4 となる。また、3つの数 4 と 1 と 1/32 の幾何平均はそれらの積 (1/8) の立方根であり、\sqrt[3]{4 \times 1 \times 1/32} = 1/2 となる。

幾何平均は幾何学的に解説することもできる。2つの数 ab の幾何平均は、辺の長さが ab長方形と同じ面積の正方形の1辺の長さを求めることと等価である。同様に abc という3つの数の幾何平均を求めることは、それらを辺の長さとする直方体と同じ体積の正六面体の1辺の長さを求めることに他ならない。

幾何平均は正の数のみしか扱えない(積が負になるとその冪根は虚数になるため。また、数値として0が含まれていると積が常に0となり幾何平均も0になってしまう。)。互いにかけあわせることが多い値や指数関数的性質のある値に使うことが多く、例えば世界人口の成長に関するデータや財政投資の利率などに使われる。

幾何平均は「ピタゴラスの平均」と呼ばれる3つの古典的な平均の1つでもある(他は算術平均と調和平均)。異なる値を含む正の数値群の平均を求めたとき、調和平均が常に最も小さく算術平均が最も大きくなり、幾何平均はその中間となる。

計算 編集

データ集合 \{a_1,a_2 , \ldots,a_n\} の幾何平均は次の式で求められる。

\bigg(\prod_{i=1}^n a_i \bigg)^{1/n} = \sqrt[n]{a_1 a_2 \cdots a_n}

幾何平均は同じデータ集合の算術平均以下となる(両者が等しくなるのは、全数値が同じ値の場合のみである)。

そこで両者を混合した算術幾何平均が定義されており、常に算術平均と幾何平均の中間の値となる。

2つの (an) と (hn) が

a_{n+1} = \frac{a_n + h_n}{2}, \quad a_0=x

h_{n+1} = \frac{2}{\frac{1}{a_n} + \frac{1}{h_n}}, \quad h_0=y

のように定義されるとき、幾何平均は算術調和平均となり、anhnxy の幾何平均に収束する。

これは2つの列が共通の極限に収束するという事実(ボルツァーノ=ワイエルシュトラスの定理)と幾何平均が常に同じという事実から容易にわかる。

\sqrt{a_ih_i}=\sqrt{\frac{a_i+h_i}{\frac{a_i+h_i}{h_ia_i}}}=\sqrt{\frac{a_i+h_i}{\frac{1}{a_i}+\frac{1}{h_i}}}=\sqrt{a_{i+1}h_{i+1}}

算術平均と調和平均を反数で有限な指数の1対の平均に置き換えても同じ結果が得られる。

対数の算術平均との関係 編集

対数の性質を使って式を変形させると、乗算を加算で表すことができ、べき乗を乗算で表せる。

\bigg(\prod_{i=1}^na_i \bigg)^{1/n} = \exp\left[\frac1n\sum_{i=1}^n\ln a_i\right]

これを対数平均とも呼ぶ。元のデータ群の数値 a_i を対数に変換して算術平均を求め、指数関数を適用して元の数値の幾何平均を得る。これはすなわち、f(x) = log x とした一般化平均に他ならない。例えば、2 と 8 の幾何平均は次のように計算できる。

b^{(\log_b (2)+\log_b (8))/2} = 4

ここで b対数の底であり、どんな値でもよい(一般に 2、e、10 のいずれかを使う)。

算術平均と平均保存的拡散との関係 編集

それぞれ異なる値の数値群に平均保存的拡散(数値群の複数の要素を算術平均を変化させないように拡散させること)を施したとき、幾何平均は常に小さくなる[2]

一定間隔での計算 編集

なんらかの量の平均成長率を求めるのに幾何平均を使う場合、初期値 a_0 と最新の値 a_n が既知であれば、途中の値を使わずに最新の成長率の幾何平均を次の式で求められる。

\left(\frac{a_n}{a_0}\right)^{\frac1n}

ここで n は初期値から最新状態までのステップ数である。

数値群を a_0, \ldots, a_n とし、a_ka_{k+1} の間の成長率を a_{k+1}/a_k とする。すると、成長率の幾何平均は次のようになる。

\left( \frac{a_1}{a_0} \frac{a_2}{a_1} \cdots \frac{a_n}{a_{n-1}} \right)^{\frac1n} = \left(\frac{a_n}{a_0}\right)^{\frac1n}

用途 編集

成長率 編集

成長率を表す場合、指数関数的成長でもそうでなくても、算術平均より幾何平均の方が適している。ビジネス分野においてはこれを年平均成長率と呼ぶ。ある期間の成長率の幾何平均は、その期間で一定の割合で成長して同じ成長を達成する場合の成長率である。

あるオレンジの木からある年に100個のオレンジを収穫でき、その後180個、210個、300個と毎年推移したとすると、各年ごとの成長率は順に 80%、16.7%、42.9%となる。成長率の算術平均を求める(80% + 16.7% + 42.9% を3で割る)と、平均成長率は 46.5% となる。しかし、初年に100個のオレンジがとれ、その後毎年 46.5% ずつ成長したとすると、最終年では314個となり、300にはならない。つまり、成長率を単純に算術平均すると平均成長率を大きく見積もってしまう。

その代わりとして幾何平均を使うことができる。成長率 80% は1.80倍を意味する。そこで 1.80、1.167、1.429 の幾何平均をとると \sqrt[3]{1.80 \times 1.167 \times 1.429} = 1.443 となり、平均成長率は 44.3% となる。初年を100として、その後毎年 44.3% ずつ成長したとすると、最終年には300となる。

社会科学での応用 編集

社会的統計を計算する場合、幾何平均を使うことは少なかったが、国際連合の人間開発指数は2010年から幾何平均を使って求めるようになった。これは、その統計量の性質をよりよく反映するためとされている。

幾何平均は(比較されている)次元間の代用可能性のレベルを低くし、同時に出生時平均余命の1%の低下が人間開発指数に教育や収入の1%の低下と同じ影響を与えることを保証する。従って達成度の比較の基礎としてはこちらの方が単純平均よりも次元を横断した本質的差異をよく表しているといえる[3]


アスペクト比 編集

幾何平均は映画やビデオの妥協的画面アスペクト比の策定に使われてきた。2つのアスペクト比があるときそれらの幾何平均をとれば、両者を同程度に歪めるか切り取るかした妥協的アスペクト比を提供する。具体的には、面積が等しくアスペクト比が異なる領域を中心をそろえて辺が平行になるように重ねると、それらが重なった領域が両者の幾何平均のアスペクト比と等しくなる。また、両者を全部含む最小の長方形の領域も幾何平均と同じアスペクト比になる。

幾何学 編集

直角三角形斜辺を底辺としたときの高さは、直角な角から斜辺に描いた垂線で斜辺を分割したときのそれぞれの線分の幾何平均に等しい。楕円において短半径は焦点から楕円の周上の点との距離の最大値と最小値の幾何平均である。一方、長半径は中心点といずれかの焦点との距離と中心点と準線との距離の幾何平均である。

調和平均 編集

調和平均を、

 \mu_\mathrm H = \frac n { \sum_{i=1}^n \frac 1 x_i } = \frac{n}{\frac{1}{x_1}+\frac{1}{x_2} + \cdots+ \frac{1}{x_n}}

と定義する。あるいは

 \frac n { \mu_\mathrm H }= \sum_{i=1}^n \frac 1 { x_i } = \frac{1}{x_1}+\frac{1}{x_2} + \cdots+ \frac{1}{x_n}

とも表せる。

調和平均は、逆数の算術平均の逆数である。あるいは、逆数の算術平均は調和平均の逆数である。

しかし、

データに1つ以上の0があるとき、調和平均の定義式はそのままでは使えないが、0への極限を取ると、調和平均は0となる

x_i \rarr 0 のとき  \mu_\mathrm H \rarr 0 )。

データに負数があっても調和平均は計算することができる。ただし、正負が混在している場合に逆数の和が0になることがあり、その場合の極限は発散する。

一般化平均 編集

算術平均、相乗平均、調和平均は同じ式

 \mu_m = \sqrt[m] { \frac 1 n \sum_{i=1}^n x_i{}^m }

あるいは

 n \mu_m {}^m = \sum_{i=1}^n x_i{}^m

で表せる。この式を一般の実数 m に対し定義した値を一般化平均と呼ぶ。

m = 1 で算術平均、m = -1 で調和平均となり、m → 0 への極限が相乗平均である。これらのほか、m = 2 の場合を二乗平均平方根 (RMS) と呼び、物理学や工学で様々な応用をもつ。m → ∞ への極限は最大値m → -∞ への極限は最小値である。

一般化平均は、ベクトル (x_1,\ldots,x_n)m-ノルム\sqrt[m]{n} で割った結果に一致する。

データの m 乗の平均、つまり、一般化平均の m

 \mu_m {}^m = \frac 1 n  \sum_{i=1}^n x_i{}^m

m 乗平均と呼ぶ。

m 乗平均・一般化平均の応用として、例えば統計学では分散標準偏差がある。それぞれ m = 2 の場合の m 乗平均・一般化平均により定義されている。

(ただし、相加平均を引いた後 m 乗平均・一般化平均を取る)。

一般化平均はさらに一般化が可能で、全単射な関数 f により

\mu_f = f^{-1}\left({\frac{1}{n}\sum_{i=1}^n{f(x_i)}}\right)

という平均が定義できる。恒等関数 f(x)= x により相加平均が、逆数 f(x)= 1/x により調和平均が、

対数関数 f(x)= log x により相乗平均がそれぞれ表されている。

定義域 編集

一般の実数 m による一般化平均は、全てが非負の実数であるデータに対してのみ定義される。

これは、一般化平均の式に現れる m 乗根(冪関数)が負数に対し定義できないためである。

例外は、冪関数を使わずに計算できる算術平均と調和平均 (m = ±1) である。

m ≠ ±1 の場合、1つ以上の負数が含まれるデータに対し、一般化平均の定義式は実数を返さないか、実数を返したとしても結果は解釈が難しい。

m < 0 の場合、1つ以上の0が含まれるデータに対し一般化平均の定義式は使えないが、調和平均同様、0への極限を取ると一般化平均は0となる。

幾何平均(m = 0 の一般化平均)も0となるので、m ≦ 0 の場合に一般化平均は0となる。

具体例 編集

  • 相乗平均
    • 78年の経済成長率 20% 79年の経済成長率80%の場合,この2年間の平均成長率は\sqrt{1.2 \times 1.8}= 1.469693846...より、約47%
  • 調和平均
    • 往は時速60km 復は時速90kmの場合の往復の平均速度は \frac 2 { 1 / 60_\mathrm{km} + 1 / 90_\mathrm{km} }=72_\mathrm{km} である。
    • 並列接続された電気抵抗の抵抗値などを考える場合に用いる(直列回路と並列回路)。

加重平均 編集

観測される値それぞれに重みがある時には、単に相加平均をとるのでなく重みを考慮した平均をとるのが便利である。

各データ xi に、重み wi がついているときの加重平均(重み付き平均)は

\cfrac{w_1x_1+\cdots+w_nx_n}{w_1+\cdots+w_n}

と定義される。全ての重みが等しければ、これは通常の相加平均である。

相乗平均についての重み付き平均は

\left({x_1}^{w_1} \cdots {x_n}^{w_n}\right)^{1/p}

と定義される。ただし、p=\sum_{i=1}^n w_i とする。

連続分布の相加平均 編集

観測されるデータ x(t) が区間 [a, b] 上に連続的に分布しているとき、その相加平均は積分

\frac{1}{b-a} \int_a^b x(t)\,dt

と定義される。これは離散分布の相加平均に対して、無限個の平均を算出する操作を極限により表したものである。

ベクトルの平均 編集

ベクトル\mathbf{x}_1,\ldots,\mathbf{x}_nに対し、

\mathbf{x}_1,\ldots,\mathbf{x}_nの(相加)平均を、

\frac{\mathbf{x}_1+\cdots+\mathbf{x}_n}{n}

により定義する。

相加平均と違い、相乗平均や調和平均はベクトルの場合に一般化できない。

ベクトルの数が3の場合、\mathbf{x}_1,\mathbf{x}_2,\mathbf{x}_3の平均は、

\mathbf{x}_1,\mathbf{x}_2,\mathbf{x}_3の作る三角形の重心に一致する。

ベクトルの数が4の場合も同様で、\mathbf{x}_1,\cdots,\mathbf{x}_4の平均は、

\mathbf{x}_1,\cdots,\mathbf{x}_4の作る四面体の重心に一致する。

この事実は一般にベクトルの数が n の場合も拡張でき、\mathbf{x}_1,\cdots,\mathbf{x}_nの平均は、

\mathbf{x}_1,\cdots,\mathbf{x}_nの作るn-単体の重心に一致する。

また、後述するように、ベクトルの平均は物理学における質点の重心と関係がある。

加重平均も同様にベクトルに拡張でき、

\frac{w_1\mathbf{x}_1+\cdots+w_n\mathbf{x}_n}{w_1+\cdots+w_n}

と定義される。

m 乗平均・一般化平均はスカラー

\frac{||\mathbf{x}_1||^m+\cdots+||\mathbf{x}_n||^m}{n}, \quad \sqrt[m]{\frac{||\mathbf{x}_1||^m+\cdots+||\mathbf{x}_n||^m}{n}}

として定義される。ただしここで||\cdot||は、ベクトルのノルムである。

m = 2 の場合、||\mathbf{x}||^2 は内積 \langle\mathbf{x},\mathbf{x}\rangle に一致するので、

m = 2 の場合の m 乗平均や一般化平均が特に重要である。たとえば物理学では速さの平均値として、m = 2 の場合の一般化平均を使うことがある。

ベクトルの加重平均の概念には、物理的な解釈を与える事ができる。質点 P_1,\ldots,P_n がそれぞれ位置 \mathbf{x}_1,\ldots,\mathbf{x}_n にあり、

それぞれの質量が m_1,\ldots,m_n であるとき、P_1,\ldots,P_n の重心は、加重平均

\cfrac{m_1\mathbf{x}_1+\cdots+m_n\mathbf{x}_n}{m_1+\cdots+m_n}

に一致する。

よって特にベクトルの(相加)平均は、質量1の質点達の重心に一致する。

算術幾何平均 編集

数学において算術幾何平均(Arithmetic-geometric mean)とは、2 つの複素数(しばしば正の実数)に対して算術平均と幾何平均を繰り返し用いて作られる数列の極限のこと。

定義 編集

|\arg(b/a)|\ne\pi である複素数 a,\ b について

a_{0}=a, \quad b_{0}=b, a_{n+1}=\frac{a_n+b_n}{2}, \quad b_{n+1}=\sqrt{a_nb_n}\quad(n\ge0)

と定めれば数列 \{a_n\}\{b_n\} は同じ値に収束する。その極限を a,\ b の算術幾何平均と呼ぶ。ただし、幾何平均 b_n の根号の符号は算術平均 a_n の側にあるものを選ぶものとする。

M(a,b)=\lim_{n\to\infty}a_n=\lim_{n\to\infty}b_n

\real(b/a)>0 の場合、算術幾何平均は次式の楕円積分で表される。

M(a,b)=\frac{\pi}{2}\bigg/\int_{0}^{\pi/2}\frac{d\theta}{\sqrt{a^2\cos^2\theta+b^2\sin^2\theta}}

\real(b/a)=0 の場合は、次式になる。

\begin{align}M(a,b)
&=\frac{\pi}{2}\bigg/\int_{0}^{\pi/2}\frac{d\theta}{\sqrt{\left(\frac{a+b}{2}\right)^2\cos^2\theta+ab\sin^2\theta}}\\
&=\frac{\pi}{2}\bigg/\int_{0}^{\pi/2}\frac{d\theta}{\sqrt{\left(\frac{a+b}{2}\right)^2-\left(\frac{a-b}{2}\right)^2\sin^2\theta}}\\
&=\frac{\pi}{2}\bigg/\int_{0}^{\pi/2}\frac{d\theta}{\left(\frac{a+b}{2}\right)\sqrt{1-\left(\frac{a-b}{a+b}\right)^2\sin^2\theta}}\\
\end{align}

概要 編集

a,\ b が正の実数である場合、

 a_{n+1}=\frac{a_n+b_n}{2} \ge \sqrt{a_n\cdot b_n} = b_{n+1}

が成り立ち、

a_n \ge a_{n+1},b_{n+1} \ge b_n

となることから

a_0 \ge  a_1 \ge a_2 \ge \cdots \ge b_2 \ge b_1 \ge b_0

という関係が成り立っている。{an} は下に有界な単調減少数列であり、{bn} は上に有界な単調増加数列であるので、それぞれが収束する。{an} の極限を α とし、{bn} の極限を β とすると定義の漸化式から

\alpha = \frac{\alpha + \beta}{2}

\beta = \sqrt{\alpha \beta}}}

が両立しなければならない。2 式とも整理すれば α = β となるので、2 つの数列 {an}, {bn} は n → ∞ とした極限で同じ値に収束することが確かめられる。

性質 編集

正の定数 c > 0 に対し

M(ca,cb)=c M(a,b)

が成り立つ。

この数列の収束は

|a_{n+1}-b_{n+1}| = \frac{(a_n-b_n)^2}{2(\sqrt{a_n}+\sqrt{b_n})^2} \leq C(a_n-b_n)^2

を満たすので、1回のステップで精度が2倍になる。

また、次のことが知られている。

 \frac{\pi}{2} = M(1,\sqrt{1-k^2}) \int_0^1 \frac{dz}{\sqrt{(1-z^2)(1-k^2z^2)}}

右辺の積分は、楕円積分であり簡単には積分できない。しかし、算術幾何平均の収束が速いので、数値計算による円周率の計算に用いられることがある。

証明 編集

複素数 a,\ b の算術幾何平均が収束することは、以下によって証明できる。

a_{n}^{\;2}-b_{n}^{\;2}=(a_n+b_n)(a_n-b_n)

a_{n+1}^{\;2}-b_{n+1}^{\;2}=\left(\frac{a_n+b_n}{2}\right)^2-a_nb_n=\frac{(a_n-b_n)^2}{4}

\left|a_n-b_n\right|<\left|a_n+b_n\right|となるように b_n の根号の符号を決めると約束したので、

\frac{\left|a_{n+1}^{\;2}-b_{n+1}^{\;2}\right|}{\left|a_{n}^{\;2}-b_{n}^{\;2}\right|}=\frac{\left|a_n-b_n\right|}{4\left|a_n+b_n\right|}<\frac{1}{4}

である。d_na_n の階差とすれば

d_n=a_{n+1}-a_n=-\frac{a_n-b_n}{2}

\frac{\left|d_{n+1}\right|}{\left|d_n\right|}=\frac{\sqrt{\left|a_{n+2}^{\;2}-b_{n+2}^{\;2}\right|}}{\sqrt{\left|a_{n+1}^{\;2}-b_{n+1}^{\;2}\right|}}<\frac{1}{2}

である。したがって、級数 \sum{d_n} は絶対収束する。すなわち、数列 \{a_n\} は収束し、数列 \{b_n=2a_{n+1}-a_n\}\{a_n\} と同じ値に収束する。


算術幾何平均と楕円積分の関係は以下によって証明できる。ただし、a,\ b は正の実数とする。

\begin{align}I(a,b)
&=\int_{0}^{\pi/2}\frac{d\theta}{\sqrt{a^2\cos^2\theta+b^2\sin^2\theta}}\\
&=\int_{0}^{\pi/2}\frac{d\theta}{\sqrt{(a^2\cos^2\theta+b^2\sin^2\theta)(\cos^2\theta+\sin^2\theta)}}\\
&=\int_{0}^{\pi/2}\frac{d\theta}{{\cos^2\theta}\sqrt{(a^2+b^2\tan^2\theta)(1+\tan^2\theta)}}\\
\end{align}

x=\tan\theta と置換すると、

\begin{align}I(a,b)
&=\int_{0}^{\infty}\frac{dx}{\sqrt{(a^2+b^2x^2)(1+x^2)}}\\
&=\int_{0}^{\infty}\frac{dx}{\sqrt{a^2x^2+b^2x^2+b^2x^4+a^2}}\\
&=\int_{0}^{\infty}\frac{dx}{\sqrt{(a+b)^2x^2+(bx^2-a)^2}}\\
&=\frac{1}{2}\int_{0}^{\infty}\frac{dx}{x\sqrt{\left(\displaystyle\frac{a+b}{2}\right)^2+\left(\displaystyle\frac{bx^2-a}{2x}\right)^2}}\\
\end{align}

t=\frac{bx^2-a}{2\sqrt{ab}\;x} と置換することによって、

x=\sqrt{ab}\;t+\sqrt{ab+abt^2},\quad dx=\left(\sqrt{ab}+\frac{\sqrt{ab}}{\sqrt{ab+abt^2}}\right)dt=\frac{x}{\sqrt{1+t^2}}dt

\begin{align}I(a,b)
&=\frac{1}{2}\int_{-\infty}^{\infty}\frac{dt}{\sqrt{\left(\left(\frac{a+b}{2}\right)^2+abt^2\right)\left(1+t^2\right)}}\\
&=\int_{0}^{\infty}\frac{dt}{\sqrt{\left(\left(\frac{a+b}{2}\right)^2+abt^2\right)\left(1+t^2\right)}}\\
&=I\left(\frac{a+b}{2},\sqrt{ab}\right)
\end{align}

となる。したがって、

Indent|\begin{align}I(a,b)
&=I(a_1,b_1)=\lim_{n\to\infty}I(a_n,b_n)=\lim_{n\to\infty}I\left(M(a,b),M(a,b)\right)\\
&=\int_{0}^{\pi/2}\frac{d\theta}{\sqrt{M(a,b)^2(\cos^2\theta+\sin^2\theta)}}=\frac{\pi}{2M(a,b)}\\
\end{align}

a,\ b が複素数である場合は、積分路 t=\frac{bx^2-a}{2\sqrt{ab}\;x} と実軸との間に(留数をもつ)がないことを確かめなければならない。

u=\real\left(b/a\right), v=\image\left(b/a\right) とすれば、

\begin{align}\frac{t}{\frac{a+b}{2\sqrt{ab}}}
&=\frac{(b/a)x^2-1}{(1+b/a)x}=\frac{(u+iv)x^2-1}{(1+u+iv)x}\\
&=\frac{(ux^2-1+ivx^2)(1+u-iv)}{\left((1+u)^2+v^2\right)x}\\
&=\frac{(u+u^2+v^2)x^2-(1+u)+ivx^2+iv}{(1+2u+u^2+v^2)x}\\
\end{align}

これに x^2=\frac{1+u}{u+u^2+v^2} を代入すると

\begin{align}\frac{t}{\frac{a+b}{2\sqrt{ab}}}
&=\frac{iv\frac{1+2u+^2+v^2}{u^2+v^2+u}}{(1+2u+u^2+v^2)\sqrt{\frac{1+u}{u+u^2+v^2}}}\\
&=\frac{iv}{\sqrt{(1+u)(u+u^2+v^2)}}\\
\end{align}

であり、u>0 となるように幾何平均の根号の符号を決めると約束したので、積分路は極 \pm i\,\frac{a+b}{2} の間(原点に近いところ)を通る。また、u'=\real\left(\sqrt{b/a}\right), v'=\image\left(\sqrt{b/a}\right) とすると、

\begin{align}t
&=\frac{\sqrt{b/a}\;x^2-\sqrt{a/b}}{2x}=\frac{(u'+iv')^2x^2-1}{(u'+iv')x}\\
&=\frac{(u'^2+v'^2)(u'+iv')x^2-(u'-iv')}{2(u'^2+v'^2)x}\\
\end{align}

これに x^2=\frac{1}{u'^2+v'^2} を代入すれば

\begin{align}t
&=\frac{iv'}{\sqrt{u'^2+v'^2}}\\
\end{align}

であるから、積分路は極 \pm{i} の間を通る。

算術調和平均 編集

|\arg(b/a)|\ne\pi である複素数 a,\ b について算術平均と調和平均を繰り返して得られる数列

a_{0}=a,\quad b_{0}=b,a_{n+1}=\frac{a_n+b_n}{2},\quad b_{n+1}=\frac{2a_nb_n}{a_n+b_n}\quad(n\ge0)

の極限について

\operatorname{AHM}(a,b)=\lim_{n\to\infty}a_n=\lim_{n\to\infty}b_n

である。つまり、算術調和平均は a,\ b の幾何平均に等しい。このことは

a_{n+1}b_{n+1}=\frac{a_n+b_n}{2}\cdot\frac{2a_nb_n}{a_n+b_n}=a_nb_n

\operatorname{AHM}(a,b)=\lim_{n\to\infty}\sqrt{a_nb_n}=\sqrt{ab}

から明らかである。

調和幾何平均 編集

|\arg(b/a)|\ne\pi である複素数 a,\ b について幾何平均と調和平均を繰り返して得られる数列

a_{0}=a,\quad b_{0}=b

a_{n+1}=\frac{2a_nb_n}{a_n+b_n},\quad b_{n+1}=\sqrt{a_nb_n}\quad(n\ge0)

の極限について

\operatorname{HGM}(a,b)=\lim_{n\to\infty}a_n=\lim_{n\to\infty}b_n

である。つまり、調和幾何平均と算術幾何平均の積は幾何平均の自乗に等しい。このことは、a_n,\ b_n を逆数にして

(1/a_{n+1})=(1/a_n)+(1/b_n),\quad (1/b_{n+1})=\sqrt{(1/a_n)(1/b_n)}

\operatorname{HGM}(a,b)=\frac{1}{\operatorname{AGM}\left(\frac{1}{a},\frac{1}{b}\right)}=\frac{ab}{\operatorname{AGM}\left(b,a\right)}

から明らかである。

移動平均 編集

移動平均は、時系列データ(より一般的には時系列に限らず系列データ)を平滑化する手法である。金融(特にテクニカル分析)分野をはじめ、気象、水象などの計測分野で使われる。有限インパルス応答に対するローパスフィルタデジタルフィルタ)の一種であり、分野によっては移動積分とも呼ばれる。

主要なものは、単純移動平均と加重移動平均と指数移動平均の3種類である。普通、移動平均といえば、単純移動平均のことをいう。

単純移動平均 編集

単純移動平均 (SMA) は、直近の n 個のデータの重み付けのない単純な平均である。例えば、10日間の終値の単純移動平均とは、直近の10日間の終値の平均である。それら終値を p_{M}, p_{M-1}, ..., p_{M-9} とすると、単純移動平均 SMA(p,10) を求める式は次のようになる:

\text{SMA}_{M} = { p_{M} + p_{M-1} + \cdots + p_{M-9} \over 10 }

翌日の単純移動平均を求めるには、新たな終値を加え、一番古い終値を除けばよい。つまり、この計算では、改めて総和を求め直す必要はない。

\text{SMA}_\mathrm{today} = \text{SMA}_\mathrm{yesterday} - {p_{M-n+1} \over n} + {p_{M+1} \over n}

テクニカル分析では様々な n の値が使われる(5、22、55、200など)[4]。期間の選択は注目している動きの種類に依存する。すなわち短期間の動きなのか、中期間の動きなのか、長期間の動きなのか、である。いずれにしても、移動平均線は、市場が上昇傾向(ブルマーケット)にある場合はサポートとして働き、下降傾向(ベアマーケット)にある場合はレジスタンスとして働く。

一般に移動平均線は実際の動きから少し遅れて平滑化した上で追随する。SMA をあまりに長期間の平均を取るようにすると、現在の平均的な価格からかけ離れた古い価格の影響を受けすぎることがある。これに対処するために考案された、最近の価格に大きな重み付けを与える方式として、後述するWMAEMAがある。

SMAの特徴として、データに周期的変動があるとき、その周期でSMAを求めると周期が平滑化される。しかし、経済や金融では完全な周期的変動が生じることはほとんどない[5]

加重移動平均編集

加重平均とは、個々のデータに異なる重みをつけて平均を計算するものである。単に加重移動平均 (WMA) と言った場合、線形加重移動平均 (LWMA) のことを指し、重みを徐々に線形に(一定量ずつ)減らす手法を指す。n 日間の WMA では、最も現在に近い日の重みを n とし、その前日を n-1、…… のように重みを減らしていって、最終的にゼロにする。

\text{WMA}_{M} = { n p_{M} + (n-1) p_{M-1} + \cdots + 2 p_{M-n+2} + p_{M-n+1} \over n + (n-1) + \cdots + 2 + 1}

翌日の WMA を計算するには、\text{WMA}_{M+1}\text{WMA}_{M} の分子 (numerator) の差分が n p_{M+1} - p_{M} - \cdots - p_{M-n+1} であることに注目する。ここで、n 日間の総和 p_{M} + \cdots + p_{M-n+1}\text{Total}_{M} で表すと、次のようになる:

\text{Total}_{M+1} = \text{Total}_{M} + p_{M+1} - p_{M-n+1}
\text{Numerator}_{M+1} = \text{Numerator}_{M} + n p_{M+1} - \text{Total}_{M}
\text{WMA}_{M+1} = { \text{Numerator}_{M+1} \over n + (n-1) + \cdots + 2 + 1}

この分母は三角数であり、n(n+1)\over2 として簡単に計算できる。

上図は、WMA での重みがどのように変化(減少)するかを示したものである。次節の指数平滑移動平均での重みと比較するとよい。

指数移動平均編集

指数移動平均(EMA) では、指数関数的に重みを減少させる。指数加重移動平均 (英: Exponentially Weighted Moving Average; EWMA)、指数平滑移動平均 (英: Exponentially Smoothed Moving Average) とも呼ばれる。重みは指数関数的に減少するので、最近のデータを重視するとともに古いデータを完全には切り捨てない(重みは完全にゼロにはならない)。右図は、重みの減少する様子を表したものである。なお、EMA は移動平均とは呼べないとする立場もあり、その場合は指数平滑平均と呼ぶ。

重みの減少度合いは平滑化係数と呼ばれる 0 と 1 との間の値をとる定数 α で決定される。α は百分率で表現されることもあり、平滑化係数が 10% というのは α=0.1 と同じことを表している。αを時系列区間 N で表すこともあり、その場合は \alpha={2\over{N+1}} となる。例えば、N=19 なら α=0.1 となる。重みの半減期(重みが0.5以下となる期間)は、約 N/2.8854 である(N>5 のとき1%の精度で)。

時系列上のある時点 t の値を Yt で表し、ある時点 t での EMA を St で表す。S1 は定義しない。S2 の値をどう設定するかにはいくつかの手法があり、S2 の値を Y1 とすることが多いが、S2 を時系列上の最初の4つか5つのデータの平均とすることもある。α が小さい場合、S2 をどう設定するかは比較的重要であるが、αが大きい場合は(古い値の重みが小さくなるので)重要ではない。

t≧2 の場合の EMA の計算式は次のとおりである。[6]

S_{t} = \alpha \times Y_{t-1} + (1-\alpha) \times S_{t-1}

この計算式は Hunter (1986)によるものである[7]。各データの重みは、\alpha(1-\alpha)^x Y_{t-(x+1)} になる。Roberts (1959) では Yt-1 の代わりに Yt を使っていた[8]

この式をテクニカル分析の用語を使って表すと次のようになる。用語が異なるだけで同じ式である

\text{EMA}_\mathrm{today} = \text{EMA}_\mathrm{yesterday} + \alpha \times (\text{price}_\mathrm{today} - \text{EMA}_\mathrm{yesterday})

この式で \text{EMA}_\mathrm{yesterday} を展開すると次式のようなべき級数となり、各時点の価格 p1, p2, …… が指数関数的に重み付けされている。

\text{EMA}_{M} = \alpha \times \left( p_{M} + (1-\alpha) p_{M-1} + (1-\alpha)^2 p_{M-2} + \cdots \right)[9]

理論上これは総和であるが、1-α が 1より小さいので、項はどんどん小さくなって、ある項から先は無視できる大きさになる。

N 日間の EMA といった場合の N は単に係数αを示すに過ぎず、実際の計算は N 日間のデータだけでは済まない。ただし、直近の N 日間のデータが EMA において 86 %の重みをもつ。証明:

 {{\alpha \times \left(1+(1-\alpha)+(1-\alpha)^2+\cdots +(1-\alpha)^N \right)} \over {\alpha \times \left( 1+(1-\alpha)+(1-\alpha)^2+\cdots +(1-\alpha)^\infty \right)}} = 1-{\left(1-{2 \over N+1}\right)}^{N+1}
(左辺の分母は1であり、分子の等比数列の和が右辺の形になる[10]。)この極限値は、
\lim_{N \to \infty} \left[ 1 - \left(1-{2 \over N+1}\right)^{N+1} \right] = 1-e-2 ≒ 0.8647
になる[11](e はネイピア数)。

実際には、上のべき級数の式を使って最初のある日までの EMA を計算し、その翌日以降は最初のほうで示した式を使えばよい。

初期値の問題に戻る。古いデータに極めて大きな値があった場合、たとえその重みが小さくても全体には大きな影響を与える。そういう場合には、価格変動がそれほど大きくないと仮定できるなら、重みだけを考慮してある項目数 k までで計算を打ち切ればよい。このとき、省略される項の重みは

  \alpha \times \left( (1-\alpha)^k + (1-\alpha)^{k+1} + (1-\alpha)^{k+2} + \cdots \right)
= \alpha \times (1-\alpha)^k \times \left(1 + (1-\alpha) + (1-\alpha)^2 + \cdots \right)
= (1-\alpha)^k

となる。すなわち、全体の重み 1 に対して (1-\alpha)^k に相当する部分が省略されることになる。

例えば、99.9 %の重み(精度)で計算したい場合には、計算する項目数を k={ \log (0.001)  \over \log (1-\alpha)} とすればよい。\log\,(1-\alpha)N が増えるに従って -\alpha = {-2 \over {N+1}} に近づいていく[12]から、N が大きいときは k=3.45(N+1) [13]とすればほぼ 99.9% の精度となる。

なお、\alpha={2\over{N+1}} ではなく \alpha={1\over{N}} とする EMA もある(次節)。

修正移動平均 編集

修正移動平均 (MMA) は、Running Moving Average (RMA)、平滑移動平均などと呼ばれる。

定義は次式による。

\text{MMA}_\mathrm{today} = {(N - 1) \times \text{MMA}_\mathrm{yesterday} + \text{price} \over{N}}

要するに、\alpha={1\over{N}} とした指数移動平均である。

三角移動平均 編集

Triangular Moving Average (TMA)。三角形移動平均ともいう。単純移動平均を2回適応したものである。

定義は以下のとおり。w は (N+1)/2 の切り上げとする。

\text{TMA} = \text{SMA}(\text{SMA}(\text{price}, w), w)

重みのグラフが二等辺三角形となる。w - 1 日前に最も大きな重みがかかる。

正弦加重移動平均 編集

Sine Weighted Moving Average (SWMA)。加重移動平均において、重みのかけ方に正弦波三角関数)を利用する。

線形加重移動平均に近い \cos を利用する方法と、三角移動平均に近い \sin を利用する方法がある。

累積移動平均 編集

Cumulative moving Average (CA)。全期間の平均をとった移動平均。

定義は次式のとおり。 \text{CA}_i = {{x_1 + \cdots + x_i} \over i}

また、\text{CA}_{i} = {i \text{CA}_{i-1} + {x_{i}} \over {i}} としても計算できる。

一般化した移動平均編集

より一般化し、重みを任意に決めたものは、移動平均とは呼ばれず、畳み込みFIRフィルタリングなどと呼ばれることが多い。

しかし、「自己回帰移動平均モデル」の「移動平均」は、この一般化した意味である。

KZフィルタ 編集

単純移動平均より良好な周波数特性を得るため、単純移動平均を数回繰り返すことがある。この操作によってかけられるフィルタをコルモゴロフ・ズルベンコ・フィルタ (Kolmogorov-Zurbenko filter、KZフィルタ) という。

回数を十分増やすと、KZフィルタのインパルス応答ガウス関数漸近する。

平均を用いる際の注意 編集

調査では、平均は代表値としてしばしば使われる。ただし、それが調査の目的に適切かどうかは検討を必要とする。例を挙げる。

世帯の貯蓄の事例では、一部の大金持ちの巨大な貯蓄が平均値を引き上げてしまうため、最も多い数の貯蓄額が仮に300万円だとしても平均は700万円くらいになる。

従って、一般的な世帯の貯蓄について考察するのが目的ならば中央値最頻値を用いるべきである。

より一般に、このように分布が左右対称でない際は平均値以外の使用も考えるべきである。

関係式 編集

相加平均≧相乗平均≧調和平均 編集

n 個のデータが全て正の時、次のような大小関係が成り立つ。

相加平均 ≥ 相乗平均 ≥ 調和平均

\frac{x_1+x_2+\cdots+x_n}{n} \ge \sqrt[n]{x_1x_2\cdots{}x_n} \ge \frac{n}{\frac{1}{x_1}+\frac{1}{x_2}+\cdots\frac{1}{x_n}}

等号成立のための必要十分条件は、 x_1 = x_2 = \cdots = x_n である。

左側の不等式は、「対数を使った関係式」にlogの凸性ジェンセンの不等式)を適用すれば証明できる(数学的帰納法を使った別証明も知られている)。右側の不等式は、調和平均が逆数の相加平均の逆数という事実を左側の不等式に適用すれば証明できる。

出典 編集

  1. Ben S. Bernanke. “The Level and Distribution of Economic Well-Being”. 2010年7月23日閲覧。
  2. Mitchell, Douglas W., "More on spreads and non-arithmetic means," The Mathematical Gazette 88, March 2004, 142-144.
  3. FAQ - HUMAN DEVELOPMENT REPORT
  4. Moving Averages page at ForexAbode.com
  5. Ya-lun Chou, Statistical Analysis, Holt International, 1975, ISBN 0030894220, section 17.9.
  6. NIST/SEMATECH e-Handbook of Statistical Methods: Single Exponential Smoothing
  7. NIST/SEMATECH e-Handbook of Statistical Methods: Single Exponential Smoothing
  8. NIST/SEMATECH e-Handbook of Statistical Methods: EWMA Control Charts
  9. 1/\alpha = 1+(1-\alpha)+(1-\alpha)^2+\cdots なので、
    \text{EMA} = { p_{M} + (1-\alpha) p_{M-1} + (1-\alpha)^2 p_{M-2} + (1-\alpha)^3 p_{M-3} + \cdots \over 1 + (1-\alpha) + (1-\alpha)^2 + (1-\alpha)^3 + \cdots }
  10. 分子は \alpha \left({1-(1-\alpha)^{N+1} \over 1-(1-\alpha)}\right) である。
  11. (1+x/n)n の極限値は、n→∞ のとき ex になる。
  12. α→0 のとき、テイラー展開によって、log(1-α) = -α -α2/2 - … → -α である。
  13. loge(0.001) / 2 = -3.45

参考文献 編集

  • 岡田泰栄 『平均値の統計』、共立出版<数学ワンポイント双書>、1981年。
  • 鷲尾泰俊 『推定と検定』、共立出版<数学ワンポイント双書>、1978年。
  • ダレル・ハフ How to lie with statistics, Victor Gollancz, 1954 (ISBN 0-393-31072-8)

関連項目 編集

広告ブロッカーが検出されました。


広告収入で運営されている無料サイトWikiaでは、このたび広告ブロッカーをご利用の方向けの変更が加わりました。

広告ブロッカーが改変されている場合、Wikiaにアクセスしていただくことができなくなっています。カスタム広告ブロッカーを解除してご利用ください。

FANDOMでも見てみる

おまかせWiki