一覧

線形代数13|「固有値」と「固有ベクトル」は対角化のカギ!

正方行列の対角化は非常に応用範囲が広く,対角化があることによって線形代数が広く応用される分野になっていると言っても言い過ぎではありません.

正方行列の対角化を行うために

  • 固有値
  • 固有ベクトル

の2つの概念が鍵となっています.

全ての正方行列が対角化できるわけではありませんが,「固有値」を考えれば直ちに対角化が可能であることが分かる場合もあります.

この記事では

  • 正方行列の対角化とは何か
  • 正方行列$A$のべき$A^k$の対角化を用いた計算
  • 固有値固有ベクトルとは何か
  • どのようなときに対角化できるか

を説明します.

続きを読む


統計学の基礎4|「相関係数」は相関の強さを表す統計量

たとえば,2種類の対応するデータ

  • 勉強時間
  • テストの点数

を考えたとき,勉強時間が長いほどテストの点数が高くなる傾向はありそうです.

このように,「一方のデータの値が大きいときに他方のデータの値も大きいこと」を正の相関があるといい,逆に「一方のデータの値が大きいときに他方のデータの値は小さいこと」を負の相関があるというのでした.

これらについて,前回の記事

  • 2種類の対応するデータの相関とは何か
  • 相関の正負を判断できる共分散とは何か

を説明しました.

共分散は相関の正負は判断できるものの,どれくらい強い相関があるのかまでは分かりません.

そこで,相関の強さを測る統計量が欲しいわけですが,それがこの記事で説明する相関係数です.

この記事では

  • 相関の強さとは何か
  • 相関係数とは何か

を説明します.

続きを読む


統計学の基礎3|「共分散」は「相関」の正負を表す統計量

前々回の記事ではデータを要約する代表値として平均値中央値を説明し,前回の記事ではデータのばらつきを表す分散を説明しました.

これら前回,前々回の記事で扱った平均値,中央値,分散は,例えば「テストの成績」のように1種類のデータに関するものでした.

この記事では

  • 勉強時間
  • テストの成績

のように2種類の関係するデータを扱います.

「勉強時間」が長いほど「テストの成績」は高いことは予想できますが,この関係を数値を用いて表すために共分散相関係数といった統計量を用います.

また,2種類の関係するデータは$xy$平面上に点で表すことができ,このようにしてできる図を散布図といいます.

長くなってしまうので相関係数は次の記事に説明するとして,この記事では

  • 「相関」とは何か?
  • 「共分散」とは何か?

を説明します.

続きを読む


統計学の基礎2|データのばらつきを表す「分散」のイメージ

テストの点数など幾つかのデータがあるとき,平均値がデータの中心を表す量としてよく扱われますが,場合によっては平均値がデータの実態を適切に表していないことがあります.

前回の記事で説明したように,これは平均が外れ値に大きく影響し得ることが原因です.

例えば,日本成人の年収を考えたとき,一部の高所得者がいることで平均年収が高く吊り上げられてしまい,年収の中央値と平均年収に大きな差が出ます.

さて,外れ値がたくさんあるデータは「データがばらついている」ということができます.

このデータのばらつきを表す指標として分散標準偏差があります.

この記事では,

  • データの分散のイメージ
  • データの分散の定義
  • データの標準偏差の定義とイメージ

を説明します.

続きを読む


統計学の基礎1|データを要約する代表値(平均値・中央値)

統計学 (statistics)は実用的な数学の分野として,社会的になくてはならないものとなっています.

身近な例では,選挙があるたびにニュースで流れる選挙速報で,まだそれほど開票されていないにもかかわらず「当選確実」と断言してしまえるのは,統計学があってのものです.

他の例では,「治療で用いられる薬が本当に効果があるのかどうか」というのも,統計学を用いて「効く」という確固たる根拠が示されて初めて使える薬として認められます.

このように,実は統計学は身近に,そして広く応用されている数学の1つということができます.

さて,統計学はテストの成績,アンケート結果,薬の効果などの「データの集まりを処理するための数学」です.

データの集まりを大雑把に見るときには,データの平均値を考えることがよくありますが,実は平均値がデータを適切に表さないことがあります.

そのような場合にはデータの中央値を考えることが効果的であることもよくあります.

この記事では

  • データの平均値
  • データの中央値
  • 平均値の性質と中央値の性質の大きな違い

について説明します.

続きを読む


線形代数8|「行列式」は線形代数の要!定義と性質を解説

前々回の記事で正方行列$A$の行列式$|A|$の図形的なイメージについて説明し,前回の記事で行列式を定義するために必要となる置換について説明しました.

行列式$|A|$を考える大きな目的の1つに正方行列$A$の正則性を判定することが挙げられます.

結論から言えば,行列式$|A|$が0でないことと$A$が正則である($A$が逆行列$A^{-1}$をもつ)ことが同値となります.

また,行列式を用いることで逆行列を求めることもできます.

この記事では,前々回と前回の記事を踏まえて

  • 行列式の定義
  • 行列式の性質
  • 正方行列$A$が正則であることと$|A|\neq0$の同値性

を説明します.

また,$A$が正則なら連立方程式$A\m{x}=\m{c}$の解を$|A|$を用いて表すこともでき,これをクラメール(Cramer)の公式といいます.

なお,この記事では実数$\R$を中心に説明しますが,複素数$\C$など一般の体に対しても同様です.

続きを読む


線形代数7|行列式を定義するための置換の性質を理解する

前回の記事では正方行列$A=[\m{a}_1,\dots,\m{a}_n]$の行列式$|A|$のイメージについて説明し

  • $\m{a}_1,\dots,\m{a}_n$が線形独立であること
  • $|A|\neq0$をみたすこと

は同値となりそうであることを説明しました(このことは次の記事で証明します).

また,以前の記事で既に説明したように

  • $\m{a}_1,\dots,\m{a}_n$が線形独立であること
  • $A$が正則であること

が同値でしたから,結局は行列式$|A|$が0であるか否かを考えることにより$A$の正則性を判定することができます.

さて,行列式のイメージが$n$次元の立体であるといっても,$n$次元を考えるのは難しいため実際に行列式$|A|$を定義するには置換を用いることがほとんどです.

この記事では,置換の考え方と性質を説明します.

続きを読む


線形代数6|行列の正則性を判定できる行列式のイメージ

前回の記事までで,行列とベクトルの基本的な考え方について説明しました.

とくに前回の記事では

  • 正方行列$[\m{a}_1,\dots,\m{a}_n]$が正則
  • $\m{a}_1,\dots,\m{a}_n$が線形独立

が同値であることを示しました.

これまでは線形独立性を確認するために$[\m{a}_1,\dots,\m{a}_n]$を基本変形を施してランクを求めてきましたが,別のアプローチで線形独立性を確認する方法を考えましょう.

そこで便利なのが正方行列の行列式です.

正方行列$[\m{a}_1,\dots,\m{a}_n]$の行列式のイメージは$\m{a}_1,\dots,\m{a}_n$が張る$n$次元立体の体積ですが,学ぶ段階の問題としていきなり$n$次元で考えるのは難しいでしょう.

そこで,この記事では

  • 2次正方行列の行列式の定義とイメージ
  • 3次以上の正方行列の行列式のイメージ

について説明します.

なお,この記事では実数$\R$を中心に説明しますが,複素数$\C$など一般の体に対しても同様です.

続きを読む


線形代数5|線形独立のイメージと線形独立性とランクの関係

行列に関して重要な量として,ランク(階数)がありました.

前々回の記事前回の記事では,ランクを考えることで

  • 正方行列が正則であるための条件
  • 連立1次方程式が解を持つための条件

などが分かることを説明しました.

前回の記事まではランク(階数)を基本変形によって考えてきましたが,ベクトルの線形独立という考え方をもとにしても考えることができます.

線形独立性はとても重要な概念で,線形代数学全体において頻繁に現れます.

この記事では

  • ベクトルの線形独立を定義し
  • 線形独立性と行列のランクの関係

を説明します.

なお,この記事では実数$\R$を中心に説明しますが,複素数$\C$など一般の体に対しても同様です.

続きを読む


最小二乗法から求めた回帰直線の性質と決定係数の意味

例えば「気温」と「アイスの売り上げ」のような2つのデータの関係を散布図に表し,その関係を「それっぽい直線や曲線」で表すことを回帰分析というのでした.

この回帰分析における「それっぽい直線」のことを回帰直線といい,回帰直線を求める際には最小二乗法がよく用いられます.

この最小二乗法を用いた回帰直線の求め方については以前の記事で説明しました.

最小二乗法を使えば回帰直線は求まりますが,元のデータに相関がなければ回帰直線を求める意義がなくなってしまいます.

そこで,回帰直線がどの程度適切にデータを表せているのかの指標となる決定係数があります.

決定係数を説明するために,回帰直線が満たす性質を説明する必要があるので,この記事では

  • 回帰直線が満たす性質
  • 決定係数とは何か

を順に説明します.

続きを読む


記事一覧は

こちら

Twitterを

フォロー

大学院入試

解答例

大学受験

解説ブログ