SlideShare a Scribd company logo
1 of 66
Download to read offline
哲学者のための確率入門
1. 確率論はどんな数学か
確率論 =
確率空間についての数学
確率空間 =
  コルモゴロフの公理系をみたす(Ω,F,P)

Ω…任意の集合
F…Ωの部分集合を要素とするσ加法族
P…Fの各要素から[0,1]への関数で、P(Ω)=1
かつσ加法性をみたすもの
確率空間の例 1

      Ω={表,裏}
F={φ, {表}, {裏}, {表,裏}}
       P(φ)=0
     P({表})=1/2
     P({裏})=1/2
    P({表,裏})=1
確率空間の例 2

    Ω= 一辺の長さが1の正方形
 F= Ωの部分集合からなるσ加法族
P= 図形に対してその面積を与える関数
確率が応用される多くの場面では、確率空間は
  明示されない(暗黙的に定まっている)
とくにΩが有限集合{a,b,…,z}の場合
P(a)、P(b)、…、P(z)の値を決めれば
       確率空間が決まる
確率空間の例 3

Ω={母, 長女, 長男, 次女}
     P(母)=1/2
    P(長女)=1/4
    P(長男)=1/8
    P(次女)=1/8
コルモゴロフの公理系を満たしさえすれば、
      何でも確率空間
初等的な確率の問題の多くは
●組合せ計算+割合の計算
●全体の積分値が1であるような積分計算
確率論=
全体を1と考えたときの割合の数学?
「『代数学の真髄は恒等式、幾何学は例、解析
学は不等式だとすると、確率論は何ですか?』と
いう質問を受け、とっさに『確率論は漸近挙動』
という答が口に出たことがあった」
(高橋陽一郎「確率論の広がり」)
P(Ω)=1の効用

    1×1=1
   1×1×1=1
  1×1×1×1=1
     ……
1×1×1×1×…×1=1
確率空間を繰り返し掛け合わせても
 確率空間になる(独立性重要)
1×1×1×1×……

確率空間の繰り返しを増やしたとき
   様々な性質が現れる
大数の法則、中心極限定理、大偏差原理、0-1
     法則、逆正弦法則etc.
確率論とは

●   全測度が1の測度論
    ● 割合の数学(組合せ論、積分計算)


    ● 繰り返しを増やしていったときに現れる性

      質の研究(漸近挙動、極限定理)
2. 確率解釈の問題
モデル化



対象          モデル
モデル化の例




 原子や分子が
たくさん集まって   連続体力学
  できた物体
確率の場合




不確実なこと       確率空間
確率論は不確実性を扱う数学として
     発展してきた
確率における不確実性についての考え方
偶然と無知
不確実性の由来

 不確実性は
A)対象やプロセスのデタラメさ=ランダム性に
 由来する(偶然)
B)人間側の知識の欠如に由来する(無知)
呼び方

A)客観的確率、物理的確率、統計的確率、偶運
 的確率 etc.
B)主観的確率、個人確率、帰納的確率、認識的
 確率、確信度 etc.

以下では便宜的に
「客観確率」「主観確率」と呼んでいく
ところで、
決定論的であることと確率概念とは相反するものでは
ない。不確実性なしでも、確率と結びつく。
●   数学的に定義された乱数
●   疑似乱数
    ●   生成プロセスに不確実性はない。
    ●   知識の欠如による不確実性もなくてよい。


※ただし、以下では扱わない
客観確率と主観確率の違いは、
  統計手法にも影響する
統計学の手法は、
● このモデルを受け入れるのは適切か
● どのモデルを選択するか

● モデルのパラメータに何を選ぶか




といった実践的な判断に関わる
たとえば、検定の考え方の基本は、

     Aならば高確率でB
         Bでない
   よって、Aでないと判断しよう

         見かけは
  AならばB、Bでない、よってAでない
という反証に似ているけど論理的推論ではない
伝統的統計学の内部でも、

 フィッシャーの有意性検定
       vs.
ネイマン・ピアソンの仮説検定

 みたいな対立があった
統計学が実践的判断にかかわるので、
確率解釈の差異も統計手法に影響する
●   伝統的な統計学は、確率が頻度と結びつくこ
    とを前提にする(客観確率)
●   ベイズ統計学は、確率=正しいと見なす度合
    いとする(主観確率)

(注意: 「ベイズ統計」という語は、単にベイズの
定理を利用する手法全般を指す場合もある)
違いの例:
     モデルの未知パラメータは確率変数か


●   伝統的統計学「確率変数ではない。モデルの
    パラメータが未知だからといって、確率分布を
    とることにはならない」
●   ベイズ統計学「確率変数である。未知パラ
    メータの値は、我々にとって確定していない不
    確実なこと。不確実なことに対する我々の確
    信度=確率が存在する」
A. 客観確率
確率論の問題の多くは、繰り返し起こる現象に
関するもの
(コイン投げ、カードの選択、ツボから玉を取り出
す、など)
「現実に経験される世界への確率論の応用は
次のように行われる。
1) 何度でも繰り返すことが可能なある状態の
複合Sが仮定されている」
(A. コルモゴロフ『確率論の基礎概念』)
「しかし、われわれは帰納的な推論の方式では
なく、物理的あるいは統計的確率と呼ばれるよ
うなものを考える、ということをよく理解しておく
必要がある。あらっぽい言い方をするならば、こ
の確率の概念は、判断には関係なく、思考実験
の可能な結果に関するものであるという風に特
徴づけることができよう」
(W.フェラー『確率論とその応用』)
客観確率を考えられるもの=
「同種のものの繰り返し」と見なして
    モデル化できるもの
客観確率が確率論に結びつく根拠
● 頻度の安定性と大数の法則
   デタラメな現象を繰り返し観測すると、頻度
   が安定していく→大数の法則(自然法則で
   はなく確率論の定理)との対応
● 誤差と中心極限定理


   観測誤差を調べると正規分布に近いデー
   タが得られる→中心極限定理との対応
など
客観確率を定義する試み 1

●   頻度説: 確率の値=事象の起こる相対頻度
    ● 「確率=観測された頻度」→ 素朴すぎる。繰

      り返し回数によって確率が変わる
    ● 大数の弱法則を利用→循環定義になる


    ● 大数の強法則を利用→無限回の試行は現

      実では不可能なので科学で使える定義で
      はない。確率=0は起こらないということで
      はない
客観確率を定義する試み 2

●   傾向説: 頻度と確率を直接結びつけるのでは
    なく、そのような頻度を生じさせる物理的傾向
    性の度合い=確率とする
    ● 問題点: クジの入った菓子をもらったとする

      (アタリは10個のうち1個に入っている)。こ
      の菓子に入っているクジはすでにアタリか
      ハズレか確定しているので、アタリである物
      理的傾向性は1または0に確定している。で
      も「アタリの確率は1/10」と言いたい。
確率の値と世界に見つけられる特定の何かとを
直接対応させる試みは、あまり重要ではない

cf. 連続体力学の物体と実際の物体
「適切なモデル化とはどのようなものか」という
      一般的な問題の一部
B. 主観確率
主観確率=確信の度合い
何かについての確信の度合い=
それの成立/不成立に対して賭けを行うとしたと
   きの、適切だと思う賭け倍率の逆数

         例えば、
ある命題が正しいことに賭けを行うと想定する
  「適切な賭けの倍率は3倍だと判断」=
        「確率1/3」
主観確率が確率論に結びつく根拠
確率の公理に従わない賭け倍率(=確信度)を与
えてしまうと、自分が必ず負けてしまうような賭
け方が存在する

→ rationalな人間の確信度は、確率の公理に
従わなければならない
主観確率の利点

繰り返しが考えられない・考えにくい事にも
      確率が与えられる
意思決定・帰納的推論の道具としての確率

客観確率を考えられない・決められない場合も
含めて、確率を使った意思決定や判断をしたい
主観確率についての疑問点 1


●   独立性
     確率論では独立性は重要だけど、主観確
     率における独立性とは? 確信の度合いは
     結果を知るにつれ変化していく
「自然科学の哲学におけるもっとも重要な問題
の1つはーー確率それ自身の概念の本質を見き
わめるという周知の問題に加えーー任意に与え
られた現実の現象を、独立な事象として考える
ことができる前提をはっきりさせることである」
(A.コルモゴロフ『確率論の基礎概念』)
主観確率についての疑問点 2


●   期待値の役割
     期待値の大小に応じて選択を行う理由は、
     大数の法則によって説明される(繰り返しと
     独立性が必要)。
     主観確率における期待値の役割・意味はど
     う説明(あるいは正当化)されるのか?
客観確率との関係の考え方 1

●   客観確率に歩みよる
    ● 客観確率が考えられる範囲では客観確率


    ● 主観確率と客観確率は、賭けの有利/不利

      の判断を使って主観確率側から橋渡しする
      (客観確率にオーバーラップさせる形で、主
      観確率の値を決める)
客観確率との関係の考え方 2

●   主観確率を重視する
    客観確率には問題があり主観確率の方が良
    い、主観確率の方が客観確率に先行する、な
    どの主張
        たとえば
    ●   C.Howson、P.Urbach『Scientific Reasoning: The
        Bayesian Approach』
    ●   内井惣七「確率」(『事典・哲学の木』の項目
        http://www1.kcn.ne.jp/~h-uchii/intro.PS/probability.html)や『科
        学哲学入門』
客観確率との関係の考え方 3

●   気にしない
    ● 主観確率とか客観確率とかどうでもいい


    ● 伝統的な統計学もベイズ統計学も役に立

      ちそうなら勝手に使うだけ

    応用の場面では深く考えずに使われる
3. 短めの文献案内
A. N. コルモゴロフ『確率論の基礎概念』

現代確率論の古典。
扱っているのは確率論の基礎部分と大数の強
法則までなので意外と難しくない
熊谷隆『確率論』

測度論に基づく確率論と確率過程の基本部分
が手短に読める良い本
D. E. Knuth
『The Art of Computer Programming vol.2』

疑似乱数と確率の関係について多少触れるつ
もりだったけどまとまったことが思いつかなかっ
たので、代わりに疑似乱数を扱った本としてこれ
をあげる。
疑似乱数の生成アルゴリズムの部分の内容は
古いけど、それ以外の部分が豊富
安藤洋美『確率論の生い立ち』

確率論史を扱った本はたくさんあるけど、最初
の一冊はこれで良いのではないかと
I. Hacking『The Emergence of Probability』

確率論の初期の発展を偶運的な確率(客観確
率)と認識的な確率(主観確率)の対立を軸にし
て解説
もちろん、確率を扱った本は他にもたくさん

たくさんなので、深入りはしない方が良い

More Related Content

What's hot

DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ーDiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ーTakashi Yamane
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリングAkira Miyazawa
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)cvpaper. challenge
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII
 
ベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づけるベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づけるitoyan110
 
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classificationDeep Learning JP
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB ImagesDeep Learning JP
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)Toru Imai
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズムnishio
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural NetworksMasahiro Suzuki
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
ブラックボックス最適化とその応用
ブラックボックス最適化とその応用ブラックボックス最適化とその応用
ブラックボックス最適化とその応用gree_tech
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networkstm1966
 
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向Kensho Hara
 

What's hot (20)

DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ーDiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
DiagrammeRと仲良くなった話ーグラフィカルモデルのためのDiagrammeR速習ー
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリング
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
ベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づけるベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づける
 
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
 
MICの解説
MICの解説MICの解説
MICの解説
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
勾配降下法の 最適化アルゴリズム
勾配降下法の最適化アルゴリズム勾配降下法の最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
ブラックボックス最適化とその応用
ブラックボックス最適化とその応用ブラックボックス最適化とその応用
ブラックボックス最適化とその応用
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networks
 
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
 
Marp Tutorial
Marp TutorialMarp Tutorial
Marp Tutorial
 

Viewers also liked

Lebesgue 可測性に関する Solovay-Shelah の結果に必要な記述集合論のごく基本的な事項
Lebesgue 可測性に関する Solovay-Shelah の結果に必要な記述集合論のごく基本的な事項Lebesgue 可測性に関する Solovay-Shelah の結果に必要な記述集合論のごく基本的な事項
Lebesgue 可測性に関する Solovay-Shelah の結果に必要な記述集合論のごく基本的な事項Hiromi Ishii
 
自由意志の問題を「ふりかえる」
自由意志の問題を「ふりかえる」自由意志の問題を「ふりかえる」
自由意志の問題を「ふりかえる」Naoya Arakawa
 
全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)Yutaka Matsuo
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心takehikoihayashi
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
0528 kanntigai ui_ux
0528 kanntigai ui_ux0528 kanntigai ui_ux
0528 kanntigai ui_uxSaori Matsui
 
女子の心をつかむUIデザインポイント - MERY編 -
女子の心をつかむUIデザインポイント - MERY編 -女子の心をつかむUIデザインポイント - MERY編 -
女子の心をつかむUIデザインポイント - MERY編 -Shoko Tanaka
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 

Viewers also liked (10)

Lebesgue 可測性に関する Solovay-Shelah の結果に必要な記述集合論のごく基本的な事項
Lebesgue 可測性に関する Solovay-Shelah の結果に必要な記述集合論のごく基本的な事項Lebesgue 可測性に関する Solovay-Shelah の結果に必要な記述集合論のごく基本的な事項
Lebesgue 可測性に関する Solovay-Shelah の結果に必要な記述集合論のごく基本的な事項
 
自由意志の問題を「ふりかえる」
自由意志の問題を「ふりかえる」自由意志の問題を「ふりかえる」
自由意志の問題を「ふりかえる」
 
Maeshori missing
Maeshori missingMaeshori missing
Maeshori missing
 
全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)全脳アーキテクチャ勉強会 第1回(松尾)
全脳アーキテクチャ勉強会 第1回(松尾)
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
0528 kanntigai ui_ux
0528 kanntigai ui_ux0528 kanntigai ui_ux
0528 kanntigai ui_ux
 
女子の心をつかむUIデザインポイント - MERY編 -
女子の心をつかむUIデザインポイント - MERY編 -女子の心をつかむUIデザインポイント - MERY編 -
女子の心をつかむUIデザインポイント - MERY編 -
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 

Similar to 哲学者のための確率入門

ベイズ入門
ベイズ入門ベイズ入門
ベイズ入門Zansa
 
How to study stat for freshmans
How to study stat for freshmansHow to study stat for freshmans
How to study stat for freshmansAk Ok
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習Hirotaka Hachiya
 
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノートWataru Shito
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statisticsKohta Ishikawa
 
第5回Zansa勉強会
第5回Zansa勉強会第5回Zansa勉強会
第5回Zansa勉強会Zansa
 

Similar to 哲学者のための確率入門 (7)

ベイズ入門
ベイズ入門ベイズ入門
ベイズ入門
 
Probability theory basic JP
Probability theory basic JPProbability theory basic JP
Probability theory basic JP
 
How to study stat for freshmans
How to study stat for freshmansHow to study stat for freshmans
How to study stat for freshmans
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習
 
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 1.講義ノート
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
第5回Zansa勉強会
第5回Zansa勉強会第5回Zansa勉強会
第5回Zansa勉強会
 

哲学者のための確率入門