SlideShare a Scribd company logo
1 of 19
交通行動分析と離散選択モデル
ー 第 1 回 ー
環境システム工学科 塩見 康博
1
2013 年 4 月 18 日(木)
• 交通行動分析の意義を理解すること
• 離散選択モデル(ロジットモデル)の概要を理解すること
• 離散選択モデルを推定するためのデータ収集方法理解する
こと
• 離散選択モデルのパラメータ推定方法の理論とそのための
アプリケーションの使い方を習得すること
• 推定された結果を解釈し,考察すること
2
ゼミのねらい
ゼミのスケジュール
4 月 18 日(木):交通需要推計の意義・非集計分析の概要
              (講義形式,担当:塩見, 45 分程度)
4 月 25 日(木):最尤推定法によるパラメータ推定方法の概
説,演習課題の説明(講義形式,担当:塩見, 45 分程度)
5 月 2 日(木):推定プログラム( LIMDEP ,エクセル)の解
説
        (講義形式,担当:安, 45 分程度)
5 月 9 日(木):推定結果とその解釈についての途中経過報告
        (演習形式, 60 分程度)
5 月 16 日(木):最終プレゼンテーション( 60 分程度)
3
宿題
宿題
宿題
演習の班分け
4
○ 三ヶ島・高野
石本 一機
佐野 暢亮
藤田 直人
北村 優次
柴野 裕貴
グループ C
○ 孫・古和田
安東 大智
鬼木 渉
木坂 仁俊
日下部 貴洋
グループ A
○ 森・平井
田中 克和
中村 拓夢
日 翔太
前園 顕汰
グループ B
○ 森本・屋木
中武 秀希
東谷 雄介
槇原 康平
森口 将哉
グループ D
○ 加賀・安
井
石原 円
今仲 弘人
小園 達也
藤田 英将
グループ E
○ アドバイザー
交通(工)学の対象範囲
• 道路・鉄道などの交通路上での課題解決
– 交通渋滞
– 交通事故 etc
• 住宅や商業施設など交通発生・集中地における課題解決
– 生活道路の安全・静音化
– にぎわいの創出 etc
• 交通を含むトータルな社会システムとしての課題解決
– 都市構造
– ライフスタイル
– 環境・エネルギー
– 健康・安寧・コミュニティ etc
5
交通需要推計
交通需要推定のアプローチ(1)
6
?
?
交通需要推定のアプローチ(1)
• 集計アプローチ( 1950 年代に考案された方法)
– ゾーン単位で考える
– 四段階推計法
• 玉川周辺からどこかへのトリップ数(発生交通量)
• どこかから BKC 周辺へのトリップ数(集中交通量)
• 玉川周辺から BKC 周辺へのトリップ数(分布( OD )交通量)
• その内,自動車/バス/バイク/自転車/徒歩を利用するト
リップ数(分担交通量)
• その内,自動車で「かがやき通り」を通るトリップ数(配分交
通量)
– 大量のデータが必要
– 論理的に非整合・不明瞭な点がある
– 多様な政策分析への柔軟性が低い
7
Step 1
Step 2
Step 3
Step 4
BKC
玉川
かがやき通り
?
• 非集計アプローチ( by Daniel McFadden )
– 個人ベースで考える
交通需要推定のアプローチ(2)
8
各個人が自分の行動を選択した結果の集積
観測される交通量は,
と考える
どこに
行こうかな?
何時に家出よ
うかな?
どうやって
行こうかな? どの道通ろ
うかな?
• 非集計アプローチ( by Daniel McFadden )
– 個人ベースで考える
– 個人の選択行動規準にもとづいて推計する
– 小規模,短期的な需要推計に向いている
– データ量が少なくても推計できる
– 人間の行動原理に整合している
– 柔軟な政策評価が可能となる
交通需要推定のアプローチ(2)
9
各個人が自分の行動を選択した結果の集積
観測される交通量は,
と考える
10
● 個人の選択行動
個人の選択行動規範(仮説):
 ① 利用者は、最大の効用をもつ選択肢を選択する。
                → 合理的選択行動
 ② 利用者は、利用可能な選択肢について完全な情報を
   得ている。         → 完全情報仮説
個人にとっての選択肢の望ましさを表す指標
効用
「誤差分布を含むモノである」と仮定する
100% 正確に測定することは不可能
11
iii VU ε+=
(ランダム)効用 確定項 確率項(誤差項)
( i :選択肢)
測定できない
部分
測定できる
部分
● 効用のカタチ
効用
確率密度
そばの効用
U そば
V そば
うどんの効用
U うどん
V うどん
・基本的にうどんが好き
・だけどたまにそばが食
べたくなる
  うどん・そばの選択
 は確率的!
うどんを選ぶ確率
P うどん = Prob[U うどん > U そ
ば ]
誤差項の確率分布の形状:
① 正規分布 → プロビットモデル
  誤差の分布として自然だが、計算が難しくなる
            (積分計算が必要になる)
② ガンベル分布 → ロジットモデル
  選択確率の式が簡単になるので、よく利用される
選択肢 i の選択確率
iii VU ε+=
ランダム効用 確定項 確率項(誤差項)
( i :選択肢)
Emil Julius Gumbel
Pi = Prob Ui
>U j



, j ≠ i, ∀j ∈ A
13
,
)exp()exp(
)exp(
21
1
1
VV
V
P
+
=
)exp()exp(
)exp(
1
21
2
12
VV
V
PP
+
=−=
確率項をガンベル分布 …と仮定すると,選択確率は
● 2肢選択の場合
∑=
=
+++
=
J
j
j
i
J
i
i
V
V
VVV
V
P
1
21
)exp(
)exp(
)exp()exp()exp(
)exp(

● 多肢選択( J 肢選択)の場合
誤差項が消え,
確定項のみの関数となる
14
P1
=
exp(V1
)
exp(V1
)+exp(V2
)
=
1
1+
exp V2( )
exp V1( )
=
1
1+exp − V1
−V2( ){ }
…式を少し変形すると
● 2肢選択の場合
効用の確定項の差により,
選択確率が定義される
( = 絶対値には意味がなく,選択肢間の相対関係が重要!)
V1-V2
1.0
P1
0.5
→1 に漸近
0 に漸近←
15
● 選択肢の効用関数をきめる( = Specification ,特定化)
iPPiii xxxV θθθθ +⋅⋅⋅+++= 22110
説明変数: iPii xxx ,,, 21 ⋅⋅⋅
所要時間、所要費用、アクセス時間、イグレス時間、
乗り換え回数・・・
● 説明変数の分類(機関選択を想定)
① 選択肢の属性
② トリップの属性
③ 個人の社会経済属性
… (収入,性別,年齢 )
① 共通変数
② 選択肢固有変数
③ 選択肢固有ダミー変数
  (定数項)
未知パラメータ:観測に適合するように
        推定する(⇒ 次週)
SS S S
選択肢 i
個人 S
16
● 例として ... 大学までクルマで来ますか?電車で来ますか?
044332,21,1 θθθθθ ++++= xxxxV CarCarCar
2,21,1 RailRailRail xxV θθ +=
費用所要時間
共通変数
クルマ・電車どちらの場合で
も考慮するであろう変数
クルマ・電車で同じ
値では無いこと!
荷物ダミー
選択肢固有変数
大きい荷物がある場合は 1 ,
層で無い場合は 0 をとる変数
     (=ダミー変数)
50 歳代以上
ダミー
個人属性
定数項
S さんにとってのクルマ・電車の効用
S
SS
S S
S S
【重要】クルマか電車か
どちらかのみに入れる
こと!!(→ 理由?)
S
17
● 【重要!】離散選択モデルをつくる上でのもう一つの注意点
IIA 特性( Independence from Irrelevant Alternatives )
iii VU ε+= 選択肢 i の誤差項と選択肢 j の誤差項は独立である
,という仮定
⇒ 選択確率は確定効用のみに依存
⇒ 二つの選択確率の比は,他の選択肢によらず一定
● だめな(独立でない)選択肢集合の例①
- カレーライス
- てんかすうどん
0.5
0.5
- カレーライス
- てんかすうどん
- ハイカラうどん
0.33
0.33
0.33
選択肢の誤差項の独立性が仮定できない場合は,
ネスティッドロジットモデル,プロビットモデル
などを用いる.
18
● 【重要!】離散選択モデルをつくる上でのもう一つの注意点
IIA 特性( Independence from Irrelevant Alternatives )
iii VU ε+= 選択肢 i の誤差項と選択肢 j の誤差項は独立である
,と仮定
⇒ 計測できない効用については選択肢間で独立で
なければならない.
⇒ 独立でない選択肢を考慮する事はできない.
● だめな(独立でない)選択肢集合の例②
大学家
経路 1
経路 3
経路 2
経路 1 と経路 2 は一部重複しているため
,独立とはいえない
• 非集計モデルの意義を解説
• 効用関数の誤差項にガンベル分布を仮定したロジットモデ
ルを定式化
• 効用関数の特定化(説明変数の選択方法)の方法とその注
意事項
• 来週:効用関数のパラメータの推定方法,推定のための
データ取得・整理方法について
19
ここまでのまとめ

More Related Content

What's hot

みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章Hirofumi Tsuruta
 
kagamicomput201708
kagamicomput201708kagamicomput201708
kagamicomput201708swkagami
 
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習Toru Imai
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足ke beck
 
特徴パターンを用いた機械学習の説明手法 (JSAI2019)
特徴パターンを用いた機械学習の説明手法 (JSAI2019)特徴パターンを用いた機械学習の説明手法 (JSAI2019)
特徴パターンを用いた機械学習の説明手法 (JSAI2019)Kohei Asano
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章Shoichi Taguchi
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710Kazuya Nishina
 
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習Kenta Ishii
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回ke beck
 
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半統計的学習の基礎 3章前半
統計的学習の基礎 3章前半Kazunori Miyanishi
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or NumpyToshiki NOGUCHI
 
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and AveragingYu Otsuka
 
kagami_comput2016_08
kagami_comput2016_08kagami_comput2016_08
kagami_comput2016_08swkagami
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8matsuolab
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)Ryosuke Sasaki
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3正志 坪坂
 
kagami_comput2016_09
kagami_comput2016_09kagami_comput2016_09
kagami_comput2016_09swkagami
 

What's hot (20)

みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章
 
Jsai2020
Jsai2020Jsai2020
Jsai2020
 
kagamicomput201708
kagamicomput201708kagamicomput201708
kagamicomput201708
 
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
 
特徴パターンを用いた機械学習の説明手法 (JSAI2019)
特徴パターンを用いた機械学習の説明手法 (JSAI2019)特徴パターンを用いた機械学習の説明手法 (JSAI2019)
特徴パターンを用いた機械学習の説明手法 (JSAI2019)
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710
 
効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習効用最大化理論の観点から見る強化学習
効用最大化理論の観点から見る強化学習
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
 
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半統計的学習の基礎 3章前半
統計的学習の基礎 3章前半
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
 
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
 
PRML8章
PRML8章PRML8章
PRML8章
 
kagami_comput2016_08
kagami_comput2016_08kagami_comput2016_08
kagami_comput2016_08
 
PRML輪読#8
PRML輪読#8PRML輪読#8
PRML輪読#8
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
Prml Reading Group 10 8.3
Prml Reading Group 10 8.3Prml Reading Group 10 8.3
Prml Reading Group 10 8.3
 
kagami_comput2016_09
kagami_comput2016_09kagami_comput2016_09
kagami_comput2016_09
 

130418 discrete choiceseminar_no.1

  • 1. 交通行動分析と離散選択モデル ー 第 1 回 ー 環境システム工学科 塩見 康博 1 2013 年 4 月 18 日(木)
  • 2. • 交通行動分析の意義を理解すること • 離散選択モデル(ロジットモデル)の概要を理解すること • 離散選択モデルを推定するためのデータ収集方法理解する こと • 離散選択モデルのパラメータ推定方法の理論とそのための アプリケーションの使い方を習得すること • 推定された結果を解釈し,考察すること 2 ゼミのねらい
  • 3. ゼミのスケジュール 4 月 18 日(木):交通需要推計の意義・非集計分析の概要               (講義形式,担当:塩見, 45 分程度) 4 月 25 日(木):最尤推定法によるパラメータ推定方法の概 説,演習課題の説明(講義形式,担当:塩見, 45 分程度) 5 月 2 日(木):推定プログラム( LIMDEP ,エクセル)の解 説         (講義形式,担当:安, 45 分程度) 5 月 9 日(木):推定結果とその解釈についての途中経過報告         (演習形式, 60 分程度) 5 月 16 日(木):最終プレゼンテーション( 60 分程度) 3 宿題 宿題 宿題
  • 4. 演習の班分け 4 ○ 三ヶ島・高野 石本 一機 佐野 暢亮 藤田 直人 北村 優次 柴野 裕貴 グループ C ○ 孫・古和田 安東 大智 鬼木 渉 木坂 仁俊 日下部 貴洋 グループ A ○ 森・平井 田中 克和 中村 拓夢 日 翔太 前園 顕汰 グループ B ○ 森本・屋木 中武 秀希 東谷 雄介 槇原 康平 森口 将哉 グループ D ○ 加賀・安 井 石原 円 今仲 弘人 小園 達也 藤田 英将 グループ E ○ アドバイザー
  • 5. 交通(工)学の対象範囲 • 道路・鉄道などの交通路上での課題解決 – 交通渋滞 – 交通事故 etc • 住宅や商業施設など交通発生・集中地における課題解決 – 生活道路の安全・静音化 – にぎわいの創出 etc • 交通を含むトータルな社会システムとしての課題解決 – 都市構造 – ライフスタイル – 環境・エネルギー – 健康・安寧・コミュニティ etc 5 交通需要推計
  • 7. 交通需要推定のアプローチ(1) • 集計アプローチ( 1950 年代に考案された方法) – ゾーン単位で考える – 四段階推計法 • 玉川周辺からどこかへのトリップ数(発生交通量) • どこかから BKC 周辺へのトリップ数(集中交通量) • 玉川周辺から BKC 周辺へのトリップ数(分布( OD )交通量) • その内,自動車/バス/バイク/自転車/徒歩を利用するト リップ数(分担交通量) • その内,自動車で「かがやき通り」を通るトリップ数(配分交 通量) – 大量のデータが必要 – 論理的に非整合・不明瞭な点がある – 多様な政策分析への柔軟性が低い 7 Step 1 Step 2 Step 3 Step 4 BKC 玉川 かがやき通り ?
  • 8. • 非集計アプローチ( by Daniel McFadden ) – 個人ベースで考える 交通需要推定のアプローチ(2) 8 各個人が自分の行動を選択した結果の集積 観測される交通量は, と考える どこに 行こうかな? 何時に家出よ うかな? どうやって 行こうかな? どの道通ろ うかな?
  • 9. • 非集計アプローチ( by Daniel McFadden ) – 個人ベースで考える – 個人の選択行動規準にもとづいて推計する – 小規模,短期的な需要推計に向いている – データ量が少なくても推計できる – 人間の行動原理に整合している – 柔軟な政策評価が可能となる 交通需要推定のアプローチ(2) 9 各個人が自分の行動を選択した結果の集積 観測される交通量は, と考える
  • 10. 10 ● 個人の選択行動 個人の選択行動規範(仮説):  ① 利用者は、最大の効用をもつ選択肢を選択する。                 → 合理的選択行動  ② 利用者は、利用可能な選択肢について完全な情報を    得ている。         → 完全情報仮説 個人にとっての選択肢の望ましさを表す指標 効用 「誤差分布を含むモノである」と仮定する 100% 正確に測定することは不可能
  • 11. 11 iii VU ε+= (ランダム)効用 確定項 確率項(誤差項) ( i :選択肢) 測定できない 部分 測定できる 部分 ● 効用のカタチ 効用 確率密度 そばの効用 U そば V そば うどんの効用 U うどん V うどん ・基本的にうどんが好き ・だけどたまにそばが食 べたくなる   うどん・そばの選択  は確率的! うどんを選ぶ確率 P うどん = Prob[U うどん > U そ ば ]
  • 12. 誤差項の確率分布の形状: ① 正規分布 → プロビットモデル   誤差の分布として自然だが、計算が難しくなる             (積分計算が必要になる) ② ガンベル分布 → ロジットモデル   選択確率の式が簡単になるので、よく利用される 選択肢 i の選択確率 iii VU ε+= ランダム効用 確定項 確率項(誤差項) ( i :選択肢) Emil Julius Gumbel Pi = Prob Ui >U j    , j ≠ i, ∀j ∈ A
  • 14. 14 P1 = exp(V1 ) exp(V1 )+exp(V2 ) = 1 1+ exp V2( ) exp V1( ) = 1 1+exp − V1 −V2( ){ } …式を少し変形すると ● 2肢選択の場合 効用の確定項の差により, 選択確率が定義される ( = 絶対値には意味がなく,選択肢間の相対関係が重要!) V1-V2 1.0 P1 0.5 →1 に漸近 0 に漸近←
  • 15. 15 ● 選択肢の効用関数をきめる( = Specification ,特定化) iPPiii xxxV θθθθ +⋅⋅⋅+++= 22110 説明変数: iPii xxx ,,, 21 ⋅⋅⋅ 所要時間、所要費用、アクセス時間、イグレス時間、 乗り換え回数・・・ ● 説明変数の分類(機関選択を想定) ① 選択肢の属性 ② トリップの属性 ③ 個人の社会経済属性 … (収入,性別,年齢 ) ① 共通変数 ② 選択肢固有変数 ③ 選択肢固有ダミー変数   (定数項) 未知パラメータ:観測に適合するように         推定する(⇒ 次週) SS S S 選択肢 i 個人 S
  • 16. 16 ● 例として ... 大学までクルマで来ますか?電車で来ますか? 044332,21,1 θθθθθ ++++= xxxxV CarCarCar 2,21,1 RailRailRail xxV θθ += 費用所要時間 共通変数 クルマ・電車どちらの場合で も考慮するであろう変数 クルマ・電車で同じ 値では無いこと! 荷物ダミー 選択肢固有変数 大きい荷物がある場合は 1 , 層で無い場合は 0 をとる変数      (=ダミー変数) 50 歳代以上 ダミー 個人属性 定数項 S さんにとってのクルマ・電車の効用 S SS S S S S 【重要】クルマか電車か どちらかのみに入れる こと!!(→ 理由?) S
  • 17. 17 ● 【重要!】離散選択モデルをつくる上でのもう一つの注意点 IIA 特性( Independence from Irrelevant Alternatives ) iii VU ε+= 選択肢 i の誤差項と選択肢 j の誤差項は独立である ,という仮定 ⇒ 選択確率は確定効用のみに依存 ⇒ 二つの選択確率の比は,他の選択肢によらず一定 ● だめな(独立でない)選択肢集合の例① - カレーライス - てんかすうどん 0.5 0.5 - カレーライス - てんかすうどん - ハイカラうどん 0.33 0.33 0.33 選択肢の誤差項の独立性が仮定できない場合は, ネスティッドロジットモデル,プロビットモデル などを用いる.
  • 18. 18 ● 【重要!】離散選択モデルをつくる上でのもう一つの注意点 IIA 特性( Independence from Irrelevant Alternatives ) iii VU ε+= 選択肢 i の誤差項と選択肢 j の誤差項は独立である ,と仮定 ⇒ 計測できない効用については選択肢間で独立で なければならない. ⇒ 独立でない選択肢を考慮する事はできない. ● だめな(独立でない)選択肢集合の例② 大学家 経路 1 経路 3 経路 2 経路 1 と経路 2 は一部重複しているため ,独立とはいえない
  • 19. • 非集計モデルの意義を解説 • 効用関数の誤差項にガンベル分布を仮定したロジットモデ ルを定式化 • 効用関数の特定化(説明変数の選択方法)の方法とその注 意事項 • 来週:効用関数のパラメータの推定方法,推定のための データ取得・整理方法について 19 ここまでのまとめ