SlideShare a Scribd company logo
今までに読んだ書籍・論文
• 書籍
• よくわかる複雑ネットワーク
(今野 紀雄・町田 拓也 著、 2008)
• ネットワーク科学の道具箱
(林 幸雄 編、 2007)
• 論文
• 弱い紐帯の概念を用いた情報検索システムに関する研究
(未来大卒論 珍田 計幸、 2008)
• Jaccard係数を用いたリンクの選定に基づく
Wikipediaのナビゲーション情報の抽出
(未来大修論 千田 俊輔、 2011)
• 複雑ネットワークからのキーワード抽出
(未来大修論 三澤 英樹、 2012)
1/20
よくわかる複雑ネットワーク
1. つながりの世界
2. ネットワークの基礎
3. 規則的なネットワーク
4. ランダムグラフ
5. スモールワールド
6. スケールフリー・ネットワーク
7. 様々な複雑ネットワーク
全7章
2/20
よくわかる複雑ネットワーク
一章 つながりの世界
• 6次の隔たり
• ランダムに選ばれた二人が案外少ない人数を介して結ばれること
• ミルグラムのスモールワールド実験
• 確率、頻度、割合
• 0〜1の間の値、全て足すと1になる
• 片対数グラフ、両対数グラフ
• 片対数グラフ …  通常のグラフの縦軸or横軸を対数軸にしたもの
• 両対数グラフ …  通常のグラフの立軸と横軸両方を対数軸にしたもの
3/20
よくわかる複雑ネットワーク
二章 ネットワークの基礎
• ネットワーク …  “点”  と ”線”  で表す
• 次数 …  点につながっている線の数
• 次数分布 …  各次数の頂点数の割合
• 平均次数 …  字数分布の平均値
1!
"
#
+ 2 !
"
&
+ 3 !
"
#
+ 4 !
"
&
  =  
𝟕
𝟑
字数:4
字数:2 V1
V6
V4
V5
V2
V3
次数 1 2 3 4
頂点の割合 1
3
1
6
1
3
1
6
字数分布の表
字数:3
字数:1
字数:3
字数:1
4/20
よくわかる複雑ネットワーク
二章 ネットワークの基礎
• 頂点間距離…  2頂点を行き来するための最小ステップ
• V6 -­‐>  V4の頂点間距離 …  l(V6,  V4)  =  2
• V1 -­‐>  V5の頂点間距離 …  l(V1,  V5)  =  1
• 平均頂点間距離 …  頂点間距離の平均値
L  =  
/
0(023)
5
S  …  頂点間距離の合計
n  …  頂点の数
n(n-­‐1)/2  …  異なる2頂点の組み合わせ総数
V1
V6
V4
V5
V2
V3
5/20
よくわかる複雑ネットワーク
二章 ネットワークの基礎
• 平均頂点間距離の計算
(V1,  V2)=1、(V1,  V3)=1、(V1,  V4)=2、(V1,  V5)=1、(V1,  V6)=1
(V2,  V3)=2、(V2,  V4)=3、(V2,  V5)=1、(V2,  V6)=2
(V3,  V4)=1、(V3,  V5)=1、(V3,  V6)=2
(V4,  V5)=2、(V4,  V6)=3
(V5,  V6)=2 計 S  =  25
L  =  
/
0(023)
5
  =  
67
8(823)
5
=  
7
#
V1
V6
V4
V5
V2
V3
6/20
よくわかる複雑ネットワーク
二章 ネットワークの基礎
• クラスター係数
…  自分と繋がっている点同士が繋がっているかどうかの指標
Ci =  
頂点9:を頂点に持つ三角形の数
;: ;:  <" /6
(𝐾? ≥ 2)
Ci …  クラスター係数
Ki …  頂点Viの次数
• C1 =  
6(△93959B,  △939D9B)
E E<" /6
=  
"
#
、C2 =  
"(△93959B)
6 6<" /6
= 1
V1
V6
V4
V5
V2
V3
7/20
よくわかる複雑ネットワーク
二章 ネットワークの基礎
• ネットワークのクラスター係数
…頂点のクラスター係数の平均値
C  =  
頂点のクラスター係数の総和
頂点のクラスター係数の総数
C  =
3
D
  F"F  
3
D
  FG  FG  F  
3
D
FG
&
=
"
#
V1
V6
V4
V5
V2
V3
8/20
よくわかる複雑ネットワーク
三章 規則的なネットワーク
• 格子
一次元格子 二次元正方格子 三次元立方格子 二次元三角格子
次数分布 2 4 6 6
平均次数 2 4 6 6
平均頂点間距離 n 𝑛
𝑛
"
#
𝑛
クラスター係数 0 0 0 0.4
図
9/20
よくわかる複雑ネットワーク
三章 規則的なネットワーク
• 完全グラフ、円環、拡張版円環、ツリー
完全グラフ 円環 拡張版円環 ツリー
次数分布 n-­‐1 2 2m d
平均次数 N-­‐1 2 2m d
平均頂点間距離 1 𝑛
4
mに従う log 𝑛
クラスター係数 1 1  (n  = 3  のとき)
0  (n  ≥ 4 のとき)
mに従う 0
図
10/20
よくわかる複雑ネットワーク
四章 ランダムグラフ
• ランダム・グラフ …  各頂点の間に、ランダムに枝を置いてできる
• 次数分布
p(k)  =    L<" 𝐶N 𝑝N
(1 − 𝑝)L<"<N
※[np]で、二項分布のグラフは最大値を示す
(npが整数の場合は、np、np-­‐1で最大値を取る)
• 平均次数
𝑘 =  (n-­‐1)p
k  …  次数
n  …  頂点数
P  …  枝を張る確率
11/20
よくわかる複雑ネットワーク
五章 スモールワールド
• WSモデル
…  規則的なネットワークの枝を繋ぎかえて構成される
• 修正WSモデル
…  規則的なネットワークに枝を加えて構成される
WSモデル 拡張WSモデル
構成方法 もともある枝を繋ぎかえる 新たに枝を付け加える
枝の総数 変わらない 増加する
pを増加させた際の振る舞い ランダムグラフに近づく 完全グラフに近づく
連結性 非連結になる場合がある 必ず連結になる
※ 円環・拡張版円環をベースに構成する
…  aを偶数として右隣a/2個、左隣a/2個の頂点と枝で繋がっている
12/20
よくわかる複雑ネットワーク
五章 スモールワールド
• WSモデル作成の手順
1. 任意の枝を選び、どちらかの頂点の片方と枝を切り離す
2. 以下の禁則事項の元、切り離した枝を任意の頂点と繋ぎなおす
• 自分自身には繋がない
• 左右a/2個以内の頂点には繋がない
• 左右a/2個以内の頂点を除いたものの内、既に繋がっている頂点には繋がない
※ WSモデルができないこともある
• 頂点数3、a=2、p=1のケース …  三角形
-­‐>  枝の繋ぎかえが全て禁則事項に当てはまる
13/20
よくわかる複雑ネットワーク
五章 スモールワールド
• 次数分布
一点分布 …  次数が一種類しかないネットワークの字数分布
• 平均字数
𝑘 =
𝑆(ネットワーク次数の総和)
𝑛(頂点数)
• 平均頂点間距離
L  ∝  log 𝑛
• クラスター係数
C  ∝ 1
p 0 ↔ 1
次数分布 一点分布 ⇔ ポアソン分布
スモールワールドとは
1. 平均頂点間距離 …  小
2. クラスター係数 …  大
14/20
よくわかる複雑ネットワーク
六章 スケールフリーネットワーク
• スケールフリーネットワーク  
• 一部の頂点が膨大な枝を持つ一方、ほとんどの頂点がごく少数の枝しか
持っていないネットワーク  
※字数分布がベキ乗に従う  
• BAモデル(Barabashi  and  Albert)  
• 「成長」と「優先的選択」によりネットワークが作成される  
   …  新しい頂点が追加し、枝を張ることでネットワークが大きくなっていく  
   例)インターネットのハイパーリンク  
  
  
  
15/20
よくわかる複雑ネットワーク
六章 スケールフリーネットワーク
• 新規頂点と結合する既存頂点を選ぶ際に頂点𝑉?が選ばれる確率  
  
   ∏ 𝑘? =  
N:
∑ NY
0
YZ3
  
  
※右図だと、頂点数n=6なので  
   ∑ 𝑘[ =L
[" 4  +  2  +  3  +  1  +  3  +  1  =  14  
V1
V6
V4
V5
V2
V3
頂点 𝑽 𝟏 𝑽 𝟐 𝑽 𝟑 𝑽 𝟒 𝑽 𝟓 𝑽 𝟔
c 𝑘?
4
14
2
14
3
14
1
14
3
14
1
14
ハブ  …  枝を接続される可能性が高い
𝑘? =   既存頂点𝑉?の次数
N  = 既存頂点数
∑   L
[" =  既存頂点の次数の総和
16/20
よくわかる複雑ネットワーク
六章 スケールフリーネットワーク
• 次数分布  
P(k)  ∝   𝑘<d
(𝛾 =   ベキ指数)  
• 平均次数  
𝑘 =
𝑚G 𝑚G   −   1 + 2 𝑛   −   𝑚G 𝑚
𝑛
  
• 平均頂点間距離  
L  ∝
ghi L
ghi(ghi L)
• クラスター係数  
C  ∝ 𝑛<
D
j
17/20
よくわかる複雑ネットワーク
七章 様々な複雑ネットワーク
• 閾値モデル  
• 各頂点に重みを与え、2頂点の重みの和がある値θより大きいとき枝を置く  
※スターが出現する可能性がある  
  
• スター  …  すべての頂点とつながっている頂点  
• スター以外の頂点はスターとしか繋がっていないネットワークの発生条件  
1. スターの重みがθ以上  
2. スター以外の重みがθに比べてはるかに小さい  
18/20
よくわかる複雑ネットワーク
七章 様々な複雑ネットワーク
• 頂点非活性化モデル  
• 活性化状態と非活性化状態の状態の頂点が存在するネットワーク  
  
• 頂点非活性モデルの作り方  
1. 活性化状態の頂点を追加する  
2. 追加した頂点と、活性化状態のすべての頂点を枝で繋ぐ  
3. 活性化頂点のひとつを非活性化状態にする  
  
• 非活性化状態にするための選択確率  
P(𝑘?) =  
3
k:  l    m
∑
3
kY  l    mmno:pq
  
19/20

More Related Content

What's hot

PRML 1.2.3
PRML 1.2.3PRML 1.2.3
PRML 1.2.3
kazunori sakai
 
Random Forest による分類
Random Forest による分類Random Forest による分類
Random Forest による分類
Ken'ichi Matsui
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
matsuolab
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
 
PRML11.2 - 11.6
PRML11.2 - 11.6PRML11.2 - 11.6
PRML11.2 - 11.6
Hirotaka Matsumoto
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
matsuolab
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
Naoya Nakamura
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
 
目で見る過学習と正則化
目で見る過学習と正則化目で見る過学習と正則化
目で見る過学習と正則化
y-uti
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
matsuolab
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
hoxo_m
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
Seiichi Uchida
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
Masanori Takano
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
matsuolab
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
matsuolab
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
matsuolab
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
 

What's hot (20)

PRML 1.2.3
PRML 1.2.3PRML 1.2.3
PRML 1.2.3
 
Random Forest による分類
Random Forest による分類Random Forest による分類
Random Forest による分類
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
PRML11.2 - 11.6
PRML11.2 - 11.6PRML11.2 - 11.6
PRML11.2 - 11.6
 
Prml 4.1.1
Prml 4.1.1Prml 4.1.1
Prml 4.1.1
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
PRMLrevenge_3.3
PRMLrevenge_3.3PRMLrevenge_3.3
PRMLrevenge_3.3
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
 
目で見る過学習と正則化
目で見る過学習と正則化目で見る過学習と正則化
目で見る過学習と正則化
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 

Similar to LAB-ゼミ資料-1-20150413

[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
Yusuke Iwasawa
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズムTakuya Akiba
 
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
okku apot
 
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networksStructural data analysis based on multilayer networks
Structural data analysis based on multilayer networks
tm1966
 
mi-5. ディープラーニング
mi-5. ディープラーニングmi-5. ディープラーニング
mi-5. ディープラーニング
kunihikokaneko1
 
Tokyo webmining 複雑ネットワークとデータマイニング
Tokyo webmining 複雑ネットワークとデータマイニングTokyo webmining 複雑ネットワークとデータマイニング
Tokyo webmining 複雑ネットワークとデータマイニング
Hiroko Onari
 
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
Yutaka KATAYAMA
 
20160901 jwein
20160901 jwein20160901 jwein
20160901 jwein
tm1966
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP
 
DeepCas
DeepCasDeepCas
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
Taiji Suzuki
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
 
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Hiroki Nakahara
 
深層学習入門 スライド
深層学習入門 スライド  深層学習入門 スライド
深層学習入門 スライド
swamp Sawa
 
FPGAX2016 ドキュンなFPGA
FPGAX2016 ドキュンなFPGAFPGAX2016 ドキュンなFPGA
FPGAX2016 ドキュンなFPGA
Hiroki Nakahara
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
Lab-ゼミ資料-3-20150421
Lab-ゼミ資料-3-20150421Lab-ゼミ資料-3-20150421
Lab-ゼミ資料-3-20150421
Yuki Ogasawara
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
 
Lab-ゼミ資料-4-20150430
Lab-ゼミ資料-4-20150430Lab-ゼミ資料-4-20150430
Lab-ゼミ資料-4-20150430
Yuki Ogasawara
 

Similar to LAB-ゼミ資料-1-20150413 (20)

[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム
 
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
 
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networksStructural data analysis based on multilayer networks
Structural data analysis based on multilayer networks
 
mi-5. ディープラーニング
mi-5. ディープラーニングmi-5. ディープラーニング
mi-5. ディープラーニング
 
Tokyo webmining 複雑ネットワークとデータマイニング
Tokyo webmining 複雑ネットワークとデータマイニングTokyo webmining 複雑ネットワークとデータマイニング
Tokyo webmining 複雑ネットワークとデータマイニング
 
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
 
20160901 jwein
20160901 jwein20160901 jwein
20160901 jwein
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
 
DeepCas
DeepCasDeepCas
DeepCas
 
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
 
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装Nested RNSを用いたディープニューラルネットワークのFPGA実装
Nested RNSを用いたディープニューラルネットワークのFPGA実装
 
深層学習入門 スライド
深層学習入門 スライド  深層学習入門 スライド
深層学習入門 スライド
 
FPGAX2016 ドキュンなFPGA
FPGAX2016 ドキュンなFPGAFPGAX2016 ドキュンなFPGA
FPGAX2016 ドキュンなFPGA
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
Lab-ゼミ資料-3-20150421
Lab-ゼミ資料-3-20150421Lab-ゼミ資料-3-20150421
Lab-ゼミ資料-3-20150421
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
Lab-ゼミ資料-4-20150430
Lab-ゼミ資料-4-20150430Lab-ゼミ資料-4-20150430
Lab-ゼミ資料-4-20150430
 

LAB-ゼミ資料-1-20150413