SlideShare a Scribd company logo
1 of 21
Download to read offline
情報拡散モデルを利用した
  超媒介者検出法

    小出明弘
研究背景
• ソーシャルネットワーク
  ユーザが容易につながることができる
  つながりをネットワークとして表現

• 情報拡散現象
  あるユーザを情報源としたときの情報の伝搬
  誰にどのように伝わるのか
  メカニズムの解明

  バイラルマーケテイング,デマ情報の抑制
影響最大化問題

• 情報拡散における問題
 出来るだけ多くのノードに
情報を伝達できるノード
 一定数ノードの組み合わせ

• 先行研究
 確率モデルを利用
 Kempe (2003), Kimura (2008)
超媒介者
• 情報拡散において両方を満たすノード
  多くのノードから情報を収集
  多くのノードに情報を拡散
影響最大化問題で重要となりうるノード(拡散に特化)
超媒介者になりうるノード(収集&拡散)
モチベーション
• 超媒介者の検出
  情報拡散における重要ノード

• 検出アプローチ
  基本的情報拡散モデルを利用
  期待影響度を利用した超媒介者検出

• 実験・評価
  超媒介者とそのほか指標との関係
    ネットワークの中心性,ランキング指標
数式の定義
フォローネットワーク 𝐺 = (𝑉, 𝐸)              𝑁:全ユーザ数
𝑉 = 𝑢, 𝑣, 𝑤, … , , 𝐸 ∈ 𝑉 × 𝑉

ノード𝑣が持つ子ノード集合
                               𝑣        𝑤
 𝐴(𝑣) =   𝑤 ∈ 𝑉; (𝑣, 𝑤) ∈ 𝐸

ノード𝑣が持つ親ノード集合
                               𝑣        𝑢
𝐵(𝑣) = 𝑢 ∈ 𝑉; (𝑢, 𝑣) ∈ 𝐸
情報拡散モデル
• IC(Independent Cascade) Model     (Goldenberg et al.,
  2001)etc.
   情報まき散らし型                                𝑝
   一定の確率で情報を伝達
                                            𝑝

• LT(Linear Threshold) Model (Watts, 2001)etc.
   情報受入れ型                                   𝑤
   各ノードに重みづけされている
   閾値を超えるとき情報が伝達                           𝑤′
期待影響度算出
• 各ノードの影響度𝜎 𝑣; 𝐺 の算出
  1st Simulate                                𝑴th Simulate
                   IC or LT model
                        ・・・
                                 𝑀
                            1
                   𝜎 𝑣; 𝐺 =           𝑥   𝑚
    𝑥1 = 4                  𝑀                     𝑥𝑀=6
                                𝑚=1

• 全ノードで計算し期待影響度𝐸(𝐺)算出
                 𝐸 𝐺 = 𝜎 𝑣; 𝐺 𝑝(𝑣)
                                               1
                                                  で一様
𝑝(𝑣)・・・ノード𝑣が情報源になる確率                          |𝑉|
超媒介者の検出
                                         𝐺
• 検出アプローチ
  あるノードを削除
  出,入リンクを削除                         𝑤

部分グラフ𝐺 ∖ {𝑤}を作成

• 超媒介者算出
 𝑬 𝑮 に対し期待影響度を最も下げるノード𝑤
      𝑤 = arg max 𝐸 𝐺 − 𝐸(𝐺 ∖ {𝑤})
             𝑤∈𝑉
          𝑤 = arg min 𝐸(𝐺 ∖ {𝑤})
                   𝑤∈𝑊
データセット
        現実の情報拡散ネットワーク
                                 Hyperlink
• Blogのトラックバックネットワーク
 トラックバック元から先へ有向リンク
 ノード数・・・12,407,リンク数・・・53,315

• Enron社のメール送受信ネットワーク
 送信者から受信者へ有向リンク
 ノード数・・・19,603,リンク数・・・210,950

 ※次数分布はべき則に従うネットワーク
実験設定
                                  1000 Simulates


• 各ノードの影響度𝜎 𝑣; 𝐺 の算出
 シミュレーション回数𝑀 = 1,000


 • ICモデル:拡散確率の設定・・・𝑝 𝑢,𝑤 = 𝑝 = 1 𝑑
 • LTモデル:リンク重みの設定・・・𝑤 𝑢,𝑤 = 1 |𝐵(𝑢)|

ICモデル        1        LTモデル   1
                 𝑑                |𝐵(𝑢)|

         1                𝑢   1
             𝑑                    |𝐵 𝑢 |
比較指標(1)
• 影響最大化問題における重要ノード
   超媒介者との比較
   𝐼 𝑣 = 𝜎(𝑣; 𝐺)でランキング
• PageRankアルゴリズム
                                      𝜋   𝑘 𝑇   𝑣 = 𝜋   𝑘−1 𝑇   𝑮
  Webページの重要度を測る
  prk 𝑣 = 𝜋     𝑘 𝑇 (𝑣)でランキング                  𝑮:Google行列

• HITSアルゴリズム
  hub (𝑘) 𝑣 =   𝑢∈𝐹(𝑣) authority
                                    𝑘−1   (𝑢) でランキング
  authority (𝑘) 𝑣 =   𝑢∈𝐵(𝑣) hub
                                    𝑘−1
                                          (𝑢) でランキング
比較指標(2)
• 次数中心性
                          dec 𝑣 = |𝐹(𝑣) ∩ 𝐵(𝑣)|
  次数が高いほど重要
• 近接中心性
  ネットワークの中心にあるノードは重要
         𝑑(𝑣, 𝑢)                                     −1
   →𝑣, 𝑢の最短パス長       clc 𝑣 =              𝑑(𝑣, 𝑢)
                                𝑢∈𝑉,𝑢≠𝑣
• 媒介中心性
  多くのノード間の橋渡しになるノードは重要
𝛾s,t :s, 𝑡の最短パス数                                 𝛾 𝑠,𝑡 (𝑣)
                      b𝑤c 𝑣 =
𝛾s,t (𝑣):𝑣を通るs, 𝑡の最短パス数           𝑠∈𝑉      𝑡∈𝑉      𝛾 𝑠,𝑡
超媒介者の期待影響度への影響
                 blogNW                 enronNW
              IC          LT          IC          LT
   𝑬(𝑮)       182.62           3.26    898.0           2.82
 𝑬(𝑮 ∖ {𝒘})   143.53           3.25   882.70           2.79

• BlogNW
   IC・・・𝑤の削除で期待影響度が78%に減少
 LT・・・ほとんど減少しない(削除前から期待影響度小)
• EnronNW
   IC・・・𝑤の削除で期待影響度が98%に微減
 LT・・・ほとんど減少しない(削除前から期待影響度小)
超媒介者と指標の関係(blogNW,IC)
各指標で1位のノードを除いた部分グラフでの期待影響度
Proposed    I(v)    dec      prk      hub      authority    clc       bwc
  143.53   178.55   179.74   178.18   183.75     179.74    177.54     181.25

     提案手法のノードが最も期待影響度を下げる

       提案手法上位ノードの各指標でのランキング
Proposed   I(v)     dec      prk      hub      authority   clc        bwc
      1       49      31       53     4,904      3,317           24         6
      2      118      40       51     4,960      3,209      419         45
      3      586     268      653     7,085      5,322      293         57

           次数,Pagerank,BWCと特に関係強い
分析結果(enronNW,IC)
各指標で1位のノードを除いた部分グラフでの期待影響度
Proposed   I(v)     dec       prk       hub       authority    clc       bwc
  882.70   895.56   889.36    885.74    891.65      889.36    885.85     888.64

    各指標の期待影響度とそれほど差が見られない

       提案手法上位ノードの各指標でのランキング
Proposed   I(v)     dec       prk       hub       authority   clc        bwc
      1     365           7         2     37           79           18         4
      2     230           3         1         9          5           6         3
      3     279           1         7         5          2           1         2

           ほとんどの指標と極めて関係強い
超媒介者として検出されたノード
• BlogNW・・・「愛国無罪」というタイトルのブログ
  収集期間が古く確認できず

• EnronNW・・・Jerey Skilling氏
 当時のEnron社のSenior Management
 エンロン事件前後でのメール送受信データ

※SkillingのSenior Management就任後,メール急増
  Skillingがメールの収集、拡散に関与していた可能性
Blogネットワークとコミュニティ
BlogNW可視化




• コミュニティ間を結ぶノードの削除
 期待影響度の減少に強い関係
Enronネットワークとコミュニティ
EnronNW可視化




• 単一の巨大コミュニティ内ノードの削除
 迂廻路の存在により,期待影響度微減
まとめ
• 超媒介者検出手法の提案
  情報拡散における別視点の重要ノード
  ネットワークと拡散モデルを用いて算出

• 超媒介者とネットワーク指標との関係
 既存影響度最大化問題,中心性など

• 超媒介者の有用性
 影響度を大きく減少させるノード検出
 ネットワーク構造に依存
今後の課題
• 大規模ネットワークでの実験
  Twitterのフォローネットワーク等

• 媒介者と各指標との関係の詳細分析
 幾つかの指標と媒介者には関係
 どの指標がどの程度の強さで効いているのか

• 集合問題への拡張
 影響最大化問題と同様,ノードペアの組み合わせ

More Related Content

Viewers also liked

Viewers also liked (8)

Neural Network + Tensorflow 入門講座
Neural Network + Tensorflow 入門講座Neural Network + Tensorflow 入門講座
Neural Network + Tensorflow 入門講座
 
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめDSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
 
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
 
Pythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI GymトレーニングPythonではじめる OpenAI Gymトレーニング
Pythonではじめる OpenAI Gymトレーニング
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 

Similar to Wssit slide

2019年7月3日 AITCオープンラボ 量子コンピューティング シリーズ第3回 ~日立製作所様における取り組み紹介~
2019年7月3日 AITCオープンラボ 量子コンピューティング シリーズ第3回 ~日立製作所様における取り組み紹介~ 2019年7月3日 AITCオープンラボ 量子コンピューティング シリーズ第3回 ~日立製作所様における取り組み紹介~
2019年7月3日 AITCオープンラボ 量子コンピューティング シリーズ第3回 ~日立製作所様における取り組み紹介~
aitc_jp
 
20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto
Makoto Shuto
 
秘密計算を用いた時系列情報の安全な集計方法
秘密計算を用いた時系列情報の安全な集計方法秘密計算を用いた時系列情報の安全な集計方法
秘密計算を用いた時系列情報の安全な集計方法
成泰 奈良
 
第9章 ネットワーク上の他の確率過程
第9章 ネットワーク上の他の確率過程第9章 ネットワーク上の他の確率過程
第9章 ネットワーク上の他の確率過程
Ohsawa Goodfellow
 

Similar to Wssit slide (20)

2019年7月3日 AITCオープンラボ 量子コンピューティング シリーズ第3回 ~日立製作所様における取り組み紹介~
2019年7月3日 AITCオープンラボ 量子コンピューティング シリーズ第3回 ~日立製作所様における取り組み紹介~ 2019年7月3日 AITCオープンラボ 量子コンピューティング シリーズ第3回 ~日立製作所様における取り組み紹介~
2019年7月3日 AITCオープンラボ 量子コンピューティング シリーズ第3回 ~日立製作所様における取り組み紹介~
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
 
ディープラーニング基礎.pptx
ディープラーニング基礎.pptxディープラーニング基礎.pptx
ディープラーニング基礎.pptx
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
 
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
 
20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto20030203 doctor thesis_presentation_makotoshuto
20030203 doctor thesis_presentation_makotoshuto
 
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory[DL輪読会] Hybrid computing using a neural network with dynamic external memory
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
 
秘密計算を用いた時系列情報の安全な集計方法
秘密計算を用いた時系列情報の安全な集計方法秘密計算を用いた時系列情報の安全な集計方法
秘密計算を用いた時系列情報の安全な集計方法
 
shuji-oh master thesis
shuji-oh master thesisshuji-oh master thesis
shuji-oh master thesis
 
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
[論文解説]KGAT:Knowledge Graph Attention Network for Recommendation
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会
 
Paper Introduction "RankCompete: Simultaneous ranking and clustering of info...
Paper Introduction "RankCompete:Simultaneous ranking and clustering of info...Paper Introduction "RankCompete:Simultaneous ranking and clustering of info...
Paper Introduction "RankCompete: Simultaneous ranking and clustering of info...
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape AnalysisFeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
 
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networksStructural data analysis based on multilayer networks
Structural data analysis based on multilayer networks
 
第9章 ネットワーク上の他の確率過程
第9章 ネットワーク上の他の確率過程第9章 ネットワーク上の他の確率過程
第9章 ネットワーク上の他の確率過程
 
bigdata2012ml okanohara
bigdata2012ml okanoharabigdata2012ml okanohara
bigdata2012ml okanohara
 

More from Akihiro Koide

More from Akihiro Koide (6)

Cikm読み会
Cikm読み会Cikm読み会
Cikm読み会
 
Icwsm読み会
Icwsm読み会Icwsm読み会
Icwsm読み会
 
Www13 slide
Www13 slideWww13 slide
Www13 slide
 
Netec oposter
Netec oposterNetec oposter
Netec oposter
 
Webdbf2012
Webdbf2012Webdbf2012
Webdbf2012
 
Project311Comp
Project311CompProject311Comp
Project311Comp
 

Wssit slide