SlideShare a Scribd company logo
TableauのLOD計算を
自分だったらどう説明するのか
考えてみた
Yasushi Ishikawa
@Issy1972
2
LOD Calculation
LODって何だろう
LOD 計算
(Level Of Detail)
…とは ?
ざっくり言うと
粒度違いの計算を
別でやっておく
こと
3つある
Exclude
Include
Fixed
まずは考え方
4
LOD Calculation
例えば、
データ
これを「見た目の粒度」
(Viz LOD)と呼ぶことにします
県 x いぬねこ
の数を合計してみた
5
LOD Calculation
粒度違いの計算 ケース1
いぬ・ねこ それぞれの
県別%を見たいとき
*これだと簡易表計算でも出来ますが、あくまで例なので。。。
6
LOD Calculation
粒度違いの計算 ケース1
こんな風にしたい
÷
÷
7
LOD Calculation
粒度違いの計算 ケース1
こうする
LOD計算の世界
抜く : Exclude
80
120
見た目
8
見た目
LOD Calculation
粒度違いの計算 ケース1
こうなる
LOD計算の世界
80
120
組み合わせて計算できる
ケース2
逆のパターン
10
LOD Calculation
粒度違いの計算 ケース2
県 x いぬねこ
色で分けて、多いほうの数を表示したい
少々強引な例w
県 x いぬねこ x 色
だとこうなってる
11
LOD Calculation
粒度違いの計算 ケース2
こうする
LOD計算の世界
差し込む : Include
見た目
12
LOD計算の世界見た目
LOD Calculation
粒度違いの計算 ケース2
こうなる
何らかの集計が必要
ここでは最大値をとる
13
LOD計算の世界
見た目
LOD Calculation
粒度違いの計算 ケース2
これも組み合わせて計算できる
↑%の意味?ですが、あくまで計算ができるという例です
おさらい
15
LOD Calculation
見た目の粒度(viz LOD) と違う単位で集計すること
見た目粒度 LOD計算
抜く : Exclude 差し込む : Include
sum(数) exclude 県 : sum(数) include 色 : sum(数)
計算式に
すると
種類(いぬ・ねこ)
県
種類(いぬ・ねこ)
県
種類(いぬ・ねこ)
県
色
* 実際のLOD計算式は { } で囲うこと!
見た目粒度に対しての増減を指定する感じ
組み合わせて
計算できる
16
LOD計算
LOD Calculation
[参考] LODの結果を組み合わせる
見た目粒度
Exclude
Include
重ねて透かすと
80
120
このマスに出てくる
LOD計算結果は?
答えが2個あるので
集計して取り出す
SUM, AVG, MIN, MAX, …
参考
あれ?
FIXEDは??
18
fixed 種類, 県, 色 : sum(数)
LOD Calculation : Fixed Calculation
ざっくり言うと、見た目粒度に±するか、直接指定するかの違い
exclude 県 : sum(数) include 色 : sum(数)
種類(いぬ・ねこ)
県
種類(いぬ・ねこ)
県
色
* 実際のLOD計算式は { } で囲う必要があります
fixed 種類 : sum(数)
種類(いぬ・ねこ) 種類(いぬ・ねこ)
県
色
見た目粒度に関わらず
ほしい粒度を固定 : fixed
==
Fixedで同じ結果を得ることは可能です
えっ?
それってカブってる?
20
+ +
LOD Calculation : Fixed Calculation
見た目粒度が変わると結果が違ってきます
exclude 県 : sum(数)
種類(いぬ・ねこ)
県
fixed 種類 : sum(数)
種類(いぬ・ねこ)
80
120
種類(いぬ・ねこ)
県
見た目
年齢
LOD計算
1歳 犬
2歳 犬
1歳 猫
2歳 猫
exclude/include は
影響うける
見た目の粒度が
変わると
fixed は変わらない
こんな風になる
年齢
固定 : fixed
状況によって
使い分けよう
21
LOD Calculation : Fixed Calculation
使い勝手の問題もある
exclude 県 : sum(数)
種類(いぬ・ねこ)
県
fixed 種類, 年齢, 色,
性別, … : sum(数)
種類(いぬ・ねこ)
県
見た目
年齢
LOD計算
exclude/include は
差分指定
見た目の粒度が
細かいと
fixed は対象
すべてを指定
年齢
状況によって
使い分けよう
色
性別
…
色
性別
…
22
LOD Calculation : Fixed Calculation
[参考] Fixed でしかできないこと
なんと
データの各行に
計算結果が張り付く
ディメンションとして使える
(ビンも作れる)
それってどういうこと ?
データ
fixed
Include/
exclude
LOD計算LOD計算
は
集計結果と
組み合わせる
もの
他のフィルタに影響されにくい
Fixed はフィルタ前に計算される
(クエリパイプライン)
xxx
xxx
xxx
xxx
状況によって使い分けよう
参考
まとめ
24
LOD Calculation
まとめ
ざっくり言うと、粒度違いの計算を別でやっておくこと
見た目の粒度(viz LOD)と違う単位の集計結果がほしいときに使う
• Viz LOD に足したり引いたり(include, exclude)するのと、直接指定(Fixed)する
方法がある
• 見た目の粒度が変わったときに挙動が違うので注意
状況によって使い分けよう
もっと詳しく
参考にしたもの
Data viz Lab
presented by Path
VizLODを意識した
Tableau LOD計算
【上達するのに苦労したから
こそ教えたい】
https://data-viz-lab.com/tableau-lod
Splineglobal
Tableau基礎・オンライン
講座 Step#5 LODの使い方
(内容公開します!)
https://splineglobal.com/blogs/ne
ws/tableau-web-class-lod-text
荒川さん Blog
LOD計算を本気で理解する
https://www.yarakawa.com/post/lod_
calculations
我如古さん note
TableauのLOD計算を
立体的にイメージしてみる。
https://note.com/ritz_tableau/n/n7f3
9070ab369
Thank you

More Related Content

What's hot

「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
 
RubyからC#を扱う
RubyからC#を扱うRubyからC#を扱う
RubyからC#を扱う
107steps
 
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
 
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
Kazuki Adachi
 
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
Ichigaku Takigawa
 
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
Hirotaka Matsumoto
 
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
MITSUNARI Shigeo
 
Fractional cascading
Fractional cascadingFractional cascading
Fractional cascading
Nariaki Tateiwa
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
Kota Matsui
 
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
Kentaro Minami
 
並列化による高速化
並列化による高速化 並列化による高速化
並列化による高速化
sakura-mike
 
Tableauによるデータ可視化と機械学習によるデータ分析
Tableauによるデータ可視化と機械学習によるデータ分析Tableauによるデータ可視化と機械学習によるデータ分析
Tableauによるデータ可視化と機械学習によるデータ分析
Tomohiro Iwahashi
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)tn1031
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
Shiga University, RIKEN
 
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
Recruit Technologies
 
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0sleipnir002
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!takehikoihayashi
 
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
Ichigaku Takigawa
 
推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから
cyberagent
 

What's hot (20)

「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
RubyからC#を扱う
RubyからC#を扱うRubyからC#を扱う
RubyからC#を扱う
 
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
 
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
 
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
 
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
 
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
 
Fractional cascading
Fractional cascadingFractional cascading
Fractional cascading
 
「統計的学習理論」第1章
「統計的学習理論」第1章「統計的学習理論」第1章
「統計的学習理論」第1章
 
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
 
並列化による高速化
並列化による高速化 並列化による高速化
並列化による高速化
 
Tableauによるデータ可視化と機械学習によるデータ分析
Tableauによるデータ可視化と機械学習によるデータ分析Tableauによるデータ可視化と機械学習によるデータ分析
Tableauによるデータ可視化と機械学習によるデータ分析
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
 
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
 
推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから
 

Tableau LOD calculation