Submit Search
Upload
Tableau LOD calculation
•
1 like
•
950 views
Y
YasushiIshikawa4
Follow
LOD calculation を自分だったらどう説明するのか考えてみた (誰にも頼まれてないけど)
Read less
Read more
Report
Share
Report
Share
1 of 26
Recommended
Tabjo tips100 work_outwednesday mini_layout_0827
Tabjo tips100 work_outwednesday mini_layout_0827
Tableau1
Tabjo tips100 work_outwednesday mini_layout_0827
Tableauで実現するAI時代の次世代データ活用 (後編)
Tableauで実現するAI時代の次世代データ活用 (後編)
Tomohiro Iwahashi
【基調講演】 Tableauで実現するAI時代の次世代データ活用 現在、企業におけるデータ活用は新たなステージを迎えようとしています。過去と現在のデータを可視化する段階から、機械学習やAIを活用して、未来予測や、人知を超えるインサイトを発見し、ビジネスモデルを改革することが求められています。本講演では次世代のデータ分析プラットフォームとしてTableau が実現する「未来」のデータ活用をご紹介します。
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
基礎からのベイズ統計学 輪読会資料 第1章 「確率に関するベイズの定理」 2015/11/17 @kenmatsu4
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
Ken'ichi Matsui
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」 2016/5/16 @kenmatsu4
20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pub
Yoichi Tokita
「ベイズ深層学習」輪読会(#1)の資料。1章から3章まで。 https://reading-circle-beginners.connpass.com/event/147562/
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Shuyo Nakatani
社内勉強会で無限関係モデル(Infinite Relational Model)を紹介したときの資料です。 主に「続・わかりやすいパターン認識」の第13章「共クラスタリング」に準拠しつつ、データの生成部分をベルヌイ分布からポアソン分布に独自拡張したモデル&実装を紹介しています
Tableau serverを1年間運用して
Tableau serverを1年間運用して
Kouichi Imaizumi
Tableau serverを1年間運用して
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット
H Okazaki
同じ「探索と活用の戦略」を用いる2つの最適化アルゴリズム「ベイズ最適化」と「多腕バンディット」ですが、どのような前提の上に立っており、どのような問題に対して力を発揮するのか、それぞれの視座から見てみました。
Recommended
Tabjo tips100 work_outwednesday mini_layout_0827
Tabjo tips100 work_outwednesday mini_layout_0827
Tableau1
Tabjo tips100 work_outwednesday mini_layout_0827
Tableauで実現するAI時代の次世代データ活用 (後編)
Tableauで実現するAI時代の次世代データ活用 (後編)
Tomohiro Iwahashi
【基調講演】 Tableauで実現するAI時代の次世代データ活用 現在、企業におけるデータ活用は新たなステージを迎えようとしています。過去と現在のデータを可視化する段階から、機械学習やAIを活用して、未来予測や、人知を超えるインサイトを発見し、ビジネスモデルを改革することが求められています。本講演では次世代のデータ分析プラットフォームとしてTableau が実現する「未来」のデータ活用をご紹介します。
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
Ken'ichi Matsui
基礎からのベイズ統計学 輪読会資料 第1章 「確率に関するベイズの定理」 2015/11/17 @kenmatsu4
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
Ken'ichi Matsui
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」 2016/5/16 @kenmatsu4
20191006 bayesian dl_1_pub
20191006 bayesian dl_1_pub
Yoichi Tokita
「ベイズ深層学習」輪読会(#1)の資料。1章から3章まで。 https://reading-circle-beginners.connpass.com/event/147562/
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Shuyo Nakatani
社内勉強会で無限関係モデル(Infinite Relational Model)を紹介したときの資料です。 主に「続・わかりやすいパターン認識」の第13章「共クラスタリング」に準拠しつつ、データの生成部分をベルヌイ分布からポアソン分布に独自拡張したモデル&実装を紹介しています
Tableau serverを1年間運用して
Tableau serverを1年間運用して
Kouichi Imaizumi
Tableau serverを1年間運用して
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット
H Okazaki
同じ「探索と活用の戦略」を用いる2つの最適化アルゴリズム「ベイズ最適化」と「多腕バンディット」ですが、どのような前提の上に立っており、どのような問題に対して力を発揮するのか、それぞれの視座から見てみました。
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
「第5回 プログラマのための数学勉強会 発表資料 (2015/11/21[sat])」 内容は統計学の素養がある方には基本的な事項ですが、ベクトルと内積で見方を変えてみたという点と、あまり統計学に親しみがない方にも理解してもらえるようなまとめになっている、というところに本スライドの独自性があると考えていますので、その辺り良ければご覧ください^^
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
2017年2月17日に行われた統計数理研究所での研究集会『因果推論の基礎』での講演内容です(配布用の改変あり)。スライドだけだと口頭での説明がないので分かりにくい部分もあるかもしれません。 [http://www.ism.ac.jp/events/2017/meeting0216_17.html:title]
RubyからC#を扱う
RubyからC#を扱う
107steps
第73回Ruby関西 発表資料 Ruby から C# を扱う方法の説明 ruby-csharp_script の説明
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
「はじめてのパターン認識」読書会の発表資料です。 第3章(前半):ベイズの識別規則
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
Kazuki Adachi
研究室の輪講で発表したものです。
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
Ichigaku Takigawa
情報論的学習理論と機械学習研究会(IBISML), 京都大学, 2022年12月22日-23日
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
Hirotaka Matsumoto
ほげほげ
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
MITSUNARI Shigeo
6, 7章
Fractional cascading
Fractional cascading
Nariaki Tateiwa
Description of construction and searching of fractional cascading
「統計的学習理論」第1章
「統計的学習理論」第1章
Kota Matsui
金森敬文著「統計的学習理論」輪読セミナー第1回資料
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
Kentaro Minami
差分プライバシー (Differential privacy) という技術に関する入門スライドです
並列化による高速化
並列化による高速化
sakura-mike
JOI夏季セミナー
Tableauによるデータ可視化と機械学習によるデータ分析
Tableauによるデータ可視化と機械学習によるデータ分析
Tomohiro Iwahashi
実践者向けディープラーニング勉強会第5回発表資料 https://techplay.jp/event/737827 AI技術が進化する時代においても、ドメイン知識を理解し機械に入力する、AIからの出力情報をビジネスアクションに繫げるためにBIの重要性は増していくと考えます。こちらの資料では、AI時代におけるBIの取り組みについてご紹介します。
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
tn1031
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
Shiga University, RIKEN
ISCIE/SICEチュートリアル講座2017のスライド
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
Recruit Technologies
2015/09/09 Spark Meetup 2015での、堀越の講演資料になります
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
sleipnir002
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
Ichigaku Takigawa
JST科学技術未来戦略ワークショップ「機器の安全性を高める破壊・寿命予測の科学技術基盤の構築」, 2021年12月10日, JST 研究開発戦略センター(CRDS).
推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから
cyberagent
2018年3月29日開催 サイバーエージェントにおけるデータ活用とその技術についての勉強会「春の機械学習祭り 〜Data Engineering & Data Analysis WS#4〜」での登壇資料 (秋葉原ラボ所属 内藤遥) https://cyberagent.connpass.com/event/80969/
More Related Content
What's hot
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
「第5回 プログラマのための数学勉強会 発表資料 (2015/11/21[sat])」 内容は統計学の素養がある方には基本的な事項ですが、ベクトルと内積で見方を変えてみたという点と、あまり統計学に親しみがない方にも理解してもらえるようなまとめになっている、というところに本スライドの独自性があると考えていますので、その辺り良ければご覧ください^^
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
2017年2月17日に行われた統計数理研究所での研究集会『因果推論の基礎』での講演内容です(配布用の改変あり)。スライドだけだと口頭での説明がないので分かりにくい部分もあるかもしれません。 [http://www.ism.ac.jp/events/2017/meeting0216_17.html:title]
RubyからC#を扱う
RubyからC#を扱う
107steps
第73回Ruby関西 発表資料 Ruby から C# を扱う方法の説明 ruby-csharp_script の説明
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
「はじめてのパターン認識」読書会の発表資料です。 第3章(前半):ベイズの識別規則
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
Kazuki Adachi
研究室の輪講で発表したものです。
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
Ichigaku Takigawa
情報論的学習理論と機械学習研究会(IBISML), 京都大学, 2022年12月22日-23日
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
Hirotaka Matsumoto
ほげほげ
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
MITSUNARI Shigeo
6, 7章
Fractional cascading
Fractional cascading
Nariaki Tateiwa
Description of construction and searching of fractional cascading
「統計的学習理論」第1章
「統計的学習理論」第1章
Kota Matsui
金森敬文著「統計的学習理論」輪読セミナー第1回資料
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
Kentaro Minami
差分プライバシー (Differential privacy) という技術に関する入門スライドです
並列化による高速化
並列化による高速化
sakura-mike
JOI夏季セミナー
Tableauによるデータ可視化と機械学習によるデータ分析
Tableauによるデータ可視化と機械学習によるデータ分析
Tomohiro Iwahashi
実践者向けディープラーニング勉強会第5回発表資料 https://techplay.jp/event/737827 AI技術が進化する時代においても、ドメイン知識を理解し機械に入力する、AIからの出力情報をビジネスアクションに繫げるためにBIの重要性は増していくと考えます。こちらの資料では、AI時代におけるBIの取り組みについてご紹介します。
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
tn1031
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
Shiga University, RIKEN
ISCIE/SICEチュートリアル講座2017のスライド
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
Recruit Technologies
2015/09/09 Spark Meetup 2015での、堀越の講演資料になります
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
sleipnir002
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
Ichigaku Takigawa
JST科学技術未来戦略ワークショップ「機器の安全性を高める破壊・寿命予測の科学技術基盤の構築」, 2021年12月10日, JST 研究開発戦略センター(CRDS).
推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから
cyberagent
2018年3月29日開催 サイバーエージェントにおけるデータ活用とその技術についての勉強会「春の機械学習祭り 〜Data Engineering & Data Analysis WS#4〜」での登壇資料 (秋葉原ラボ所属 内藤遥) https://cyberagent.connpass.com/event/80969/
What's hot
(20)
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
RubyからC#を扱う
RubyからC#を扱う
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
機械学習と機械発見:自然科学研究におけるデータ利活用の再考
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
Fractional cascading
Fractional cascading
「統計的学習理論」第1章
「統計的学習理論」第1章
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
並列化による高速化
並列化による高速化
Tableauによるデータ可視化と機械学習によるデータ分析
Tableauによるデータ可視化と機械学習によるデータ分析
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
レコメンドバッチ高速化に向けたSpark/MapReduceの機械学習ライブラリ比較検証
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
機械学習を自然現象の理解・発見に使いたい人に知っておいてほしいこと
推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから
Tableau LOD calculation
1.
TableauのLOD計算を 自分だったらどう説明するのか 考えてみた Yasushi Ishikawa @Issy1972
2.
2 LOD Calculation LODって何だろう LOD 計算 (Level
Of Detail) …とは ? ざっくり言うと 粒度違いの計算を 別でやっておく こと 3つある Exclude Include Fixed
3.
まずは考え方
4.
4 LOD Calculation 例えば、 データ これを「見た目の粒度」 (Viz LOD)と呼ぶことにします 県
x いぬねこ の数を合計してみた
5.
5 LOD Calculation 粒度違いの計算 ケース1 いぬ・ねこ
それぞれの 県別%を見たいとき *これだと簡易表計算でも出来ますが、あくまで例なので。。。
6.
6 LOD Calculation 粒度違いの計算 ケース1 こんな風にしたい ÷ ÷
7.
7 LOD Calculation 粒度違いの計算 ケース1 こうする LOD計算の世界 抜く
: Exclude 80 120 見た目
8.
8 見た目 LOD Calculation 粒度違いの計算 ケース1 こうなる LOD計算の世界 80 120 組み合わせて計算できる
9.
ケース2 逆のパターン
10.
10 LOD Calculation 粒度違いの計算 ケース2 県
x いぬねこ 色で分けて、多いほうの数を表示したい 少々強引な例w 県 x いぬねこ x 色 だとこうなってる
11.
11 LOD Calculation 粒度違いの計算 ケース2 こうする LOD計算の世界 差し込む
: Include 見た目
12.
12 LOD計算の世界見た目 LOD Calculation 粒度違いの計算 ケース2 こうなる 何らかの集計が必要 ここでは最大値をとる
13.
13 LOD計算の世界 見た目 LOD Calculation 粒度違いの計算 ケース2 これも組み合わせて計算できる ↑%の意味?ですが、あくまで計算ができるという例です
14.
おさらい
15.
15 LOD Calculation 見た目の粒度(viz LOD)
と違う単位で集計すること 見た目粒度 LOD計算 抜く : Exclude 差し込む : Include sum(数) exclude 県 : sum(数) include 色 : sum(数) 計算式に すると 種類(いぬ・ねこ) 県 種類(いぬ・ねこ) 県 種類(いぬ・ねこ) 県 色 * 実際のLOD計算式は { } で囲うこと! 見た目粒度に対しての増減を指定する感じ 組み合わせて 計算できる
16.
16 LOD計算 LOD Calculation [参考] LODの結果を組み合わせる 見た目粒度 Exclude Include 重ねて透かすと 80 120 このマスに出てくる LOD計算結果は? 答えが2個あるので 集計して取り出す SUM,
AVG, MIN, MAX, … 参考
17.
あれ? FIXEDは??
18.
18 fixed 種類, 県,
色 : sum(数) LOD Calculation : Fixed Calculation ざっくり言うと、見た目粒度に±するか、直接指定するかの違い exclude 県 : sum(数) include 色 : sum(数) 種類(いぬ・ねこ) 県 種類(いぬ・ねこ) 県 色 * 実際のLOD計算式は { } で囲う必要があります fixed 種類 : sum(数) 種類(いぬ・ねこ) 種類(いぬ・ねこ) 県 色 見た目粒度に関わらず ほしい粒度を固定 : fixed == Fixedで同じ結果を得ることは可能です
19.
えっ? それってカブってる?
20.
20 + + LOD Calculation
: Fixed Calculation 見た目粒度が変わると結果が違ってきます exclude 県 : sum(数) 種類(いぬ・ねこ) 県 fixed 種類 : sum(数) 種類(いぬ・ねこ) 80 120 種類(いぬ・ねこ) 県 見た目 年齢 LOD計算 1歳 犬 2歳 犬 1歳 猫 2歳 猫 exclude/include は 影響うける 見た目の粒度が 変わると fixed は変わらない こんな風になる 年齢 固定 : fixed 状況によって 使い分けよう
21.
21 LOD Calculation :
Fixed Calculation 使い勝手の問題もある exclude 県 : sum(数) 種類(いぬ・ねこ) 県 fixed 種類, 年齢, 色, 性別, … : sum(数) 種類(いぬ・ねこ) 県 見た目 年齢 LOD計算 exclude/include は 差分指定 見た目の粒度が 細かいと fixed は対象 すべてを指定 年齢 状況によって 使い分けよう 色 性別 … 色 性別 …
22.
22 LOD Calculation :
Fixed Calculation [参考] Fixed でしかできないこと なんと データの各行に 計算結果が張り付く ディメンションとして使える (ビンも作れる) それってどういうこと ? データ fixed Include/ exclude LOD計算LOD計算 は 集計結果と 組み合わせる もの 他のフィルタに影響されにくい Fixed はフィルタ前に計算される (クエリパイプライン) xxx xxx xxx xxx 状況によって使い分けよう 参考
23.
まとめ
24.
24 LOD Calculation まとめ ざっくり言うと、粒度違いの計算を別でやっておくこと 見た目の粒度(viz LOD)と違う単位の集計結果がほしいときに使う •
Viz LOD に足したり引いたり(include, exclude)するのと、直接指定(Fixed)する 方法がある • 見た目の粒度が変わったときに挙動が違うので注意 状況によって使い分けよう
25.
もっと詳しく 参考にしたもの Data viz Lab presented
by Path VizLODを意識した Tableau LOD計算 【上達するのに苦労したから こそ教えたい】 https://data-viz-lab.com/tableau-lod Splineglobal Tableau基礎・オンライン 講座 Step#5 LODの使い方 (内容公開します!) https://splineglobal.com/blogs/ne ws/tableau-web-class-lod-text 荒川さん Blog LOD計算を本気で理解する https://www.yarakawa.com/post/lod_ calculations 我如古さん note TableauのLOD計算を 立体的にイメージしてみる。 https://note.com/ritz_tableau/n/n7f3 9070ab369
26.
Thank you