Submit Search
Upload
Dummiesパッケージ
•
Download as PPT, PDF
•
12 likes
•
16,319 views
W
weda654
Follow
Tokyo.Rの42回にて、かんたんにダミー変数がつくれるパッケージを試してみた
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 11
Download now
Recommended
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
tanutarou
SchNet: A continuous-filter convolutional neural network for modeling quantum...
SchNet: A continuous-filter convolutional neural network for modeling quantum...
Kazuki Fujikawa
ユーザーサイド情報検索システム
ユーザーサイド情報検索システム
joisino
マーケティングサイエンス徹底入門と実践Part2
マーケティングサイエンス徹底入門と実践Part2
宏喜 佐野
MICの解説
MICの解説
logics-of-blue
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎
Takumi Ohkuma
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
GentaYoshimura
Rの高速化
Rの高速化
弘毅 露崎
Recommended
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
tanutarou
SchNet: A continuous-filter convolutional neural network for modeling quantum...
SchNet: A continuous-filter convolutional neural network for modeling quantum...
Kazuki Fujikawa
ユーザーサイド情報検索システム
ユーザーサイド情報検索システム
joisino
マーケティングサイエンス徹底入門と実践Part2
マーケティングサイエンス徹底入門と実践Part2
宏喜 佐野
MICの解説
MICの解説
logics-of-blue
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎
Takumi Ohkuma
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
GentaYoshimura
Rの高速化
Rの高速化
弘毅 露崎
質的変数の相関・因子分析
質的変数の相関・因子分析
Mitsuo Shimohata
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
Satoshi Hara
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
Chika Inoshita
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
グラフデータの機械学習における特徴表現の設計と学習
グラフデータの機械学習における特徴表現の設計と学習
Ichigaku Takigawa
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
Ichigaku Takigawa
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Hiroshi Shimizu
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
Shinohara Masahiro
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
情報推薦システム入門:講義スライド
情報推薦システム入門:講義スライド
Kenta Oku
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
Atsushi Hayakawa
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
Takashi Kitano
More Related Content
What's hot
質的変数の相関・因子分析
質的変数の相関・因子分析
Mitsuo Shimohata
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
Satoshi Hara
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
Chika Inoshita
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
グラフデータの機械学習における特徴表現の設計と学習
グラフデータの機械学習における特徴表現の設計と学習
Ichigaku Takigawa
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
Ichigaku Takigawa
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Hiroshi Shimizu
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
Shinohara Masahiro
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
情報推薦システム入門:講義スライド
情報推薦システム入門:講義スライド
Kenta Oku
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
What's hot
(20)
質的変数の相関・因子分析
質的変数の相関・因子分析
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
グラフデータの機械学習における特徴表現の設計と学習
グラフデータの機械学習における特徴表現の設計と学習
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
ベイズファクターとモデル選択
ベイズファクターとモデル選択
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
4 データ間の距離と類似度
4 データ間の距離と類似度
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
情報推薦システム入門:講義スライド
情報推薦システム入門:講義スライド
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Viewers also liked
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
Atsushi Hayakawa
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
Takashi Kitano
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Shuyo Nakatani
Mxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53th
Akifumi Eguchi
Rで潜在ランク分析
Rで潜在ランク分析
Hiroshi Shimizu
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor
Takashi Kitano
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
Toru Imai
Rcppのすすめ
Rcppのすすめ
Masaki Tsuda
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
Satoshi Kitajima
R を起動するその前に
R を起動するその前に
Kosei ABE
TokyoR42_around_chaining
TokyoR42_around_chaining
TokorosawaYoshio
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Nagi Teramo
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
Toru Imai
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
Atsushi Hayakawa
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
yutannihilation
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
Yohei Sato
Tokyor42 ggplot2
Tokyor42 ggplot2
Yohei Sato
Tokyo r33 beginner
Tokyo r33 beginner
Takashi Minoda
Tokyo r30 anova
Tokyo r30 anova
Takashi Minoda
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Yohei Sato
Viewers also liked
(20)
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Mxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53th
Rで潜在ランク分析
Rで潜在ランク分析
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
Rcppのすすめ
Rcppのすすめ
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
R を起動するその前に
R を起動するその前に
TokyoR42_around_chaining
TokyoR42_around_chaining
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
Tokyor42 ggplot2
Tokyor42 ggplot2
Tokyo r33 beginner
Tokyo r33 beginner
Tokyo r30 anova
Tokyo r30 anova
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
More from weda654
Juliaで前処理
Juliaで前処理
weda654
わかりやすいパターン認識_3章
わかりやすいパターン認識_3章
weda654
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
weda654
続・わかりやすいパターン認識_3章
続・わかりやすいパターン認識_3章
weda654
わかパタ 1章
わかパタ 1章
weda654
Mコマンド入門
Mコマンド入門
weda654
Data frameあれこれ
Data frameあれこれ
weda654
More from weda654
(7)
Juliaで前処理
Juliaで前処理
わかりやすいパターン認識_3章
わかりやすいパターン認識_3章
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
続・わかりやすいパターン認識_3章
続・わかりやすいパターン認識_3章
わかパタ 1章
わかパタ 1章
Mコマンド入門
Mコマンド入門
Data frameあれこれ
Data frameあれこれ
Dummiesパッケージ
1.
dummiesパッケージ 1 @weda_654
2.
自己紹介 Twitter
ID : @weda_654 勤務先: Google MapとAWSの会社 お仕事: データ分析をやっています 2 (社会人1年目) 近況: 会社の自分の席が正式になくなる (デスクレス)
3.
dummiesパッケージをつかうと 概要 かんたんにダミー変数がつくれるらしいから
とりあえず使ってみた 3
4.
ダミー変数とは 4
ある1個の変数がm個のカテゴリーを持つとき,これ をm個の変数D1,D2,…,Dmで表したもの. 例: 血液型 A,B,O,ABの4つのカテゴリー ↓ 変数A,変数B,変数O,変数ABの4つの変数 (変数A,変数B,変数Oの3つの変数でも表現は可能)
5.
いままでのダミー変数作成 data.frameから対象ベクトルを抜き出す なんやかんやする
data.frameに結合+列名の修正 _人人人人人人人_ > めんどい! <  ̄Y^Y^Y^Y^Y^Y ̄ 5
6.
なんやかんや 6 tmp
<- function(vec){ result <- NULL items <- unique(vec) for(i in items){ dummy <- ifelse(vec %in% i, 1, 0) result <- cbind(result, dummy) } return(result) }
7.
dummy関数 ベクトルからダミー変数を生成
install.packages(“dummies”) library(dummies) blood <- c("A", "AB", "B", "A", "O", "A") d.blood <- dummy(blood) 表1 : 実行結果 bloodA bloodAB bloodB bloodO 1 0 0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 0 0 1 1 0 0 0 7
8.
dummy.data.frame関数(1) data.frame内の質的変数(文字列・順序なし因子)列
からダミー変数を生成 irisデータで試してみる • irisデータには質的変数Speciesがある d.iris <- dummy.data.frame(iris, sep=“:”) rdm <- sample(1:nrow(d.iris), 10) d.iris[rdm, ] 8
9.
dummy.data.frame関数(2) 表2 :
ダミー変数を追加したirisデータ Sepal.Length Sepal.Width Petal.Length Petal.Width Species:setosa Species:versicolor Species:virginica 5 3.3 1.4 0.2 1 0 0 4.9 2.4 3.3 1 0 1 0 5 2.3 3.3 1 0 1 0 5.5 2.6 4.4 1.2 0 1 0 5.6 2.8 4.9 2 0 0 1 6.7 3 5.2 2.3 0 0 1 6 2.7 5.1 1.6 0 1 0 5.4 3 4.5 1.5 0 1 0 6.7 2.5 5.8 1.8 0 0 1 5.7 3 4.2 1.2 0 1 0 生成→結合(置換)をひとまとめにできる 9
10.
get.dummy, which.dummy
get.dummy • 生成したダミー変数を表示する which.dummy • 生成したダミー変数の列番号を表示する 10
11.
11 より良いダミー変数生成ライフ?を もっとイケてる生成方法があったら
教えて下さい!
Editor's Notes
それ以上でも、それ以下でもない 無味無臭なLT
性別とかもよくきくのでは
きっと、みなさんはこんな非効率なことをしてはいないと思いますが… 忘れたそばからやってくる
関数はこれだけ もっと詳しく知りたい方はhelpをみましょう
Download now