Submit Search
Upload
Dummiesパッケージ
•
Download as PPT, PDF
•
12 likes
•
16,323 views
W
weda654
Follow
Tokyo.Rの42回にて、かんたんにダミー変数がつくれるパッケージを試してみた
Read less
Read more
Report
Share
Report
Share
1 of 11
Download now
Recommended
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
スペクトラル・クラスタリング
スペクトラル・クラスタリング
Akira Miyazawa
スペクトラル・クラスタリング (spectral clustering) の説明資料です。
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
tn1031
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
第20回ステアラボ人工知能セミナー https://stair.connpass.com/event/109983/ 【講演動画】 https://youtu.be/Fgza_C6KphU 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演の前半ではまず近年の代表的な研究について紹介する。後半では、発表者の最近の研究として「ランダムフォレストの簡略化」と「モデル列挙」について紹介する。
R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)
R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)
Koichi Hamada
第5回R勉強会@東京(10/5/22)の講師資料です。「R言語による アソシエーション分析-組合せ・事象の規則を解明する-」。 hamadakoichi, 濱田晃一
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
gree_tech
MIRU2018 のチュートリアルで発表された資料です。 https://sites.google.com/view/miru2018sapporo/%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%A0/%E3%83%81%E3%83%A5%E3%83%BC%E3%83%88%E3%83%AA%E3%82%A2%E3%83%AB
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Atsushi KOMIYA
昨今よく耳にするキーワード「ソーシャルグラフ」。その可能性・活用方法について様々な企業に注目されています。今回はその「ソーシャルグラフ」を「どうすればクラスタリングできるのか?」という観点で、グラフに対するクラスタリングの基礎を説明いたします。また、具体的なクラスタリング手法として Newman アルゴリズムをご紹介いたします。
fastTextの実装を見てみた
fastTextの実装を見てみた
Yoshihiko Shiraki
自然言語処理LT会・懇親会@新宿四谷 で発表した資料です。 https://massivelngg.connpass.com/event/47985/
Recommended
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
スペクトラル・クラスタリング
スペクトラル・クラスタリング
Akira Miyazawa
スペクトラル・クラスタリング (spectral clustering) の説明資料です。
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
tn1031
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
第20回ステアラボ人工知能セミナー https://stair.connpass.com/event/109983/ 【講演動画】 https://youtu.be/Fgza_C6KphU 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演の前半ではまず近年の代表的な研究について紹介する。後半では、発表者の最近の研究として「ランダムフォレストの簡略化」と「モデル列挙」について紹介する。
R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)
R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)
Koichi Hamada
第5回R勉強会@東京(10/5/22)の講師資料です。「R言語による アソシエーション分析-組合せ・事象の規則を解明する-」。 hamadakoichi, 濱田晃一
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
gree_tech
MIRU2018 のチュートリアルで発表された資料です。 https://sites.google.com/view/miru2018sapporo/%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%A0/%E3%83%81%E3%83%A5%E3%83%BC%E3%83%88%E3%83%AA%E3%82%A2%E3%83%AB
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Atsushi KOMIYA
昨今よく耳にするキーワード「ソーシャルグラフ」。その可能性・活用方法について様々な企業に注目されています。今回はその「ソーシャルグラフ」を「どうすればクラスタリングできるのか?」という観点で、グラフに対するクラスタリングの基礎を説明いたします。また、具体的なクラスタリング手法として Newman アルゴリズムをご紹介いたします。
fastTextの実装を見てみた
fastTextの実装を見てみた
Yoshihiko Shiraki
自然言語処理LT会・懇親会@新宿四谷 で発表した資料です。 https://massivelngg.connpass.com/event/47985/
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Takao Yamanaka
文献紹介のスライドです。学部4年生〜修士課程くらい向けです。
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門
irrrrr
LDA入門
LDA入門
正志 坪坂
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
CNNの構造最適化手法(第3回3D勉強会)
実践で学ぶネットワーク分析
実践で学ぶネットワーク分析
Mitsunori Sato
第32回R勉強会@東京(#TokyoR)で発表した資料です。
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
MACHINE LEARNING Meetup KANSAI #4 https://mlm-kansai.connpass.com/event/119084/ での、能見さんの発表資料です。
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
2020/6/11 画像センシングシンポジウム オーガナイズドセッション2 「限られたデータからの深層学習」 https://confit.atlas.jp/guide/event/ssii2020/static/organized#OS2 での招待講演資料です。 コンピュータビジョン分野を中心とした転移学習についての講演です。 パブリックなデータセットも増えていて、物体検出や領域分割などの研究も盛んですが、実際に社会実装しようとするときのデータは学習データと異なる性質(異なるドメイン)のデータである場合も非常に多いです。 本講演では、そのような場合に有効なドメイン適応の原理となるアプローチ2つと応用としての物体検出と領域分割の事例を紹介しています。
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
第23回情報論的学習理論と機械学習研究会 (IBISML)
SmoothGrad: removing noise by adding noise
SmoothGrad: removing noise by adding noise
harmonylab
CNNが画像のどこに注目しているかを可視化し、判断根拠を示す手法”SmoothGrad”について紹介する。本手法によって、従来手法で課題だったノイズの軽減を行なっている。
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
2022/03/18 Deep Learning JP: http://deeplearning.jp/seminar-2/
大阪PRML読書会#1資料
大阪PRML読書会#1資料
Hiromasa Ohashi
大阪PRML読書会第一回の資料です。
Tokyor35 人工データの発生
Tokyor35 人工データの発生
Yohei Sato
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
東大数理有志研究会(takamatsu26)、機械学習勉強会(Math-iine Learning)での発表資料.
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
Kazuyuki Wakasugi
SHAPライブラリの計算の仕組みを知るために、木構造を対象とした論文を読み、理解できた内容をまとめた。
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
tmp
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
WACODE 3rdの資料
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
2017/12/12 強化学習アーキテクチャ勉強会の資料
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
パターン認識と機械学習(PRML)の第6章「カーネル法」です 文字多め
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
Koichiro Mori
マルチモーダル深層学習の研究動向をまとめました。
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
Preferred Networks
2019年9月27日のPyData.Tokyo Meetup #21での発表資料です。 Optuna (https://github.com/pfnet/optuna) の使い方やソフトウェアデザイン、LightGBM向けの新機能について紹介しています。
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
Atsushi Hayakawa
R入門(dplyrでデータ加工)-TokyoR42
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
Takashi Kitano
Tokyo.R#65 初心者セッション
More Related Content
What's hot
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Takao Yamanaka
文献紹介のスライドです。学部4年生〜修士課程くらい向けです。
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門
irrrrr
LDA入門
LDA入門
正志 坪坂
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
CNNの構造最適化手法(第3回3D勉強会)
実践で学ぶネットワーク分析
実践で学ぶネットワーク分析
Mitsunori Sato
第32回R勉強会@東京(#TokyoR)で発表した資料です。
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
MACHINE LEARNING Meetup KANSAI #4 https://mlm-kansai.connpass.com/event/119084/ での、能見さんの発表資料です。
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
2020/6/11 画像センシングシンポジウム オーガナイズドセッション2 「限られたデータからの深層学習」 https://confit.atlas.jp/guide/event/ssii2020/static/organized#OS2 での招待講演資料です。 コンピュータビジョン分野を中心とした転移学習についての講演です。 パブリックなデータセットも増えていて、物体検出や領域分割などの研究も盛んですが、実際に社会実装しようとするときのデータは学習データと異なる性質(異なるドメイン)のデータである場合も非常に多いです。 本講演では、そのような場合に有効なドメイン適応の原理となるアプローチ2つと応用としての物体検出と領域分割の事例を紹介しています。
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
第23回情報論的学習理論と機械学習研究会 (IBISML)
SmoothGrad: removing noise by adding noise
SmoothGrad: removing noise by adding noise
harmonylab
CNNが画像のどこに注目しているかを可視化し、判断根拠を示す手法”SmoothGrad”について紹介する。本手法によって、従来手法で課題だったノイズの軽減を行なっている。
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
2022/03/18 Deep Learning JP: http://deeplearning.jp/seminar-2/
大阪PRML読書会#1資料
大阪PRML読書会#1資料
Hiromasa Ohashi
大阪PRML読書会第一回の資料です。
Tokyor35 人工データの発生
Tokyor35 人工データの発生
Yohei Sato
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
東大数理有志研究会(takamatsu26)、機械学習勉強会(Math-iine Learning)での発表資料.
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
Kazuyuki Wakasugi
SHAPライブラリの計算の仕組みを知るために、木構造を対象とした論文を読み、理解できた内容をまとめた。
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
tmp
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
WACODE 3rdの資料
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
2017/12/12 強化学習アーキテクチャ勉強会の資料
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
パターン認識と機械学習(PRML)の第6章「カーネル法」です 文字多め
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
Koichiro Mori
マルチモーダル深層学習の研究動向をまとめました。
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
Preferred Networks
2019年9月27日のPyData.Tokyo Meetup #21での発表資料です。 Optuna (https://github.com/pfnet/optuna) の使い方やソフトウェアデザイン、LightGBM向けの新機能について紹介しています。
What's hot
(20)
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門
LDA入門
LDA入門
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
実践で学ぶネットワーク分析
実践で学ぶネットワーク分析
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
ドメイン適応の原理と応用
ドメイン適応の原理と応用
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
SmoothGrad: removing noise by adding noise
SmoothGrad: removing noise by adding noise
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
大阪PRML読書会#1資料
大阪PRML読書会#1資料
Tokyor35 人工データの発生
Tokyor35 人工データの発生
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
GAN(と強化学習との関係)
GAN(と強化学習との関係)
PRML第6章「カーネル法」
PRML第6章「カーネル法」
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
Viewers also liked
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
Atsushi Hayakawa
R入門(dplyrでデータ加工)-TokyoR42
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
Takashi Kitano
Tokyo.R#65 初心者セッション
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Shuyo Nakatani
Tokyo.R #57 の発表資料です。
Mxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53th
Akifumi Eguchi
第53回 Tokyo.R LT資料です。
Rで潜在ランク分析
Rで潜在ランク分析
Hiroshi Shimizu
Rで潜在ランク分析を実行する関数を作りました
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor
Takashi Kitano
第52回R勉強会@東京 飛び入り発表資料
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
Toru Imai
20150303ぞくパタLT - Bayes LiNGAMのはなし
Rcppのすすめ
Rcppのすすめ
Masaki Tsuda
Rの関数をC++で記述することを可能にするパッケージRcppの使い方の紹介です。 第10回 Kashiwa.R で発表させて頂いた時の資料
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
Satoshi Kitajima
データサイエンティスト必見! M-1グランプリ 前処理の頂点は誰だ!? 出場者はRのdplyr、PostgreSQL、NYSOLのMコマンドなど。
R を起動するその前に
R を起動するその前に
Kosei ABE
TokyoR42_around_chaining
TokyoR42_around_chaining
TokorosawaYoshio
TokyoR#42
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Nagi Teramo
※ここで解説しているお天気推移モデルはオリジナルなものですので、数値・計算等にミスがある可能性が否めませんので、もし間違いを見かけた方は優しく教えていただけると助かります。 お天気推移モデルで理解するマルコフ連鎖モンテカルロ法。2状態離散モデルの解説を中心に、メトロポリス法の解説まで行った。 次は連続モデルや熱浴法・メトロポリスヘイスティング法の解説資料も作成したい⇒完成。以下のLINKを参照下さい。http://www.slideshare.net/teramonagi/ss-5344006 誤字を修正(2010/11/01)
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
Toru Imai
Rで代数統計 TokyoR #42 LT algstat 2014/08/30
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
Atsushi Hayakawa
ハードディスクのデータセットに対するデータ解析
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
yutannihilation
最新版はこちら: https://speakerdeck.com/yutannihilation/ggplot2zai-ru-men
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
Yohei Sato
Point of view when analyzing
Tokyor42 ggplot2
Tokyor42 ggplot2
Yohei Sato
Tokyo r33 beginner
Tokyo r33 beginner
Takashi Minoda
Tokyo r30 anova
Tokyo r30 anova
Takashi Minoda
Rによる分散分析
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Yohei Sato
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Viewers also liked
(20)
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Mxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53th
Rで潜在ランク分析
Rで潜在ランク分析
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
Rcppのすすめ
Rcppのすすめ
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
R を起動するその前に
R を起動するその前に
TokyoR42_around_chaining
TokyoR42_around_chaining
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
Tokyor42 ggplot2
Tokyor42 ggplot2
Tokyo r33 beginner
Tokyo r33 beginner
Tokyo r30 anova
Tokyo r30 anova
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
More from weda654
Juliaで前処理
Juliaで前処理
weda654
Juliaでdplyrみたいな処理ができるパッケージの紹介
わかりやすいパターン認識_3章
わかりやすいパターン認識_3章
weda654
ぞくパタのLT資料です。
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
weda654
続・わかりやすいパターン認識_3章
続・わかりやすいパターン認識_3章
weda654
ぞくパタ #2で発表した資料です。
わかパタ 1章
わかパタ 1章
weda654
続・わかりやすいパターン認識読書会 #1のLT資料です。
Mコマンド入門
Mコマンド入門
weda654
TokyoR 44回のLT資料の修正版です。
Data frameあれこれ
Data frameあれこれ
weda654
JuliaでDataFrameの表面をすくってみました
More from weda654
(7)
Juliaで前処理
Juliaで前処理
わかりやすいパターン認識_3章
わかりやすいパターン認識_3章
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
続・わかりやすいパターン認識_3章
続・わかりやすいパターン認識_3章
わかパタ 1章
わかパタ 1章
Mコマンド入門
Mコマンド入門
Data frameあれこれ
Data frameあれこれ
Dummiesパッケージ
1.
dummiesパッケージ 1 @weda_654
2.
自己紹介 Twitter
ID : @weda_654 勤務先: Google MapとAWSの会社 お仕事: データ分析をやっています 2 (社会人1年目) 近況: 会社の自分の席が正式になくなる (デスクレス)
3.
dummiesパッケージをつかうと 概要 かんたんにダミー変数がつくれるらしいから
とりあえず使ってみた 3
4.
ダミー変数とは 4
ある1個の変数がm個のカテゴリーを持つとき,これ をm個の変数D1,D2,…,Dmで表したもの. 例: 血液型 A,B,O,ABの4つのカテゴリー ↓ 変数A,変数B,変数O,変数ABの4つの変数 (変数A,変数B,変数Oの3つの変数でも表現は可能)
5.
いままでのダミー変数作成 data.frameから対象ベクトルを抜き出す なんやかんやする
data.frameに結合+列名の修正 _人人人人人人人_ > めんどい! <  ̄Y^Y^Y^Y^Y^Y ̄ 5
6.
なんやかんや 6 tmp
<- function(vec){ result <- NULL items <- unique(vec) for(i in items){ dummy <- ifelse(vec %in% i, 1, 0) result <- cbind(result, dummy) } return(result) }
7.
dummy関数 ベクトルからダミー変数を生成
install.packages(“dummies”) library(dummies) blood <- c("A", "AB", "B", "A", "O", "A") d.blood <- dummy(blood) 表1 : 実行結果 bloodA bloodAB bloodB bloodO 1 0 0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 0 0 1 1 0 0 0 7
8.
dummy.data.frame関数(1) data.frame内の質的変数(文字列・順序なし因子)列
からダミー変数を生成 irisデータで試してみる • irisデータには質的変数Speciesがある d.iris <- dummy.data.frame(iris, sep=“:”) rdm <- sample(1:nrow(d.iris), 10) d.iris[rdm, ] 8
9.
dummy.data.frame関数(2) 表2 :
ダミー変数を追加したirisデータ Sepal.Length Sepal.Width Petal.Length Petal.Width Species:setosa Species:versicolor Species:virginica 5 3.3 1.4 0.2 1 0 0 4.9 2.4 3.3 1 0 1 0 5 2.3 3.3 1 0 1 0 5.5 2.6 4.4 1.2 0 1 0 5.6 2.8 4.9 2 0 0 1 6.7 3 5.2 2.3 0 0 1 6 2.7 5.1 1.6 0 1 0 5.4 3 4.5 1.5 0 1 0 6.7 2.5 5.8 1.8 0 0 1 5.7 3 4.2 1.2 0 1 0 生成→結合(置換)をひとまとめにできる 9
10.
get.dummy, which.dummy
get.dummy • 生成したダミー変数を表示する which.dummy • 生成したダミー変数の列番号を表示する 10
11.
11 より良いダミー変数生成ライフ?を もっとイケてる生成方法があったら
教えて下さい!
Editor's Notes
それ以上でも、それ以下でもない 無味無臭なLT
性別とかもよくきくのでは
きっと、みなさんはこんな非効率なことをしてはいないと思いますが… 忘れたそばからやってくる
関数はこれだけ もっと詳しく知りたい方はhelpをみましょう
Download now