Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
EN
Uploaded by
ssuserafaae8
PPTX, PDF
55,515 views
For MANABIYA
About Kaggle by Okoshi, Kysmo.Inc
Presentations & Public Speaking
◦
Read more
28
Save
Share
Embed
Embed presentation
Download
Downloaded 142 times
1
/ 66
2
/ 66
3
/ 66
4
/ 66
5
/ 66
6
/ 66
7
/ 66
8
/ 66
9
/ 66
10
/ 66
11
/ 66
12
/ 66
13
/ 66
14
/ 66
Most read
15
/ 66
16
/ 66
17
/ 66
18
/ 66
19
/ 66
20
/ 66
21
/ 66
22
/ 66
23
/ 66
24
/ 66
25
/ 66
26
/ 66
27
/ 66
28
/ 66
29
/ 66
30
/ 66
31
/ 66
32
/ 66
33
/ 66
34
/ 66
35
/ 66
36
/ 66
37
/ 66
38
/ 66
39
/ 66
40
/ 66
41
/ 66
42
/ 66
43
/ 66
44
/ 66
45
/ 66
46
/ 66
47
/ 66
48
/ 66
49
/ 66
Most read
50
/ 66
51
/ 66
52
/ 66
Most read
53
/ 66
54
/ 66
55
/ 66
56
/ 66
57
/ 66
58
/ 66
59
/ 66
60
/ 66
61
/ 66
62
/ 66
63
/ 66
64
/ 66
65
/ 66
66
/ 66
More Related Content
PPTX
Transformerを雰囲気で理解する
by
AtsukiYamaguchi1
PDF
Devsumi 2018summer
by
Harada Kei
PDF
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
by
mlm_kansai
PDF
最近のディープラーニングのトレンド紹介_20200925
by
小川 雄太郎
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
by
SSII
PPTX
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
by
SSII
PDF
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
by
Preferred Networks
Transformerを雰囲気で理解する
by
AtsukiYamaguchi1
Devsumi 2018summer
by
Harada Kei
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
by
mlm_kansai
最近のディープラーニングのトレンド紹介_20200925
by
小川 雄太郎
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
by
SSII
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
by
SSII
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
by
Preferred Networks
What's hot
PDF
Data-Centric AIの紹介
by
Kazuyuki Miyazawa
PDF
機械学習モデルの判断根拠の説明
by
Satoshi Hara
PPTX
チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019
by
Tokoroten Nakayama
PDF
最適輸送の解き方
by
joisino
PPTX
Triplet Loss 徹底解説
by
tancoro
PPTX
[DL輪読会] マルチエージェント強化学習と心の理論
by
Deep Learning JP
PPTX
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
by
Shota Imai
PDF
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
by
Deep Learning JP
PDF
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
by
Deep Learning JP
PDF
深層生成モデルを用いたマルチモーダル学習
by
Masahiro Suzuki
PDF
【DL輪読会】A Path Towards Autonomous Machine Intelligence
by
Deep Learning JP
PPTX
How Much Position Information Do Convolutional Neural Networks Encode?
by
Kazuyuki Miyazawa
PPTX
[DL輪読会]Dense Captioning分野のまとめ
by
Deep Learning JP
PDF
研究効率化Tips Ver.2
by
cvpaper. challenge
PDF
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
by
Deep Learning JP
PDF
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
by
SSII
PDF
深層強化学習と実装例
by
Deep Learning Lab(ディープラーニング・ラボ)
PDF
BlackBox モデルの説明性・解釈性技術の実装
by
Deep Learning Lab(ディープラーニング・ラボ)
PDF
画像生成・生成モデル メタサーベイ
by
cvpaper. challenge
PPTX
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
by
Deep Learning JP
Data-Centric AIの紹介
by
Kazuyuki Miyazawa
機械学習モデルの判断根拠の説明
by
Satoshi Hara
チャットコミュニケーションの問題と心理的安全性の課題 #EOF2019
by
Tokoroten Nakayama
最適輸送の解き方
by
joisino
Triplet Loss 徹底解説
by
tancoro
[DL輪読会] マルチエージェント強化学習と心の理論
by
Deep Learning JP
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
by
Shota Imai
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
by
Deep Learning JP
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
by
Deep Learning JP
深層生成モデルを用いたマルチモーダル学習
by
Masahiro Suzuki
【DL輪読会】A Path Towards Autonomous Machine Intelligence
by
Deep Learning JP
How Much Position Information Do Convolutional Neural Networks Encode?
by
Kazuyuki Miyazawa
[DL輪読会]Dense Captioning分野のまとめ
by
Deep Learning JP
研究効率化Tips Ver.2
by
cvpaper. challenge
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
by
Deep Learning JP
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
by
SSII
深層強化学習と実装例
by
Deep Learning Lab(ディープラーニング・ラボ)
BlackBox モデルの説明性・解釈性技術の実装
by
Deep Learning Lab(ディープラーニング・ラボ)
画像生成・生成モデル メタサーベイ
by
cvpaper. challenge
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
by
Deep Learning JP
Similar to For MANABIYA
PDF
Kaggleで学ぶ機械学習
by
m-shimao
PDF
できない英語を駆使してKaggleに挑戦してみた
by
Keisuke Tokuda
PDF
Kaggle&競プロ紹介 in 中田研究室
by
Takami Sato
PPTX
パネルディスカッション:データサイエンスの競技者、 Kagglerたちが活躍する職場とは [DeNA TechCon 2019]
by
DeNA
PDF
20150421 日経ビッグデータカンファレンス
by
Akira Shibata
PDF
2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成
by
Trainocate Japan, Ltd.
PDF
KDDCUP2015_Seed71_Kaggle_tokyo
by
Harada Kei
PPTX
関西Kaggler会LT~内輪コンペ・チーム参加によるKaggle能力向上~.pptx
by
1984bunacchiFC
PPTX
研究室勉強会資料「データ分析チュートリアル」
by
ymmt3-lab
Kaggleで学ぶ機械学習
by
m-shimao
できない英語を駆使してKaggleに挑戦してみた
by
Keisuke Tokuda
Kaggle&競プロ紹介 in 中田研究室
by
Takami Sato
パネルディスカッション:データサイエンスの競技者、 Kagglerたちが活躍する職場とは [DeNA TechCon 2019]
by
DeNA
20150421 日経ビッグデータカンファレンス
by
Akira Shibata
2018/8/6 トレLABO2 AI案件のよくある落とし穴と人材育成
by
Trainocate Japan, Ltd.
KDDCUP2015_Seed71_Kaggle_tokyo
by
Harada Kei
関西Kaggler会LT~内輪コンペ・チーム参加によるKaggle能力向上~.pptx
by
1984bunacchiFC
研究室勉強会資料「データ分析チュートリアル」
by
ymmt3-lab
For MANABIYA
1.
Kaggleで変える 日本の機械学習活用
2.
自己紹介 1 大越 拓実(@takuoko1) 株式会社キスモ 取締役 神奈川県出身、名古屋大学卒。大学で統計学、機械学習を専攻。 受賞歴(Kaggleにて下記含め6つの受賞経験を持ち、Kaggle
masterの称号を持っている。) Home Credit Default Risk 2nd place (Gold medal) Avito Demand Prediction Challenge 7th place (Gold medal) 杏林大学と医学領域における画像認識技術の共同研究にも参画し、EWMA2018で 研究成果が発表されている。
3.
キスモとはどんな会社ですか Our Mission 世の中のあらゆる場所に、 人の役に立つAIを導入する 2 事業領域を限定せず、AIを開発する 名古屋大学公認ベンチャー
4.
キスモの実績はどうですか 医療、製造業、金融、放送業界をはじめ、多岐に渡ります。 3 主要取引先・パートナー
5.
テーマ 4 データ分析に興味がある人にKaggleをやりたいと思ってほしい!
6.
アジェンダ Kaggleとは Kaggleと研究と仕事
Kaggleで学んだこと まとめ 5
7.
アジェンダ Kaggleとは Kaggleと研究と仕事
Kaggleで学んだこと まとめ 6
8.
Kaggleとは 7 https://www.kaggle.com/ 機械学習を用いたデータ分析の世界大会が開かれるプラットフォーム データ分析の天下一武道会 🐉
9.
Kaggleとは 8 登録者 全世界200万人
コンテスト参加者 約9万人 上からGrandmaster, Master, Expert, Contributor, Noviceとラン クがあり、それぞれの人数は図の通り *いずれも2018年10月9日現在
10.
Kaggleとは 9 データ&テーマ • 企業がKaggleに データとテーマを 提供 • 医療、マーケティ ング、金融など多 岐にわたる コンペ開催 •
期間は1~3ヶ月 順位&賞金 • スコアで順位が 決まる • 上位者には賞金。 総額100万円~1 億円オーバーの ものまで
11.
Kaggleとは 10 Overview-分析テーマや評価方法 Data-データの説明
Kernels-参加者がコードを公開している Discussion-参加者が様々なテーマについて議論している Leaderboard-順位が見れる
12.
Kaggleとは 11 Overview 様々な情報から家の 価格を予測する。
13.
Kaggleとは 12 Data データファイルや説 明変数、目的変数の 説明。
14.
Kaggleとは 13 Kernels 参加者がスクリプト を公開。 EDAやFeature Engineeringの参考に なる。 (めちゃ勉強になる)
15.
Kaggleとは 14 Discussion 参考になる論文や精度 向上に貢献したアプ ローチ、データの見方 など様々なテーマで議 論が行われる場。 (めちゃ勉強になる)
16.
Kaggleとは 15 Leaderboard 順位とそのスコアが 確認できる。
17.
Kaggleとは 16 機械学習を用いたデータ分析の世界大会が開かれるプラットフォーム データ分析の天下一武道会 🐉
18.
Kaggleとは 天下一武道会に名を連ねる強者達 17 Giba, bestfitting 世界ランキング1位,
2位。 まじで強い。 ケロッピ先生 画像系のコンペで知見を どんどん共有してくれる。 しかもめちゃ上位とってくる CPMP Discussion(いわゆる掲 示板)にめちゃ投稿する。 Discussionランキング1 位(もちろんコンペも強 い。) 24時間掲示板に張り付 いているのではとの噂 も。
19.
Kaggleとは 18 世界各国の個性豊かなデータサイエンティストが 参加している
20.
アジェンダ Kaggleとは Kaggleと研究と仕事
Kaggleで学んだこと まとめ 19
21.
Kaggleと仕事 データ分析とは 20 データ 無数のアプローチ 前処理/モデリング/後処理 結果
22.
Kaggleと仕事 データ分析とは 21 手札の数-いかに無数のアプローチのバリエーションを持つか どの手札を切るか-そこから限られた時間に何を選択して実施するか データ 無数のアプローチ 前処理/モデリング/後処理 結果
23.
Kaggleと仕事 データ分析とは 22 Kaggleをやることで手札の数、どの手札をどの速さで切れるか、 それがどのくらい有用そうか当たりをつける、という部分が得られる。 もちろん、Kaggleで使ったコードを持っておくことで手札を切るスピード も格段に上がる。 データ 無数のアプローチ 前処理/モデリング/後処理 結果
24.
Kaggleと仕事 データ分析とは 23 😆Kaggleをすると 😭普通は 手札がすごくなる データ 無数のアプローチ 前処理/モデリング/後処理 結果
25.
Kaggleと仕事 24 Kaggleをすることで手札が増えて、強いデータ分析ができる!
26.
Kaggleの良さ 25 経験 画像、テキスト、テーブルデータ 金融、医療、マーケティングなど 幅広いデータを分析でき、それが 経験値として溜まっていく。 知識 論文やdiscussion, kernel, 自分で立案したアイデアを 手を動かしながら試すことが でき、それが自分の知識となる。 実践ベースで学べるのが大きい。 コード Kaggleで実装したコードは、 そのまま仕事に転用できる 財産になる。
27.
Kaggleの良さ 26 現状把握 結果が順位として現れるので、 自分の立ち位置を把握できる。 上に人がたくさんいれば、まだ 足りない要素がある。 給与、信頼 定量的な評価ができるので、 いい結果を残せばそれだけ給与 に反映される。 また、対外的な信頼の証明にも なる。 楽しさ 純粋にゲーム性があり、 日々新しい知識も得られ るので楽しい。
28.
Kaggleの良さ 27 Kaggleをすることで、経験、知識、資産、信頼など、 多くのことが得られる! しかも楽しい!
29.
Kaggleと仕事 28 ここまで、Kaggleの良さはなんとなくわかった。 では、Kaggleをどのように仕事に結びつけているのか?
30.
今の自分の働き方 29 Kaggleする 実務はKaggleで過去 にやった方法を転用
31.
今の自分の働き方 Kaggle->仕事 30 例:セグメンテーション
32.
今の自分の働き方 Kaggle->仕事 31 例:セグメンテーション 前処理 resizeの関数、自作generator (cutoutやshearなど入ってる)、 CLAHEなどの前処理をkaggleで 実装済み。 augmentation手法は実装済み generatorを使って実験が回せる。 モデリング 多種多様なEncoderを持つUnet,その他 セグメンテーショモデルを実装済み。 iouなどの評価関数やlovasz loss,
dice lossも実装済み。 scseモジュールやhyper columnsの実装 も持っており、これらを使って実験が 回せる。 後処理 セグメンテーションの結果を 可視化して確認する部分や、 thresholdの設定、CRFなど の後処理スクリプトを実装済 み。
33.
今の自分の働き方 Kaggle->仕事 32 様々なaugmentation×様々なモデル×loss関数×プラスα 例:セグメンテーション flip zoom rotate add noise cutout shear etc… Vanila Unet VGG
Unet ResNet Unet ResNeXt Unet DenseNet unet Inception unet Inception ResNet Unet Linknet PSPNet SegNet Tiramisu etc… bce bce dice focal loss lovasz loss etc… scseモジュール hyper columns cyclic learning rate etc… これらを高速に回せるようになった!
34.
研究、kaggle、仕事の違い 33 Kaggle なんでもありの殴り合い。 最新の研究成果、過去のコンテスト の手法、使えるものは全て使う。 精度向上のためならアンサンブルも どんどんする。 が、シングルモデルの性能も同時に 追求する。 研究 “新しい何か”を使って成果を出す。 新規性こそが重要。 仕事 使えるものはなんでも使って良 い。 精度も高い方が良い。 ただ、計算資源の制約が強く、 説明性が求められることも多い。
35.
研究、kaggle、仕事の違い 仕事、研究、Kaggleはそれぞれ違いがあるが、通じるものはある。 34
36.
研究、kaggleが仕事に活きる部分 35 Kaggle 素早くベンチマークを構築する。 限られた資源、いくつかの制約の 中で精度を高める。 データのバリデーションを適切に 切る(*後述)。 研究 新しいアイデアを組み込むこと で精度向上を目指す。 それが実現すれば優位性になる。 先行研究をリサーチして、それ を組み込む能力もとても重要。 仕事 そもそもデータ分析、データに詳しくなれる
37.
研究、kaggle、仕事の違い 仕事においてもKaggle力は重要な要素である。 36
38.
Kaggleをしてからの変化 分析系の仕事が圧倒的に速くなった 時間の使い方が変わった
適切なバリデーションを設定できるようになった 分析の精度がどれくらい出るかの不確実性を減らせるようになっ た 37
39.
Kaggleをしてからの変化 分析系の仕事が圧倒的に速くなった 時間の使い方が変わった
適切なバリデーションを設定できるようになった 分析の精度がどれくらい出るかの不確実性を減らせるようになっ た 38
40.
分析系の仕事が圧倒的に速くなった 39 Kaggleをしてからは ・先述の通りコードは転用。これによりベンチマーク構築、 実験は高速化。 ・コードが動作しない。Lossが減らないなどの問題はほと んど起きない。 以前は ・タスクに対して一連のスクリプトを0から実装。 ・転用できるコードがないか調べて動かす。(多くは動かない) ・うまくいかない部分はデバックしつつ、1つ1つ手動で試して 解決
41.
分析系の仕事が圧倒的に速くなった 40 時間のロスが確実に減り、体感で何十倍も高速化。
42.
Kaggleをしてからの変化 分析系の仕事が圧倒的に速くなった 時間の使い方が変わった
適切なバリデーションを設定できるようになった 分析の精度がどれくらい出るかの不確実性を減らせるようになっ た 41
43.
時間の使い方が変わった 42 以前は ・仕事の時間を長く取る。 ・知識も仕事をやって初めて得られる。 Kaggleをしてからは ・仕事の時間を短くした。(タスクを速くこなせるので可能) ・その分、Kaggleに時間を割くようになった。 ->午前中仕事、午後Kaggleという生活スタイルが定着。 ・知識はKaggleで初めて得られ、それを仕事で使う。
44.
Kaggleをしてからの変化 分析系の仕事が圧倒的に速くなった 時間の使い方が変わった
適切なバリデーションを設定できるようになった 分析の精度がどれくらい出るかの不確実性を減らせるようになっ た 43
45.
適切なバリデーションを設定できるようになった 44 以前は ・train test splitでランダムに分割。 Kaggleをしてからは ・Kfold,
Stratified Kfold, Group Kfoldを適切に使い分ける。
46.
適切なバリデーションを設定できるようになった 45 StratifiedKfoldKfold Target=0 Target=1 train 70%
30% val 55% 45% Targetの分布が異なる可能性がある Target=0 Target=1 train 60% 40% val 60% 40% Targetの分布を均一にする GroupKFold 同じユーザーとか同じグループの人が trainとvalに分かれることで、予測しや すくなりすぎるのを防ぐ。
47.
Kaggleをしてからの変化 分析系の仕事が圧倒的に速くなった 時間の使い方が変わった
適切なバリデーションを設定できるようになった 分析の精度がどれくらい出るかの不確実性を減らせるようになっ た 46
48.
不確実性を減らせるようになった 47 最適な方法を取った時の性能 目標とする性能 スコア 0.8
0.9 ここの差はやってみるまでわからない 😖 データ分析はやってみる までどれくらい精度が出 るかわからない。
49.
不確実性を減らせるようになった 48 その人が出せた性能 最適な方法を取った時の性能 目標とする性能 スコア
0.5 0.8 0.9 😰できなかった 😉Kaggleでやったことがあれば その人が出せた性能 最適な方法を取った時の性能 目標とする性能 スコア 0.75 0.8 0.9 ここの不確実性は減らせる
50.
アジェンダ Kaggleとは Kaggleと研究と仕事
Kaggleで学んだこと まとめ 49
51.
Kaggleで学んだこと 50 Kaggleをすることでどういうことが身についたのか。 どういう手札を持てたのか。
52.
Kaggleで学んだこと EDA(探索的データ分析) いわゆるデータの可視化から気づきを得る部分 51 例:t-SNEによる可視化 図のように綺麗に分かれている場合は予測性能が高くなる (こんな例は普通ないが)。 また、分布が入り組んでいる場合はダウンサンプリングがしにくいや、 TrainとTestで分布が全然違うとかもわかる。 参考:
https://www.kaggle.com/c/home-credit-default-risk/discussion/58174
53.
Kaggleで学んだこと テーブルデータの特徴量整形(ここはたくさんあるので一部抜粋) Agg系
Target Encoding モデルベース系 52 Agg系 カテゴリーに対して値を埋め込む。 例:男性の購入金額の平均 食料品の価格の平均 Target Encoding カテゴリーに対して Targetの値を埋め込む。 例:自営業の人のTarget平均 モデルベース系 欠損値が多い重要な特徴 の値を他の特徴から予測。 その他にも、このデータではこういう特徴を使ったみたいなものがあるので、特徴量整形の手札は 爆発的に増える。
54.
Kaggleで学んだこと テーブルデータのモデリング LGBMすげえ
アンサンブルのためのモデル アンサンブル(averaging、stacking, stacknet) パラメータ調整(ベイズ最適化) 53 LGBMすげえ-KDD Cup4位の解放 パラメータ調整 LGBMは特にパラメータで結果が 大きく変わることが多い。 適切なパラメータをいかに自動で 探索するか。 ->ベイズ最適化
55.
Kaggleで学んだこと 画像データの水増し imgaug
https://github.com/aleju/imgaug Keras Generatorの自作 mixup, cutout, random erasing, shear 54 自作generator
56.
Kaggleで学んだこと 画像モデリング(Segmentation) Unet,
ResnetベースのUnet Segmentation models https://github.com/qubvel/segmentation_models SE module https://www.kaggle.com/c/tgs-salt-identification- challenge/discussion/66178#392393 hypercolumns focal loaa, lovasz loss TTA 55 SE module 2017年のILSVRCの優勝モデル TTA テスト時にaugumentationを行い、 精度を向上させる。 lovasz loss 先のセグメンテーションコンペ で大きく精度向上に貢献したloss。 BCEで最適化した後に使用してboost させた。
57.
Kaggleで学んだこと テキスト前処理 Word2vec,
embedding(Glove, fasttext) char level BOW http://kysmo.hatenablog.jp/entry/2018/07/31/164118 56 char levelEmbedding, word2vec
58.
Kaggleで学んだこと テキストモデリング Attention
Sparse NN Concat(Max Pooling, Avg Pooling) 57 Sparse NN BOW->NN 自分がやったデータでは 精度はRNN系より下だったが、 アンサンブルで効果あり。 Attention テキスト系のコンペでは精度が 向上した。 画像でも使われている研究が あったのでテストしようと 思っている。
59.
Kaggleで学んだこと まとめ 様々な方法を実践的に学べる
手札が増える 58
60.
アジェンダ Kaggleとは Kaggleと研究と仕事
Kaggleで学んだこと まとめ 59
61.
まとめ Kaggleとは データ分析の天下一武道会
仕事に役立つ とってもいいからみなさんにもぜひ始めてほしい! 60
62.
Kaggleを始めたいという人へ kaggler-ja https://kaggler-ja.herokuapp.com/
日本版kaggle slack。3000人を超える人が参加していて、いろいろな質問 に経験者が答えてくれる。 とりあえずやってみる 最初はkernelのコードをちょっと変えたりしながら順位が上がった下がっ たを楽しむ。 だんだんdiscussionを見たり、自分のアイデアを組み込んだりして、より 高い順位を目指していく。 61
63.
これからやっていきたいこと Kaggleを活用しながら日本の機械学習活用を進めたい 機械学習、データ分析はやってみなければ精度がわからないというのがど うしてもある。
そこで、Kaggleを使って手札をたくさん用意しておき、それを高速に展開 することで、とりあえずやってみる(PoC)という部分の手助けをしたい。 そして、多くの会社に機械学習、データ分析を活用してほしい。 62
64.
締め “Keep improving”
by CPMP 63
65.
締め 64 By Marious
66.
地に足ついたデータ分析をリードする。 お見積もり、お問い合わせはこちらまで。 https://kysmo.tech info@kysmo.tech
Editor's Notes
#3
キスモは「世の中の企業のAIの導入失敗」という課題を解決する企業です。 世の中のあらゆる場所に人の役に立つAIを導入するミッションです。 事業領域を限定せず、色々な種類の課題を解決しています。 名古屋大学公認ベンチャーで、大学内で活動しています。
#4
キスモは「世の中の企業のAIの導入失敗」という課題を解決する企業です。 世の中のあらゆる場所に人の役に立つAIを導入するミッションです。 事業領域を限定せず、色々な種類の課題を解決しています。 名古屋大学公認ベンチャーで、大学内で活動しています。
#5
キスモは「世の中の企業のAIの導入失敗」という課題を解決する企業です。 世の中のあらゆる場所に人の役に立つAIを導入するミッションです。 事業領域を限定せず、色々な種類の課題を解決しています。 名古屋大学公認ベンチャーで、大学内で活動しています。
Download