CatBoost on GPU のひみつ

CatBoost on GPU の ひみつ
2023/09/23 第1回関東Kaggler会
@tawatawara
自己紹介
SaaS企業の某某 R&D所属
◦ 社会人からMLを始める
◦ 元 JTC Kaggler
Kaggle * Master
◦ GMになりたい. . .
おことわり
知っている人にはごく当たり前の話かもしれません
◦ CatBoost ガチ勢はどうかご容赦を🙏
調査結果は網羅的でない可能性があります
◦ この先は君の眼で確かめてくれ
今からあなたはテーブルコンペに参加します
???「ここに3匹の GBMon がおるじゃろ?」
今からあなたはテーブルコンペに参加します
???「初手はどれを選ぶんじゃ?」
今からあなたはテーブルコンペに参加します
???「なるほど、LightGBMか」
👆
初手 は定番
CPUでお手軽かつ高速に学習できる
性能が他のGBMonに勝る傾向がある
◦ ただしこれはデータやタスクによる
欠点は木(森)が増えすぎたときに推論が遅いこと
参考:「初手LightGBM」をする7つの理由 by u++ さん
今からあなたはテーブルコンペに参加します
???「ではGPUが使える状況ならどうじゃ?」
今からあなたはテーブルコンペに参加します
???「ふむ、XGBoostか」
👆
GPUが使えるなら は実用に耐えうる
学習の遅さという欠点が解消される
◦ というか GPU で学習させる以外の選択肢が無い
データ次第だが性能が劣ることも(そんなに)ない
推論速度は LightGBM よりは速い(はず)
◦ 木(森)の大きさ次第だと思います
今からあなたはテーブルコンペに参加します
???「CatBoost は... CatBoost はどうなんじゃ?」
GPUを使うと は学習がかなり速い
「最高じゃん!」と思いきや...
CPUとGPUで学習の挙動が結構変化する
◦ ときには CPUでの学習より性能がかなり悪化する場合も...
◦ このせいで CatBoost を大きなデータで使うのを躊躇う人も居ると思われる
推論速度は3匹の GBMon の中で一番速い
今回のお題
CatBoost をGPUで学習するときの
性能悪化の原因を突き止めたい
結論
異なるハイパラが
暗黙的に設定される
ハイパラのページを頑張って探索すると…
ここ!
https://catboost.ai/en/docs/references/training-parameters/
勝手に異なるハイパラが設定される(!!)
Name Default Value
border_count
a.k.a. max_bin
CPU: 254
GPU in PairLogitPairwise and YetiRankPairwise modes: 32
GPU in all other modes: 128
ctr_target_border_count
Number_of_classes - 1 for Multiclassification problems when training on CPU, 1
otherwise
max_ctr_complexity
GPU for categorical features in MultiClass and MultiClassOneVsAll modes: 1
In all other cases: 4
bootstrap_type
When the objective parameter is QueryCrossEntropy, YetiRankPairwise,
and the bagging_temperature parameter is not set: Bernoulli with the subsample
set to 0.5.
Neither MultiClass nor MultiClassOneVsAll, task_type = CPU and sampling_unit =
Object: MVS with the subsample parameter set to 0.8.
Otherwise: Bayesian.
勝手に異なるハイパラが設定される(!!)
特に回帰・二値分類ではこのふたつが悪さをする
Name Default Value
border_count
a.k.a. max_bin
CPU: 254
GPU in PairLogitPairwise and YetiRankPairwise modes: 32
GPU in all other modes: 128
bootstrap_type
When the objective parameter is QueryCrossEntropy, YetiRankPairwise,
PairLogitPairwise and the bagging_temperature parameter is not set:
the subsample parameter set to 0.5.
Neither MultiClass nor MultiClassOneVsAll, task_type = CPU and
= Object: MVS with the subsample parameter set to 0.8.
Otherwise: Bayesian.
勝手に異なるハイパラが設定される(!!)
device(task_type)以外は揃えたつもりでも…
※豆知識:allow_writing_files=False にすると catboost_info が出力されなくなります
勝手に異なるハイパラが設定される(!!)
device(task_type)以外は揃えたつもりでも…実際はこうなる
※補足:これ以外にも暗黙的に設定されるハイパラが存在しますが割愛
実験 – 設定
以下の4つを比較 (5-fold CV で学習)
1. CPU使用時のデフォルトパラメータ
2. GPU使用時のデフォルトパラメータ
3. CPU使用時に bootstrap_type=Bernoulli、subsample=0.8 に
4. GPU使用時に bootstrap_type=Bernoulli、subsample=0.8、max_bin=254
に
◦ 補足
◦ bootstrap_type=Bernoulli は CPU でも GPU でも選択でき、subsample を使用できる
◦ max_depth は 6、learning_rate は 0.1 で統一する
◦ GPUでの学習は seed を固定してもぶれるため、10回行って平均を取る
◦ 関連 Issue: Random seed issue on classifier when run on GPU
実験 – データ
American Express - Default Prediction†(二値分類) のデータで検証
◦ データがログデータなので特徴量エンジニアリングが必要
◦ 今回は以下の公開 Notebook のものを拝借した
◦ Amex LGBM Dart CV 0.7963
◦ 特徴量エンジニアリング後のデータの規模
◦ Train: 458,913行、Test: 924,621行、特徴量: 1095個
†:https://www.kaggle.com/competitions/amex-default-prediction
実験 – 結果
◦ GPUのデフォルトはCPUのデフォルトに全ての数値で下回る(2 < 1)
◦ GPUのハイパラを変更したものはCPUのデフォルトに全ての数値で上回る(4 > 1)
◦ CPUのハイパラを変更したものが Public/Private が最も高い (黒太字)
ID Device ハイパラ 学習時間(sec) CV Public LB Private LB
1 CPU デフォルト 1616 0.79056 0.79361 0.80124
2 GPU デフォルト 313 0.79042 0.79327 0.80103
3 CPU 変更 1818 0.79097 0.79388 0.80172
4 GPU 変更 305 0.79114 0.79366 0.80164
暗黙的に設定されていたハイパラを変更することにより
CPU(デフォルト)と同等かそれ以上の性能をGPUで出せた
まとめ
CatBoost はGPUで超高速に学習できるが性能面に問題があった
◦ なぜか CPU と GPU で性能に差がある
◦ 一番活用できるはずの大規模データでの使用が躊躇われる
CPU と GPU で暗黙的に異なるハイパラが設定されていた
◦ 特に回帰と二値分類では max_bin と bootstrap_type が影響している
暗黙的に設定されていたハイパラを変更し過去コンペデータで検証
◦ GPU(ハイパラ変更)がCPU(デフォルト)と同等の性能になった
◦ CPU(ハイパラ変更)の性能が上がったのは予想外だったが、CPU(デフォルト)と
GPU(デフォルト)の性能差の原因を一部解明できたとは思われる
良かったね!
🎉 🎉
🎊
おまけ: 他の GBMon との比較
こいつらと比較するとどうなの?
追加実験 – 設定
以下の6つを比較 (5-fold CV で学習)
1. CatBoost(CPU), bootstrap_type=Bernoulli、subsample=0.8
2. CatBoost(GPU), bootstrap_type=Bernoulli、subsample=0.8、max_bin=254
3. XGBoost(CPU), subsample=0.8
4. XGBoost(GPU), subsample=0.8
5. LightGBM(CPU), subsample=0.8
6. LightGBM(GPU(CUDA)), subsample=0.8
◦ 補足:max_depth は 6、learning_rate は 0.1、CPUスレッド数は 8、で統一する
追加実験 – 性能比較
◦ 今回の設定では CatBoost が一番性能が良い(ハイパラ tuning で変わるかも…)
◦ Amex が制約の強いモデルの方が有効なコンペだったのかもしれない
◦ XGBoost は CPU と GPU であまり性能が変わらないように見える
◦ LightGBM(CUDA) の性能が妙に低いが原因は不明
ID Model Device CV Public LB Private LB
1 CB CPU 0.79097 0.79388 0.80172
2 CB GPU 0.79114 0.79366 0.80164
3 XGB CPU 0.78799 0.79143 0.79944
4 XGB GPU 0.78807 0.79097 0.79974
5 LGB CPU 0.78822 0.79061 0.79948
6 LGB GPU(CUDA) 0.77396 0.77596 0.78441
追加実験 – 学習・推論速度比較
◦ 今まで比較したことが無かったが、学習速度(CPU)は LGB > CB >> XGB
◦ 学習速度(GPU)は CB > XGB > LGB
◦ 推論速度(CPU)は CB > XGB > LGB
ID Model Device 合計
iteration
学習時間
(sec)
学習時間/iter
(ms/it)
推論時間
(sec)
推論時間/iter
(ms/it)
1 CB CPU 5309 1818.29 342.50 10.70 2.02
2 CB GPU 5038 305.06 60.55 11.10 2.20
3 XGB CPU 1870 21738.02 11624.61 14.29 7.64
4 XGB GPU 1714 139.88 81.61 17.45 10.18
5 LGB CPU 1867 401.55 215.08 40.50 21.69
6 LGB GPU(CUDA) 755 155.16 205.52 34.00 45.03
※特に推論速度についてはそのときのCPUの調子にもよるかも
追加実験 – まとめ
性能についてはデータにも tuning にもよるので一概には言えない
◦ ただ LightGBM(CUDA) についてだけは何かおかしい気がする
◦ CPU に比べてやたらと早く early stopping がかかっていた
◦ Build をミスったのか、それとも CatBoost 同様に”ひみつ”があるのか...
学習速度について
◦ CatBoost(CPU)が遅いと言われがちだが実はXGBoost(CPU)の方がめちゃくちゃ遅い
◦ ただし Categorical Feature が沢山あったりすると話は変わるかも
◦ GPUについては CatBoost > XGBoost、LightGBM は CPU とほぼ一緒
推論速度について
◦ CatBoost が圧倒的に速い
◦ Iteration 数が少ないので目立っていないが LightGBM はやはり遅い
おしまい
???「みんなも GBMon、ゲットじゃぞ!」
1 of 30

Recommended

最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング by
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリングmlm_kansai
67.5K views43 slides
Triplet Loss 徹底解説 by
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
11.4K views46 slides
モデル高速化百選 by
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
24.7K views64 slides
Kaggleのテクニック by
KaggleのテクニックKaggleのテクニック
KaggleのテクニックYasunori Ozaki
24.6K views30 slides
backbone としての timm 入門 by
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門Takuji Tahara
7.4K views19 slides
【メタサーベイ】基盤モデル / Foundation Models by
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
16.5K views63 slides

More Related Content

What's hot

研究効率化Tips Ver.2 by
研究効率化Tips Ver.2研究効率化Tips Ver.2
研究効率化Tips Ver.2cvpaper. challenge
20.2K views298 slides
Optimizer入門&最新動向 by
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
23K views21 slides
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces by
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
4.8K views34 slides
Active Learning の基礎と最近の研究 by
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Fumihiko Takahashi
942 views31 slides
ChatGPT 人間のフィードバックから強化学習した対話AI by
ChatGPT 人間のフィードバックから強化学習した対話AIChatGPT 人間のフィードバックから強化学習した対話AI
ChatGPT 人間のフィードバックから強化学習した対話AIShota Imai
106K views52 slides
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 by
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
16K views38 slides

What's hot(20)

【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces by Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP4.8K views
ChatGPT 人間のフィードバックから強化学習した対話AI by Shota Imai
ChatGPT 人間のフィードバックから強化学習した対話AIChatGPT 人間のフィードバックから強化学習した対話AI
ChatGPT 人間のフィードバックから強化学習した対話AI
Shota Imai106K views
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 by Yusuke Uchida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida16K views
マルチモーダル深層学習の研究動向 by Koichiro Mori
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
Koichiro Mori45.5K views
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling by Deep Learning JP
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
Deep Learning JP2.9K views
畳み込みニューラルネットワークの研究動向 by Yusuke Uchida
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida139.8K views
DQNからRainbowまで 〜深層強化学習の最新動向〜 by Jun Okumura
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
Jun Okumura87.1K views
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial) by RyuichiKanoh
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh25.6K views
OSS強化学習フレームワークの比較 by gree_tech
OSS強化学習フレームワークの比較OSS強化学習フレームワークの比較
OSS強化学習フレームワークの比較
gree_tech5.7K views
時系列予測にTransformerを使うのは有効か? by Fumihiko Takahashi
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi6.8K views
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing by Deep Learning JP
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP3K views
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning by Preferred Networks
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks117.3K views
Transformerを多層にする際の勾配消失問題と解決法について by Sho Takase
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase4.8K views
実践多クラス分類 Kaggle Ottoから学んだこと by nishio
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio38.6K views
2019年度チュートリアルBPE by 広樹 本間
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE
広樹 本間3.2K views
Tensor コアを使った PyTorch の高速化 by Yusuke Fujimoto
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto7.8K views

Similar to CatBoost on GPU のひみつ

【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 by
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来Preferred Networks
1.7K views111 slides
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 by
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来Preferred Networks
16.7K views115 slides
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜 by
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜	【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜 虎の穴 開発室
1.1K views30 slides
Slurmのジョブスケジューリングと実装 by
Slurmのジョブスケジューリングと実装Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装Ryuichi Sakamoto
1.9K views34 slides
Isca13 study by
Isca13 studyIsca13 study
Isca13 studyToshiya Komoda
1.6K views20 slides
04 これが(多分)最後! ベンチマークs by
04 これが(多分)最後! ベンチマークs04 これが(多分)最後! ベンチマークs
04 これが(多分)最後! ベンチマークsMonta Yashi
520 views27 slides

Similar to CatBoost on GPU のひみつ(20)

【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 by Preferred Networks
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
Preferred Networks1.7K views
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 by Preferred Networks
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
Preferred Networks16.7K views
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜 by 虎の穴 開発室
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜	【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜
虎の穴 開発室1.1K views
Slurmのジョブスケジューリングと実装 by Ryuichi Sakamoto
Slurmのジョブスケジューリングと実装Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装
Ryuichi Sakamoto1.9K views
04 これが(多分)最後! ベンチマークs by Monta Yashi
04 これが(多分)最後! ベンチマークs04 これが(多分)最後! ベンチマークs
04 これが(多分)最後! ベンチマークs
Monta Yashi520 views
AWS Step FunctionとLambdaでディープラーニングの訓練を全自動化する by mizugokoro
AWS Step FunctionとLambdaでディープラーニングの訓練を全自動化するAWS Step FunctionとLambdaでディープラーニングの訓練を全自動化する
AWS Step FunctionとLambdaでディープラーニングの訓練を全自動化する
mizugokoro29.4K views
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2 by Preferred Networks
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Preferred Networks1.5K views
grn_ts の紹介 - Groonga Meatup 2015 by s5yata
grn_ts の紹介 - Groonga Meatup 2015grn_ts の紹介 - Groonga Meatup 2015
grn_ts の紹介 - Groonga Meatup 2015
s5yata1.6K views
20221116_DBTS_PGStrom_History by Kohei KaiGai
20221116_DBTS_PGStrom_History20221116_DBTS_PGStrom_History
20221116_DBTS_PGStrom_History
Kohei KaiGai125 views
Routerboard勉強会 tips by kometch H
Routerboard勉強会 tipsRouterboard勉強会 tips
Routerboard勉強会 tips
kometch H4.7K views
「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場 by 幸智 Yukinori 黒田 Kuroda
「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場
「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境 by 智啓 出川
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境
智啓 出川2.3K views
AWSとGPUインスタンスのご紹介 by Yasuhiro Matsuo
AWSとGPUインスタンスのご紹介AWSとGPUインスタンスのご紹介
AWSとGPUインスタンスのご紹介
Yasuhiro Matsuo2.8K views
俺的 Ignite update 萌えポイント portal&arm, compute, network - by Yui Ashikaga
俺的 Ignite update 萌えポイント   portal&arm, compute, network -俺的 Ignite update 萌えポイント   portal&arm, compute, network -
俺的 Ignite update 萌えポイント portal&arm, compute, network -
Yui Ashikaga1K views
20170310_InDatabaseAnalytics_#1 by Kohei KaiGai
20170310_InDatabaseAnalytics_#120170310_InDatabaseAnalytics_#1
20170310_InDatabaseAnalytics_#1
Kohei KaiGai6.7K views
1070: CUDA プログラミング入門 by NVIDIA Japan
1070: CUDA プログラミング入門1070: CUDA プログラミング入門
1070: CUDA プログラミング入門
NVIDIA Japan7.6K views

Recently uploaded

The Things Stack説明資料 by The Things Industries by
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things IndustriesCRI Japan, Inc.
51 views29 slides
Web3 Career_クレデン資料 .pdf by
Web3 Career_クレデン資料 .pdfWeb3 Career_クレデン資料 .pdf
Web3 Career_クレデン資料 .pdfnanamatsuo
16 views9 slides
Windows 11 information that can be used at the development site by
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development siteAtomu Hidaka
80 views41 slides
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) by
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)NTT DATA Technology & Innovation
18 views38 slides
さくらのひやおろし2023 by
さくらのひやおろし2023さくらのひやおろし2023
さくらのひやおろし2023法林浩之
94 views58 slides
SSH応用編_20231129.pdf by
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdficebreaker4
287 views13 slides

Recently uploaded(11)

The Things Stack説明資料 by The Things Industries by CRI Japan, Inc.
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.51 views
Web3 Career_クレデン資料 .pdf by nanamatsuo
Web3 Career_クレデン資料 .pdfWeb3 Career_クレデン資料 .pdf
Web3 Career_クレデン資料 .pdf
nanamatsuo16 views
Windows 11 information that can be used at the development site by Atomu Hidaka
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development site
Atomu Hidaka80 views
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) by NTT DATA Technology & Innovation
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
さくらのひやおろし2023 by 法林浩之
さくらのひやおろし2023さくらのひやおろし2023
さくらのひやおろし2023
法林浩之94 views
SSH応用編_20231129.pdf by icebreaker4
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdf
icebreaker4287 views
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... by NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
SNMPセキュリティ超入門 by mkoda
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門
mkoda301 views

CatBoost on GPU のひみつ