SlideShare a Scribd company logo
『Pythonによる AI・機械学習・
 深層学習アプリのつくり方』を
GoogleColabで動く限り動かしてみた
2021/08/19 (PyData.Fukuoka #13)
@takegg0311
自己紹介
江口武宏
略歴
鹿児島出身
ゲームのデバッガー、地域のデザイン振興事業受託運営、
ネットプリントシステム保守、電子カルテ補助アプリ開発
などを経て、現在は某社の社内システム開発を担当中
業務で使用している言語等
VBnet、Kotlin、PHP、tableau、RPA(UiPath)など
個人的に使用している言語等
GoogleAppsScript、Pythonなど
最近の出来事
11年モノのHDDが壊れました
参考書籍紹介
Pythonによる AI・機械学習・深層学習アプリのつくり方
私が持っているのは2018/6/29発行の初版 →
https://www.amazon.co.jp/dp/4802611641/
半年前に第二版が出たそうです
https://www.amazon.co.jp/dp/4802612796/
GitHubからすぐに使えるサンプルデータをダウンロード可能。
著者:クジラ飛行机さん
テキスト音楽「サクラ」、日本語プログラミング言語「なでしこ」
などを開発されてきた方。
参考書籍紹介
機械学習によるAND回路モデル作成から、ディープラーニングによる料理写真の判別まで。
アヤメの分類・手書き数字判定は、
scikit-learnとTensorFlowそれぞれで取り上げ。
紹介されている実践方法は
2通り。
・Google Colaboratory
「制約はあるが、大半のプログラムは試すことが出来る
」と記載されています
・Jupyter Notebook
第2章以降は基本的にJupyterNotebookでの実践例で進められています
→どこまでGoogleColabで実践できるのか?
共通の注意点
GoogleDriveマウントとパス修正
前回のハンズオンでも詰まりどころでしたが、
GoogleDrive上のファイルを読み込む場合、
GoogleDriveをマウントする必要あります。
複数セッションが動いていたりすると認証に手間が掛かることも。
共通の注意点
GoogleDriveマウントとパス修正
そのうえで更に、パス指定箇所を書き換えが必要です。
パスだと分かりづらいところも幾つかあったり。
# アヤメデータの読み込み --- (*1)
iris_data = pd.read_csv("/content/drive/MyDrive/技術勉強会/20210819 PyDataFukuoka#13/~
# アヤメデータの読み込み --- (*1)
iris_data = pd.read_csv("iris.csv", encoding="utf-8")
第2章 機械学習入門
実践内容
 サンプルデータ
 実行

機械学習でAND回路モデルを作成 
 不要
 OK

アヤメの分類(scikit-learn・SVC) 
 同梱

ダウンロード例も掲載

 OK

ワインの品質分析
 不要

ipynbそのままでも動く

 OK

気象データの解析
 同梱
 OK

アヤメの分類(アルゴリズム選定) 
 同梱
 OK

第3章 OpenCVと機械学習 - 画像・動画入門
実践内容
 サンプルデータ
 実行

OpenCV画像処理の基礎 
 同梱
 OK

顔検出してモザイク処理 
 同梱

外部pyファイルの

importに注意

手書き数字判定(scikit-learn・SVC) 
 不要

データセット使用

OK

輪郭抽出で郵便番号認識 
 同梱

外部pyファイルの

importに注意

Webカメラ動画解析
 同梱
 NG

コマンドライン実行

mp4動画解析で熱帯魚を抽出 
 同梱
 OK

第4章 自然言語処理
実践内容
 サンプルデータ
 実行

日本語・英語・タイ語の言語判定 
 同梱
 OK

MeCabで形態素解析 
 同梱

MeCab・NEologdの

importを要修正

Word2Vecで単語のベクトル化 
 別途必要

DockerコマンドでDL


――

Doc2Vecで文章を分類 
 不要

青空文庫からDL

MeCab・NEologdの

importを要修正

マルコフ連鎖で自動作文 
 別途必要

自分で言葉を教える


MeCab・NEologdの

importを要修正

スパム投稿判定
 別途必要

GitHubの別repo

MeCab・NEologdの

importを要修正

mecab-ipadic-NEologdをColabで使う
Google ColabにMeCabとipadic-NEologdをインストールする - Qiita (Yuichi Sugitaさん)

https://qiita.com/jun40vn/items/78e33e29dce3d50c2df1 

先に下記のインストールコマンドを実行
# 形態素分析ライブラリーMeCab と 辞書(mecab-ipadic-NEologd)のインストール 

!apt-get -q -y install sudo file mecab libmecab-dev mecab-ipadic-utf8 git curl python-mecab > /dev/null

!git clone --depth 1 https://github.com/neologd/mecab-ipadic-neologd.git > /dev/null 

!echo yes | mecab-ipadic-neologd/bin/install-mecab-ipadic-neologd -n > /dev/null 2>&1

!pip install mecab-python3 > /dev/null



# シンボリックリンクによるエラー回避

!ln -s /etc/mecabrc /usr/local/etc/mecabrc

mecab-ipadic-NEologdをColabで使う
Google ColabにMeCabとipadic-NEologdをインストールする - Qiita (Yuichi Sugitaさん)

https://qiita.com/jun40vn/items/78e33e29dce3d50c2df1 

Taggerパスも書き換え
# mecab-ipadic-NEologd辞書を指定して、MeCabオブジェクトの生成 --- (*1)
tagger = MeCab.Tagger("-d /var/lib/mecab/dic/mecab-ipadic-neologd")

# mecab-ipadic-NEologd辞書を指定して、MeCabオブジェクトの生成 --- (*1)
tagger = MeCab.Tagger("-d /usr/lib/x86_64-linux-gnu/mecab/dic/mecab-ipadic-neologd")

第4章-6節 スパム投稿判定サンプルデータ
旧版でlivedoorニュースコーパスから
自分で収集すると案内されていた
非スパムテキストも用意されたのは
手間が省けて楽になった…のですが、
非スパムテキストはShiftJISなので
ファイル読み込み時の文字コードを
ShiftJISに揃える必要あり。
# ファイルを読む --- (*4)
def read_file(filename, label):
words = []
# ファイルの内容を読む
with open(filename, "rt", encoding="utf-8") as f:
text = f.read()
# ファイルを読む --- (*4)
def read_file(filename, label):
words = []
# ファイルの内容を読む
with open(filename, "rt", encoding="sjis") as f:
text = f.read()
第4章-6節 スパム投稿判定サンプルデータ
旧版でlivedoorニュースコーパスから
自分で収集すると案内されていた
非スパムテキストも用意されたのは
手間が省けて楽になった…のですが、
非スパムテキストはShiftJISなので
ファイル読み込み時の文字コードを
ShiftJISに揃える必要あり。
加えて、スパムテキストデータの
「00220.txt」は中国語らしく、
ShiftJISで読み込めないので
予め省いておいた方がよさそう。
<ipython-input-5-bca86d760f62> in read_file(filename, label)
4 # ファイルの内容を読む
5 with open(filename, "rt", encoding="sjis") as f:
----> 6 text = f.read()
7 files.append({
8 "label": label,
UnicodeDecodeError: 'shift_jis' codec can't decode byte 0xfb in position
87: illegal multibyte sequence
第5章 ディープラーニングについて
実践内容
 サンプルデータ
 実行

TensorFlowのデータフローグラフ生成 

(題材が足し算掛け算からジャンケンに変わった模様)


同梱

学習済みモデルあり


OK

アヤメの分類(TensorFlow) 
 同梱
 OK

手書き数字判定(TensorFlow+Keras) 
 不要

データセット使用

RMSpropの
importを要修正
写真の物体認識(CIFAR-10分類) 
 不要

データセット使用

RMSpropの
importを要修正
カタカナ画像の分類 
 別途必要

ETL文字データ

RMSpropの
importを要修正
RMSpropのimportエラー
RMSpropをインポートすると
インポートエラーになったため、
TensorFlowリファレンスを参考に
RMSpropを使用している箇所を
右記のように書き替えました。
from keras.optimizers import RMSprop
# モデルを構築 --- (*3)
model.compile(
loss='categorical_crossentropy',
optimizer=RMSprop(),
metrics=['accuracy'])
import tensorflow as tf
#from keras.optimizers import RMSprop
# モデルを構築 --- (*3)
model.compile(
loss='categorical_crossentropy',
optimizer=tf.keras.optimizers.RMSprop(),
metrics=['accuracy'])
第6章 機械学習で業務を効率化しよう
実践内容
 サンプルデータ
 実行

学習モデルの保存と読み込み 
 同梱
 OK

ニュース記事のジャンル分け・Webアプリ化 

別途必要

livedoorコーパス

データ数合わず?

Colabには不向き

MeCab・NEologdの

importを要修正
外部pyファイルの

importに注意
SQLiteから体型データの分類 
 不要

処理内で生成

OK
料理写真の判定

別途必要

Flickr API + 選定

Colabには不向き

RMSpropの
importを要修正
マスクしていない人を見つける 

(新装版で新しく追加された題材)


別途必要

自前で顔写真600枚


未確認
ニュース記事のジャンル分け
ニュース記事のジャンル分けは 

livedoorコーパスからテキストをDLして使用しようとしましたが 

TF-IDFのデータベースを読み込むところでデータ数が合わなかったようでエラーに。 



ただ、これを差し引いても、生成されたデータが1.4GBと、 

GoogleDriveに置くには大容量になったため、Colabでの実行はおすすめしません。 

/usr/local/lib/python3.7/dist-packages/sklearn/utils/validation.py in check_consistent_length(*arrays)
210 if len(uniques) > 1:
211 raise ValueError("Found input variables with inconsistent numbers of"
--> 212 " samples: %r" % [int(l) for l in lengths])
213
214
ValueError: Found input variables with inconsistent numbers of samples: [3514, 3510]
料理写真の判定における画像選定
Flickrから取得してきた写真データ300枚×3種の中から、 

学習用データとして合わない写真を選定する必要がありますが、 

GoogleDrive上でのサムネイル画像表示は時間が掛かることがあるので、 

可能であればローカルに一度落としてから選定した方が良さそう。 

「寿司」の画像を取得したら
食べ終わったあとの写真や
すしざんまいの店頭の写真が入っていたり。
ご静聴
ありがとうございました

More Related Content

What's hot

10分でわかるPythonの開発環境
10分でわかるPythonの開発環境10分でわかるPythonの開発環境
10分でわかるPythonの開発環境
Hisao Soyama
 
「Python言語」はじめの一歩 / First step of Python
「Python言語」はじめの一歩 / First step of Python「Python言語」はじめの一歩 / First step of Python
「Python言語」はじめの一歩 / First step of Python
Takanori Suzuki
 
モバイルバックエンドもPythonでヨーソロー!
モバイルバックエンドもPythonでヨーソロー!モバイルバックエンドもPythonでヨーソロー!
モバイルバックエンドもPythonでヨーソロー!
Yuya Oka
 
DBエンジニアに必要だったPythonのスキル
DBエンジニアに必要だったPythonのスキルDBエンジニアに必要だったPythonのスキル
DBエンジニアに必要だったPythonのスキル
Satoshi Yamada
 
Python界隈の翻訳プロジェクト
Python界隈の翻訳プロジェクトPython界隈の翻訳プロジェクト
Python界隈の翻訳プロジェクト
Tetsuya Morimoto
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyoShuyo Nakatani
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
敦志 金谷
 
深層学習ライブラリのプログラミングモデル
深層学習ライブラリのプログラミングモデル深層学習ライブラリのプログラミングモデル
深層学習ライブラリのプログラミングモデル
Yuta Kashino
 
pythonでemlファイルを扱う話
pythonでemlファイルを扱う話pythonでemlファイルを扱う話
pythonでemlファイルを扱う話
Satoshi Yamada
 
ぼくとしりとりの約3.0*10^3日間戦争
ぼくとしりとりの約3.0*10^3日間戦争ぼくとしりとりの約3.0*10^3日間戦争
ぼくとしりとりの約3.0*10^3日間戦争Eric Sartre
 
Pythonのすすめ
PythonのすすめPythonのすすめ
Pythonのすすめ
Masashi Shibata
 
IntelliJ IDEAで快適なPython生活
IntelliJ IDEAで快適なPython生活IntelliJ IDEAで快適なPython生活
IntelliJ IDEAで快適なPython生活
敦志 金谷
 
Python 2/3コード共存戦略 #osakapy
Python 2/3コード共存戦略 #osakapyPython 2/3コード共存戦略 #osakapy
Python 2/3コード共存戦略 #osakapy
敦志 金谷
 
Jupyter notebook
Jupyter notebookJupyter notebook
Jupyter notebook
亮吾 守屋
 
14対話bot発表資料
14対話bot発表資料14対話bot発表資料
14対話bot発表資料
Keiichirou Miyamoto
 
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)
mosa siru
 
グラフデータベース「Neo4j」の 導入の導入(続き)-Cypherの基本のキ-
 グラフデータベース「Neo4j」の 導入の導入(続き)-Cypherの基本のキ- グラフデータベース「Neo4j」の 導入の導入(続き)-Cypherの基本のキ-
グラフデータベース「Neo4j」の 導入の導入(続き)-Cypherの基本のキ-Hisao Soyama
 
第3回メドレー読書会後半
第3回メドレー読書会後半第3回メドレー読書会後半
第3回メドレー読書会後半
Kazuhiro Himoto
 
OSS Study#19_LT
OSS Study#19_LTOSS Study#19_LT
OSS Study#19_LT
NaoY-2501
 

What's hot (20)

10分でわかるPythonの開発環境
10分でわかるPythonの開発環境10分でわかるPythonの開発環境
10分でわかるPythonの開発環境
 
「Python言語」はじめの一歩 / First step of Python
「Python言語」はじめの一歩 / First step of Python「Python言語」はじめの一歩 / First step of Python
「Python言語」はじめの一歩 / First step of Python
 
モバイルバックエンドもPythonでヨーソロー!
モバイルバックエンドもPythonでヨーソロー!モバイルバックエンドもPythonでヨーソロー!
モバイルバックエンドもPythonでヨーソロー!
 
DBエンジニアに必要だったPythonのスキル
DBエンジニアに必要だったPythonのスキルDBエンジニアに必要だったPythonのスキル
DBエンジニアに必要だったPythonのスキル
 
Python3でwebアプリ
Python3でwebアプリPython3でwebアプリ
Python3でwebアプリ
 
Python界隈の翻訳プロジェクト
Python界隈の翻訳プロジェクトPython界隈の翻訳プロジェクト
Python界隈の翻訳プロジェクト
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
 
深層学習ライブラリのプログラミングモデル
深層学習ライブラリのプログラミングモデル深層学習ライブラリのプログラミングモデル
深層学習ライブラリのプログラミングモデル
 
pythonでemlファイルを扱う話
pythonでemlファイルを扱う話pythonでemlファイルを扱う話
pythonでemlファイルを扱う話
 
ぼくとしりとりの約3.0*10^3日間戦争
ぼくとしりとりの約3.0*10^3日間戦争ぼくとしりとりの約3.0*10^3日間戦争
ぼくとしりとりの約3.0*10^3日間戦争
 
Pythonのすすめ
PythonのすすめPythonのすすめ
Pythonのすすめ
 
IntelliJ IDEAで快適なPython生活
IntelliJ IDEAで快適なPython生活IntelliJ IDEAで快適なPython生活
IntelliJ IDEAで快適なPython生活
 
Python 2/3コード共存戦略 #osakapy
Python 2/3コード共存戦略 #osakapyPython 2/3コード共存戦略 #osakapy
Python 2/3コード共存戦略 #osakapy
 
Jupyter notebook
Jupyter notebookJupyter notebook
Jupyter notebook
 
14対話bot発表資料
14対話bot発表資料14対話bot発表資料
14対話bot発表資料
 
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)
 
グラフデータベース「Neo4j」の 導入の導入(続き)-Cypherの基本のキ-
 グラフデータベース「Neo4j」の 導入の導入(続き)-Cypherの基本のキ- グラフデータベース「Neo4j」の 導入の導入(続き)-Cypherの基本のキ-
グラフデータベース「Neo4j」の 導入の導入(続き)-Cypherの基本のキ-
 
第3回メドレー読書会後半
第3回メドレー読書会後半第3回メドレー読書会後半
第3回メドレー読書会後半
 
OSS Study#19_LT
OSS Study#19_LTOSS Study#19_LT
OSS Study#19_LT
 

Similar to 『Pythonによる ai・機械学習・深層学習アプリのつくり方』をGoogleColabで動く限り動かしてみた

Pelicanによる www.python.jpの構築
Pelicanによる www.python.jpの構築Pelicanによる www.python.jpの構築
Pelicanによる www.python.jpの構築
Atsuo Ishimoto
 
Hacking Robotics
Hacking RoboticsHacking Robotics
Hacking Robotics
Kensei Demura
 
オープンソースのETLツール Pentaho Data Integration(PDI)のご紹介_20140906
オープンソースのETLツール Pentaho Data Integration(PDI)のご紹介_20140906オープンソースのETLツール Pentaho Data Integration(PDI)のご紹介_20140906
オープンソースのETLツール Pentaho Data Integration(PDI)のご紹介_20140906
Teruo Kawasaki
 
第2回名古屋SoftLayer勉強会 PBOX on SoftLayer
第2回名古屋SoftLayer勉強会 PBOX on SoftLayer第2回名古屋SoftLayer勉強会 PBOX on SoftLayer
第2回名古屋SoftLayer勉強会 PBOX on SoftLayer
Shuichi Yukimoto
 
「Python言語」はじめの一歩 / First step of Python / 2016 Jan 12
「Python言語」はじめの一歩 / First step of Python / 2016 Jan 12「Python言語」はじめの一歩 / First step of Python / 2016 Jan 12
「Python言語」はじめの一歩 / First step of Python / 2016 Jan 12
Takanori Suzuki
 
徳丸本に学ぶ 安全なPHPアプリ開発の鉄則2011
徳丸本に学ぶ 安全なPHPアプリ開発の鉄則2011徳丸本に学ぶ 安全なPHPアプリ開発の鉄則2011
徳丸本に学ぶ 安全なPHPアプリ開発の鉄則2011Hiroshi Tokumaru
 
Python × Herokuで作る 雑談slack bot
Python × Herokuで作る 雑談slack botPython × Herokuで作る 雑談slack bot
Python × Herokuで作る 雑談slack bot
dcubeio
 
SoftLayerオブジェクトストレージと連携サービスPBOXについて
SoftLayerオブジェクトストレージと連携サービスPBOXについてSoftLayerオブジェクトストレージと連携サービスPBOXについて
SoftLayerオブジェクトストレージと連携サービスPBOXについてShuichi Yukimoto
 
最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス
Masato Fujitake
 
パーソナルデータのあり方を変える!オープンソース分散型PDS「Personium」を使ってみよう!
パーソナルデータのあり方を変える!オープンソース分散型PDS「Personium」を使ってみよう!パーソナルデータのあり方を変える!オープンソース分散型PDS「Personium」を使ってみよう!
パーソナルデータのあり方を変える!オープンソース分散型PDS「Personium」を使ってみよう!
泰史 栃折
 
PHP でファイルシステムを作ろう
PHP でファイルシステムを作ろうPHP でファイルシステムを作ろう
PHP でファイルシステムを作ろう
shinjiigarashi
 
OSS開発勉強会-01B
OSS開発勉強会-01BOSS開発勉強会-01B
OSS開発勉強会-01B
Kohei KaiGai
 
cs-10. Python の基礎(オブジェクト,メソッド,引数,文字列)
cs-10. Python の基礎(オブジェクト,メソッド,引数,文字列) cs-10. Python の基礎(オブジェクト,メソッド,引数,文字列)
cs-10. Python の基礎(オブジェクト,メソッド,引数,文字列)
kunihikokaneko1
 
ownCloud のあれこれ July Tech Festa 2016
ownCloud のあれこれ July Tech Festa 2016ownCloud のあれこれ July Tech Festa 2016
ownCloud のあれこれ July Tech Festa 2016
Tetsurou Yano
 
Pythonインタラクティブ・データビジュアライゼーション入門という本を共著で書きました
Pythonインタラクティブ・データビジュアライゼーション入門という本を共著で書きましたPythonインタラクティブ・データビジュアライゼーション入門という本を共著で書きました
Pythonインタラクティブ・データビジュアライゼーション入門という本を共著で書きました
hide ogawa
 
Sphinx ではじめるドキュメント生活 2012 #pyconjp #sphinxconjp
Sphinx ではじめるドキュメント生活 2012 #pyconjp #sphinxconjpSphinx ではじめるドキュメント生活 2012 #pyconjp #sphinxconjp
Sphinx ではじめるドキュメント生活 2012 #pyconjp #sphinxconjpTakeshi Komiya
 
ぼくのかんがえたさいきょうのうぇぶあぷりけーしょんふれーむわーく - YAPC Asia 2011
ぼくのかんがえたさいきょうのうぇぶあぷりけーしょんふれーむわーく - YAPC Asia 2011ぼくのかんがえたさいきょうのうぇぶあぷりけーしょんふれーむわーく - YAPC Asia 2011
ぼくのかんがえたさいきょうのうぇぶあぷりけーしょんふれーむわーく - YAPC Asia 2011Hiroh Satoh
 
最新UE4タイトルでのローカライズ事例 (UE4 Localization Deep Dive)
最新UE4タイトルでのローカライズ事例 (UE4 Localization Deep Dive)最新UE4タイトルでのローカライズ事例 (UE4 Localization Deep Dive)
最新UE4タイトルでのローカライズ事例 (UE4 Localization Deep Dive)
エピック・ゲームズ・ジャパン Epic Games Japan
 
Pyconjp2016 pyftplib
Pyconjp2016 pyftplibPyconjp2016 pyftplib
Pyconjp2016 pyftplib
Shinya Okano
 

Similar to 『Pythonによる ai・機械学習・深層学習アプリのつくり方』をGoogleColabで動く限り動かしてみた (20)

Pelicanによる www.python.jpの構築
Pelicanによる www.python.jpの構築Pelicanによる www.python.jpの構築
Pelicanによる www.python.jpの構築
 
Hacking Robotics
Hacking RoboticsHacking Robotics
Hacking Robotics
 
オープンソースのETLツール Pentaho Data Integration(PDI)のご紹介_20140906
オープンソースのETLツール Pentaho Data Integration(PDI)のご紹介_20140906オープンソースのETLツール Pentaho Data Integration(PDI)のご紹介_20140906
オープンソースのETLツール Pentaho Data Integration(PDI)のご紹介_20140906
 
第2回名古屋SoftLayer勉強会 PBOX on SoftLayer
第2回名古屋SoftLayer勉強会 PBOX on SoftLayer第2回名古屋SoftLayer勉強会 PBOX on SoftLayer
第2回名古屋SoftLayer勉強会 PBOX on SoftLayer
 
「Python言語」はじめの一歩 / First step of Python / 2016 Jan 12
「Python言語」はじめの一歩 / First step of Python / 2016 Jan 12「Python言語」はじめの一歩 / First step of Python / 2016 Jan 12
「Python言語」はじめの一歩 / First step of Python / 2016 Jan 12
 
徳丸本に学ぶ 安全なPHPアプリ開発の鉄則2011
徳丸本に学ぶ 安全なPHPアプリ開発の鉄則2011徳丸本に学ぶ 安全なPHPアプリ開発の鉄則2011
徳丸本に学ぶ 安全なPHPアプリ開発の鉄則2011
 
Python × Herokuで作る 雑談slack bot
Python × Herokuで作る 雑談slack botPython × Herokuで作る 雑談slack bot
Python × Herokuで作る 雑談slack bot
 
SoftLayerオブジェクトストレージと連携サービスPBOXについて
SoftLayerオブジェクトストレージと連携サービスPBOXについてSoftLayerオブジェクトストレージと連携サービスPBOXについて
SoftLayerオブジェクトストレージと連携サービスPBOXについて
 
最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス
 
パーソナルデータのあり方を変える!オープンソース分散型PDS「Personium」を使ってみよう!
パーソナルデータのあり方を変える!オープンソース分散型PDS「Personium」を使ってみよう!パーソナルデータのあり方を変える!オープンソース分散型PDS「Personium」を使ってみよう!
パーソナルデータのあり方を変える!オープンソース分散型PDS「Personium」を使ってみよう!
 
osakapy 2014.05 LT
osakapy 2014.05 LTosakapy 2014.05 LT
osakapy 2014.05 LT
 
PHP でファイルシステムを作ろう
PHP でファイルシステムを作ろうPHP でファイルシステムを作ろう
PHP でファイルシステムを作ろう
 
OSS開発勉強会-01B
OSS開発勉強会-01BOSS開発勉強会-01B
OSS開発勉強会-01B
 
cs-10. Python の基礎(オブジェクト,メソッド,引数,文字列)
cs-10. Python の基礎(オブジェクト,メソッド,引数,文字列) cs-10. Python の基礎(オブジェクト,メソッド,引数,文字列)
cs-10. Python の基礎(オブジェクト,メソッド,引数,文字列)
 
ownCloud のあれこれ July Tech Festa 2016
ownCloud のあれこれ July Tech Festa 2016ownCloud のあれこれ July Tech Festa 2016
ownCloud のあれこれ July Tech Festa 2016
 
Pythonインタラクティブ・データビジュアライゼーション入門という本を共著で書きました
Pythonインタラクティブ・データビジュアライゼーション入門という本を共著で書きましたPythonインタラクティブ・データビジュアライゼーション入門という本を共著で書きました
Pythonインタラクティブ・データビジュアライゼーション入門という本を共著で書きました
 
Sphinx ではじめるドキュメント生活 2012 #pyconjp #sphinxconjp
Sphinx ではじめるドキュメント生活 2012 #pyconjp #sphinxconjpSphinx ではじめるドキュメント生活 2012 #pyconjp #sphinxconjp
Sphinx ではじめるドキュメント生活 2012 #pyconjp #sphinxconjp
 
ぼくのかんがえたさいきょうのうぇぶあぷりけーしょんふれーむわーく - YAPC Asia 2011
ぼくのかんがえたさいきょうのうぇぶあぷりけーしょんふれーむわーく - YAPC Asia 2011ぼくのかんがえたさいきょうのうぇぶあぷりけーしょんふれーむわーく - YAPC Asia 2011
ぼくのかんがえたさいきょうのうぇぶあぷりけーしょんふれーむわーく - YAPC Asia 2011
 
最新UE4タイトルでのローカライズ事例 (UE4 Localization Deep Dive)
最新UE4タイトルでのローカライズ事例 (UE4 Localization Deep Dive)最新UE4タイトルでのローカライズ事例 (UE4 Localization Deep Dive)
最新UE4タイトルでのローカライズ事例 (UE4 Localization Deep Dive)
 
Pyconjp2016 pyftplib
Pyconjp2016 pyftplibPyconjp2016 pyftplib
Pyconjp2016 pyftplib
 

『Pythonによる ai・機械学習・深層学習アプリのつくり方』をGoogleColabで動く限り動かしてみた