Submit Search
Upload
画像認識モデルを自動的に作る。1日以内に。~Simple And Efficient Architecture Search for Convolutional Neural Networks~
•
6 likes
•
6,850 views
Takahiro Kubo
Follow
arXivTimes輪講 2017/12/20資料
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 23
Download now
Download to read offline
Recommended
機械学習の力を引き出すための依存性管理
機械学習の力を引き出すための依存性管理
Takahiro Kubo
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018
Takahiro Kubo
文章を読み、理解する機能の獲得に向けて-Machine Comprehensionの研究動向-
文章を読み、理解する機能の獲得に向けて-Machine Comprehensionの研究動向-
Takahiro Kubo
ACL2018の歩き方
ACL2018の歩き方
Takahiro Kubo
Reinforcement Learning Inside Business
Reinforcement Learning Inside Business
Takahiro Kubo
機械学習のマイクロサービスでの運用の実験について #mlops
機械学習のマイクロサービスでの運用の実験について #mlops
Hiroaki Kudo
kintone Cafe Japan 2016: kintone x 機械学習で実現する簡単名刺管理
kintone Cafe Japan 2016: kintone x 機械学習で実現する簡単名刺管理
Takahiro Kubo
「人工知能」をあなたのビジネスで活用するには
「人工知能」をあなたのビジネスで活用するには
Takahiro Kubo
Recommended
機械学習の力を引き出すための依存性管理
機械学習の力を引き出すための依存性管理
Takahiro Kubo
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018
Takahiro Kubo
文章を読み、理解する機能の獲得に向けて-Machine Comprehensionの研究動向-
文章を読み、理解する機能の獲得に向けて-Machine Comprehensionの研究動向-
Takahiro Kubo
ACL2018の歩き方
ACL2018の歩き方
Takahiro Kubo
Reinforcement Learning Inside Business
Reinforcement Learning Inside Business
Takahiro Kubo
機械学習のマイクロサービスでの運用の実験について #mlops
機械学習のマイクロサービスでの運用の実験について #mlops
Hiroaki Kudo
kintone Cafe Japan 2016: kintone x 機械学習で実現する簡単名刺管理
kintone Cafe Japan 2016: kintone x 機械学習で実現する簡単名刺管理
Takahiro Kubo
「人工知能」をあなたのビジネスで活用するには
「人工知能」をあなたのビジネスで活用するには
Takahiro Kubo
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
Takahiro Kubo
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
Takahiro Kubo
機械学習技術の紹介
機械学習技術の紹介
Takahiro Kubo
Cross-modality meta-survey of dataset
Cross-modality meta-survey of dataset
cvpaper. challenge
機械学習を用いた会議診断システムの開発
機械学習を用いた会議診断システムの開発
Takahiro Kubo
ECCV2020 オーラル論文完全読破 (2/2)
ECCV2020 オーラル論文完全読破 (2/2)
cvpaper. challenge
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
Machine learning 15min TensorFlow hub
Machine learning 15min TensorFlow hub
Junya Kamura
実戦投入する機械学習
実戦投入する機械学習
Takahiro Kubo
EMNLP2018 Overview
EMNLP2018 Overview
Takahiro Kubo
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留する
Takahiro Kubo
Machine Learning Bootstrap
Machine Learning Bootstrap
Takahiro Kubo
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)
cvpaper. challenge
ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617
Jun Okumura
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
Preferred Networks
TIS INTERNSHIP 2016 SUMMER
TIS INTERNSHIP 2016 SUMMER
Takahiro Kubo
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
BrainPad Inc.
Case study of DevOps for Hadoop in Recruit.
Case study of DevOps for Hadoop in Recruit.
Recruit Technologies
ディープラーニングが活かすIoT
ディープラーニングが活かすIoT
Preferred Networks
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
Deep learningの世界に飛び込む前の命綱
Deep learningの世界に飛び込む前の命綱
Junya Kamura
More Related Content
What's hot
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
Takahiro Kubo
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
Takahiro Kubo
機械学習技術の紹介
機械学習技術の紹介
Takahiro Kubo
Cross-modality meta-survey of dataset
Cross-modality meta-survey of dataset
cvpaper. challenge
機械学習を用いた会議診断システムの開発
機械学習を用いた会議診断システムの開発
Takahiro Kubo
ECCV2020 オーラル論文完全読破 (2/2)
ECCV2020 オーラル論文完全読破 (2/2)
cvpaper. challenge
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
Machine learning 15min TensorFlow hub
Machine learning 15min TensorFlow hub
Junya Kamura
実戦投入する機械学習
実戦投入する機械学習
Takahiro Kubo
EMNLP2018 Overview
EMNLP2018 Overview
Takahiro Kubo
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留する
Takahiro Kubo
Machine Learning Bootstrap
Machine Learning Bootstrap
Takahiro Kubo
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)
cvpaper. challenge
ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617
Jun Okumura
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
Preferred Networks
TIS INTERNSHIP 2016 SUMMER
TIS INTERNSHIP 2016 SUMMER
Takahiro Kubo
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
BrainPad Inc.
Case study of DevOps for Hadoop in Recruit.
Case study of DevOps for Hadoop in Recruit.
Recruit Technologies
ディープラーニングが活かすIoT
ディープラーニングが活かすIoT
Preferred Networks
What's hot
(20)
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
機械学習技術の紹介
機械学習技術の紹介
Cross-modality meta-survey of dataset
Cross-modality meta-survey of dataset
機械学習を用いた会議診断システムの開発
機械学習を用いた会議診断システムの開発
ECCV2020 オーラル論文完全読破 (2/2)
ECCV2020 オーラル論文完全読破 (2/2)
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Machine learning 15min TensorFlow hub
Machine learning 15min TensorFlow hub
実戦投入する機械学習
実戦投入する機械学習
EMNLP2018 Overview
EMNLP2018 Overview
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留する
Machine Learning Bootstrap
Machine Learning Bootstrap
Transformer メタサーベイ
Transformer メタサーベイ
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)
ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
TIS INTERNSHIP 2016 SUMMER
TIS INTERNSHIP 2016 SUMMER
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
Case study of DevOps for Hadoop in Recruit.
Case study of DevOps for Hadoop in Recruit.
ディープラーニングが活かすIoT
ディープラーニングが活かすIoT
Similar to 画像認識モデルを自動的に作る。1日以内に。~Simple And Efficient Architecture Search for Convolutional Neural Networks~
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
Deep learningの世界に飛び込む前の命綱
Deep learningの世界に飛び込む前の命綱
Junya Kamura
CNNチュートリアル
CNNチュートリアル
Ikuro Sato
20171015 mosa machine learning
20171015 mosa machine learning
Muneyoshi Benzaki
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
Preferred Networks
CoreMLによるiOS深層学習アプリの実装と性能分析
CoreMLによるiOS深層学習アプリの実装と性能分析
Ryosuke Tanno
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
Etsuji Nakai
新しいTERASOLUNA Batch Frameworkとは
新しいTERASOLUNA Batch Frameworkとは
apkiban
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
LeapMind Inc
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
KenzoOkuda
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
Deep Learning JP
Nips20180127
Nips20180127
WEBFARMER. ltd.
いきなりAi tensor flow gpuによる画像分類と生成
いきなりAi tensor flow gpuによる画像分類と生成
Yoshi Sakai
AIがAIを生み出す?
AIがAIを生み出す?
Daiki Tsuchiya
DeNAのプログラミング教育の取り組み #denatechcon
DeNAのプログラミング教育の取り組み #denatechcon
DeNA
JUIZ DLK 組込み向けDeep Learningコンパイラ
JUIZ DLK 組込み向けDeep Learningコンパイラ
LeapMind Inc
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
Preferred Networks
Dbts 分散olt pv2
Dbts 分散olt pv2
Takashi Kambayashi
大規模ソーシャルゲームを支える技術~PHP+MySQLを使った高負荷対策~
大規模ソーシャルゲームを支える技術~PHP+MySQLを使った高負荷対策~
infinite_loop
JUIZ DLK: 組込み向け Deep Learning コンパイラ
JUIZ DLK: 組込み向け Deep Learning コンパイラ
Takeo Imai
Similar to 画像認識モデルを自動的に作る。1日以内に。~Simple And Efficient Architecture Search for Convolutional Neural Networks~
(20)
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Deep learningの世界に飛び込む前の命綱
Deep learningの世界に飛び込む前の命綱
CNNチュートリアル
CNNチュートリアル
20171015 mosa machine learning
20171015 mosa machine learning
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
CoreMLによるiOS深層学習アプリの実装と性能分析
CoreMLによるiOS深層学習アプリの実装と性能分析
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
新しいTERASOLUNA Batch Frameworkとは
新しいTERASOLUNA Batch Frameworkとは
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
Nips20180127
Nips20180127
いきなりAi tensor flow gpuによる画像分類と生成
いきなりAi tensor flow gpuによる画像分類と生成
AIがAIを生み出す?
AIがAIを生み出す?
DeNAのプログラミング教育の取り組み #denatechcon
DeNAのプログラミング教育の取り組み #denatechcon
JUIZ DLK 組込み向けDeep Learningコンパイラ
JUIZ DLK 組込み向けDeep Learningコンパイラ
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
Dbts 分散olt pv2
Dbts 分散olt pv2
大規模ソーシャルゲームを支える技術~PHP+MySQLを使った高負荷対策~
大規模ソーシャルゲームを支える技術~PHP+MySQLを使った高負荷対策~
JUIZ DLK: 組込み向け Deep Learning コンパイラ
JUIZ DLK: 組込み向け Deep Learning コンパイラ
More from Takahiro Kubo
自然言語処理による企業の気候変動対策分析
自然言語処理による企業の気候変動対策分析
Takahiro Kubo
国際会計基準(IFRS)適用企業の財務評価方法
国際会計基準(IFRS)適用企業の財務評価方法
Takahiro Kubo
自然言語処理で新型コロナウィルスに立ち向かう
自然言語処理で新型コロナウィルスに立ち向かう
Takahiro Kubo
財務・非財務一体型の企業分析に向けて
財務・非財務一体型の企業分析に向けて
Takahiro Kubo
自然言語処理で読み解く金融文書
自然言語処理で読み解く金融文書
Takahiro Kubo
ESG評価を支える自然言語処理基盤の構築
ESG評価を支える自然言語処理基盤の構築
Takahiro Kubo
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
Takahiro Kubo
あるべきESG投資の評価に向けた、自然言語処理の活用
あるべきESG投資の評価に向けた、自然言語処理の活用
Takahiro Kubo
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
Takahiro Kubo
Curiosity may drives your output routine.
Curiosity may drives your output routine.
Takahiro Kubo
2018年12月4日までに『呪術廻戦』を読む理由
2018年12月4日までに『呪術廻戦』を読む理由
Takahiro Kubo
Graph Attention Network
Graph Attention Network
Takahiro Kubo
TISにおける、研究開発の方針とメソッド 2018
TISにおける、研究開発の方針とメソッド 2018
Takahiro Kubo
感情の出どころを探る、一歩進んだ感情解析
感情の出どころを探る、一歩進んだ感情解析
Takahiro Kubo
技術文書を書く際の、心技体<改訂版>
技術文書を書く際の、心技体<改訂版>
Takahiro Kubo
kintone evangelist meetup 2017
kintone evangelist meetup 2017
Takahiro Kubo
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
Takahiro Kubo
機械学習を活用するための、3本の柱~教育型の機械学習ツールの必要性~
機械学習を活用するための、3本の柱~教育型の機械学習ツールの必要性~
Takahiro Kubo
kintone Café 大阪 Vol.13 〜karuraで学ぶ、機械学習の活かし方〜
kintone Café 大阪 Vol.13 〜karuraで学ぶ、機械学習の活かし方〜
Takahiro Kubo
「人工知能」との正しい付き合い方
「人工知能」との正しい付き合い方
Takahiro Kubo
More from Takahiro Kubo
(20)
自然言語処理による企業の気候変動対策分析
自然言語処理による企業の気候変動対策分析
国際会計基準(IFRS)適用企業の財務評価方法
国際会計基準(IFRS)適用企業の財務評価方法
自然言語処理で新型コロナウィルスに立ち向かう
自然言語処理で新型コロナウィルスに立ち向かう
財務・非財務一体型の企業分析に向けて
財務・非財務一体型の企業分析に向けて
自然言語処理で読み解く金融文書
自然言語処理で読み解く金融文書
ESG評価を支える自然言語処理基盤の構築
ESG評価を支える自然言語処理基盤の構築
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
あるべきESG投資の評価に向けた、自然言語処理の活用
あるべきESG投資の評価に向けた、自然言語処理の活用
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
Curiosity may drives your output routine.
Curiosity may drives your output routine.
2018年12月4日までに『呪術廻戦』を読む理由
2018年12月4日までに『呪術廻戦』を読む理由
Graph Attention Network
Graph Attention Network
TISにおける、研究開発の方針とメソッド 2018
TISにおける、研究開発の方針とメソッド 2018
感情の出どころを探る、一歩進んだ感情解析
感情の出どころを探る、一歩進んだ感情解析
技術文書を書く際の、心技体<改訂版>
技術文書を書く際の、心技体<改訂版>
kintone evangelist meetup 2017
kintone evangelist meetup 2017
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
機械学習を活用するための、3本の柱~教育型の機械学習ツールの必要性~
機械学習を活用するための、3本の柱~教育型の機械学習ツールの必要性~
kintone Café 大阪 Vol.13 〜karuraで学ぶ、機械学習の活かし方〜
kintone Café 大阪 Vol.13 〜karuraで学ぶ、機械学習の活かし方〜
「人工知能」との正しい付き合い方
「人工知能」との正しい付き合い方
画像認識モデルを自動的に作る。1日以内に。~Simple And Efficient Architecture Search for Convolutional Neural Networks~
1.
Copyright © 2017
TIS Inc. All rights reserved. 画像認識モデルを自動的に作る。1日以内に。 戦略技術センター 久保隆宏 Simple And Efficient Architecture Search for Convolutional Neural Networks
2.
Copyright © 2017
TIS Inc. All rights reserved. 2 論文のサマリ 画像認識モデル(CNN)を自動作成する試み 提案手法 Neural Architecture Search by Hillclimbing (NASH) ネットワークの変形: Morph 徐々に変形させていく: Hillclimbing 評価 まとめ 目次
3.
Copyright © 2017
TIS Inc. All rights reserved. 3 久保隆宏 TIS株式会社 戦略技術センター 化学系メーカーの業務コンサルタント出身 既存の技術では業務改善を行える範囲に限界があるとの実感から、戦 略技術センターへと異動 現在は機械学習や自然言語処理の研究・それらを用いたシステムのプ ロトタイピングを行う 自己紹介 kintoneアプリ内にたまった データを簡単に学習・活用 (@Cybozu Days 2016) 機械学習のビジネスへの適用/ 音楽生成で同人誌ダブル出展 (@技術書典2 2017) チュートリアル講演:深層学習 の判断根拠を理解するための研 究とその意義(@PRMU 2017)
4.
Copyright © 2017
TIS Inc. All rights reserved. 4 所属するチームのミッション chakki すべての人が、ティータイムに帰れるようにする すべての人が、ティータイム(15:00)に帰れる(茶帰) 社会の実現を目指します。 この実現には、既存の仕事を効率化するのでなく、 根本的に「仕事の仕方」を変える必要があります。 しかし、慣れた仕事の仕方というのは簡単には変わ りません。だからこそ、実際に「体験」をし、効果 を「実感」してもらうことが重要になります。 そのため、私たちは先進的技術を用い、仕事の仕方 が変わる体験を提供していきます。
5.
Copyright © 2017
TIS Inc. All rights reserved. 5 chakki まずは自分たち(システム開発者)が帰れるように 自然言語処理/機械学習を活用する SumEval 要約の評価指標であるROUGEを計測するツール。オリジ ナルのPerlスクリプトとの一致評価・多言語対応を実装。 arXivTimes 論文の一言サマリをGitHub上で共有する取り組み。併せ て会社共同での論文輪講も実施中(Twitterもやってます) namaco 文字ベースの固有表現認識を行うライブラリ。janomeラ イクに、namaco.Taggerで簡単にタグ付けできる。
6.
Copyright © 2017
TIS Inc. All rights reserved. 6 Simple And Efficient Architecture Search for Convolutional Neural Networks 「ネットワークの変更」を定式化し、変更⇒評価⇒ベストなモデルの 選択⇒変更・・・と繰り返していく手法を提案(Neural Architecture Search by Hillclimbing (NASH)) これにより、CIFAR-10のエラー率6%切りを12時間、5%台を24時間 で達成 また、ランダムにCNNを構築しても6%~7%台(既存の自動構築手法の 精度に匹敵)は出てしまうことを確認 論文のサマリ
7.
Copyright © 2017
TIS Inc. All rights reserved. 7 DNNでは古くからハイパーパラメーターへの依存が大きすぎるという問題 があった。そのため、自動的に最適化できないかという研究がされてきた。 ランダムに探索 J. Bergstra and Y. Bengio. Random search for hyper-parameter optimization. 13(1):281–305, 2012. Grid Searchよりは俄然良いという結果 最適なハイパーパラメーターをサンプリングする(ベイズ最適化) J. Bergstra, R. Bardenet, Y. Bengio, and B. Kegl. Algorithms for hyper-parameter optimization. In NIPS, 2011. J. Snoek, H. Larochelle, and R.P. Adams. Practical Bayesian optimization of machine learning algorithms. In NIPS, 2012. 強化学習的に探索する 1.多腕バンディット、2.遺伝的アルゴリズム、3.explore&exploit 1. L. Li, K. G. Jamieson, G. DeSalvo, A. Rostamizadeh, and A. Talwalkar. Efficient hyperparameter optimization and infinitely many armed bandits. CoRR, abs/1603.06560, 2016a. 2. I. Loshchilov and F. Hutter. CMA-ES for hyperparameter optimization of deep neural networks. CoRR, abs/1604.07269, 2016. 3. M Jaderberg, C Fernando, K Simonyan, I Dunning, T Green, O Vinyals, A Razavi, J Donahue, W M Czarnecki, S Osindero, V Dalibard, K Kavukcuoglu. Population Based Training of Neural Networks. CoRR, abs/1711.09846, 2017. 画像認識モデル(CNN)を自動作成する試み(1/4)
8.
Copyright © 2017
TIS Inc. All rights reserved. 8 パラメーターの最適化からさらに踏み込んで、ネットワーク構造そのもの を生成するという研究が近年行われている。 ハイパーパラメーター最適化問題の枠組みで説く(構造=パラメータ) H. Mendoza, A. Klein, M. Feurer, T. Springenberg, and F. Hutter. Towards automatically-tuned neural networks. In AutoML, 2016. 強化学習ベース(現在の主流) 1.レイヤーの選択(CNN/Pooling/全結合etc)=Actionとして最適化、2.RNNで構造を出力、3.ブロックを強化学習で組み合わせる (ブロックの適正は本タスクより小さいデータセットで検証)、 1. Bowen Baker, Otkrist Gupta, Nikhil Naik, and Ramesh Raskar. Designing neural network architectures using reinforcement learning. ICLR 2017, 2016. 2. Barret Zoph and Quoc V. Le. Neural architecture search with reinforcement learning. 2017. 3. Barret Zoph, Vijay Vasudevan, Jonathon Shlens, and Quoc V. Le. Learning transferable architectures for scalable image recognition. 2017. 画像認識モデル(CNN)を自動作成する試み(2/4)
9.
Copyright © 2017
TIS Inc. All rights reserved. 9 当然だが、一つのネットワークを作成したらゼロから学習させないと精度 がわからない。そのため、必然的に計算コストは高くなる。まして強化学 習なんてやった日には・・・ Designing neural network architectures using reinforcement learning 10GPU-days x 10 run Neural architecture search with reinforcement learning 800GPUs x 28 day Learning transferable architectures for scalable image recognition 500GPUs x 4 days 画像認識モデル(CNN)を自動作成する試み(3/4) 要求される、莫大な計算資源(GPU) 人間に換算するとオール公立で 高校まで通わせるぐらいの金額
10.
Copyright © 2017
TIS Inc. All rights reserved. 10 ネットワークを作ってゼロから再学習、ではなく、ネットワークを変形さ せていくタイプの手法が検討される。本研究は、この流れの延長線上にあ る。 Tianqi Chen, Ian J. Goodfellow, and Jonathon Shlens. Net2net: Accelerating learning via knowledge transfer. arXiv preprint, 2015. Han Cai, Tianyao Chen, Weinan Zhang, Yong Yu, and Jun Wang. Reinforcement learning for architecture search by network transformation. 2017. 1 day on 5 GPU ※「変形」のタイプには、レイヤを追加したりskip connectionを入れるといったものや、大きなネットワークから「枝刈り」するなど様々 な手法がある。また、これらの中には省エネではなく強化学習と同様多くの計算リソースを要求するものもある。 画像認識モデル(CNN)を自動作成する試み(4/4)
11.
Copyright © 2017
TIS Inc. All rights reserved. 11 論文中で提案されている手法は、Neural Architecture Search by Hillclimbing (NASH)と名付けられている。その名の通り、変形を繰り 返しながら徐々に、後退することなく、精度を高めていく。 Neural Architecture Search by Hillclimbing (NASH) (1/2) small, pre-trained network 第一世代 第二世代 ・・・ ★morph morph ★
12.
Copyright © 2017
TIS Inc. All rights reserved. 12 「後退することのない変形」は以下のように定式化されている。 変形=マッピングと同等し、そのため変形前後で(レイヤーの)挙動は変わ らないという仮定を置く(以下、𝑓・𝑔はネットワークで𝑖はレイヤーの番 号)。 𝑓𝑖 𝑤 𝑖 𝑥 = 𝑔𝑖 𝑤𝑖 ~ 𝑥 𝑓𝑜𝑟 𝑒𝑣𝑒𝑟𝑦 𝑥 ∈ 𝑋 この等価性が保証される範囲で変形を行うことで、「後退」が(理論上は) 起こらないようにしている。 Neural Architecture Search by Hillclimbing (NASH) (2/2)
13.
Copyright © 2017
TIS Inc. All rights reserved. 13 変形の種類は、以下の4つが定義されている。 TypeⅠ: レイヤーの追加(正則化用レイヤも含む) TypeⅡ: 出力のConcat TypeⅢ: ReLUの追加 TypeⅣ: 出力のMerge 変形はこれらを組み合わせて行い、例えばReLUでの出力を行っているレ イヤにConv-BatchNorm-Reluのブロックを加える操作は、 TypeⅢ(TypeⅠ (TypeⅠ(layer)))といった形で表現できる。 以下では、各タイプの詳細について紹介する。 NASH: Morph (1/4)
14.
Copyright © 2017
TIS Inc. All rights reserved. 14 TypeⅠ 𝑓𝑖 ~ 𝑤 𝑖 𝑥 = 𝐴𝑓𝑖 𝑤 𝑖 𝑥 + 𝑏 で𝑓𝑖 𝑤 𝑖 𝑥 を置き換える。これは𝐴 = 𝟏, 𝑏 = 𝟎の時明らかに仮定を満たす(お そらく、初期値を𝐴 = 𝟏, 𝑏 = 𝟎において学習させると思われる。以下の Morphも同様)。 単純に現在のレイヤに重みをかけてバイアスを足しているので、いわゆる レイヤの追加に使用できる。 𝑓𝑖 ~ 𝑤 𝑖 𝑥 = 𝐶 𝐴𝑓𝑖 𝑤 𝑖 𝑥 + 𝑏 + 𝑑 とすれば、出力の正則化(Batch Normalizationなど)を行うレイヤも定義 できる。なお、これは𝐶 = 𝐴−1, 𝑑 = −𝐶𝑏の時仮定を満たすのが明らか。 NASH: Morph (2/4)
15.
Copyright © 2017
TIS Inc. All rights reserved. 15 TypeⅡ 𝑓𝑖 ~ 𝑤 𝑖 𝑥 = 𝐴 𝐴~ ℎ 𝑤ℎ 𝑥 ℎ~ 𝑤ℎ~ 𝑥 + 𝑏 で𝑓𝑖 𝑤 𝑖 𝑥 = 𝐴ℎ 𝑤ℎ 𝑥 + 𝑏を置き換える。これはA~ = 0の時明らかに仮定を 満たす。これは、ℎ~ = ℎの場合ネットワークのサイズを広げることになる し、ℎ(𝑥)が連続した隠れ層、ℎ~ (𝑥)が𝑥とするとconcat型のSkip- Connectionを表現できる。 TypeⅢ 関数𝑓𝑖 𝑤 𝑖 が冪等である場合(x=x*xを満たす場合冪等という)、定義からし て以下式が成立する。 𝑓𝑖 (𝑤 𝑖,𝑤𝑖 ~ ) = 𝑓𝑖 𝑤𝑖 ~ °𝑓𝑖 𝑤𝑖 𝑤𝑖 ~ = 𝑤𝑖の場合、仮定を満たす。これはReLUも満たす。 NASH: Morph (3/4)
16.
Copyright © 2017
TIS Inc. All rights reserved. 16 TypeⅣ 𝑓𝑖 ~ 𝑤𝑖 ~ = 𝜆𝑓𝑖 𝑤 𝑖 𝑥 + 1 − 𝜆 ℎ 𝑤ℎ 𝑥 , 𝑤𝑖 ~ = 𝑤𝑖, 𝜆, 𝑤ℎ で𝑓𝑖 𝑤 𝑖 𝑥 を置き換える。これは𝜆 = 1の時仮定を満たす。 これでadditive 型のSkip-Connectionを表現できる。 NASH: Morph (4/4)
17.
Copyright © 2017
TIS Inc. All rights reserved. 17 初期のネットワークをベースに、𝑛 𝑁𝑀回の変形を行った子ネットワークを 𝑛 𝑛𝑒𝑖𝑔ℎ 個作成し、その中でパフォーマンスの良いものを次のベースとする。 これを𝑛 𝑠𝑡𝑒𝑝𝑠繰り返す NASH: Hillclimbing (1/2)
18.
Copyright © 2017
TIS Inc. All rights reserved. 18 適用されるMorphはランダムに選ばれる TypeⅠについて 追加場所はランダムに選ばれる フィルタ(kernel)のサイズは3~5からランダムに選択される チャンネル数は直近の畳み込みと同じサイズ TypeⅡについて 拡大幅は、 2~4倍の中からランダムに選択される Skip Connection対象のレイヤは範囲(i~j)は、ランダムに選択され る(Type Ⅳも同様) 変形させたネットワークの学習にはcosine annealingを使用 NASH: Hillclimbing (2/2) cosineカーブに従い学習率を上げ下げする手法。 こちらの解説に詳しい(左図もこの記事より引 用)。誤差率約1%低減の効果。 I. Loshchilov and F. Hutter. Sgdr: Stochastic gradient descent with restarts.
19.
Copyright © 2017
TIS Inc. All rights reserved. 19 評価(1/3) CIFAR-10 CIFAR-100 GPU1日で250GPU/10dayに勝つ(800には劣るが良い仕事)。
20.
Copyright © 2017
TIS Inc. All rights reserved. 20 評価(2/3) スクラッチから学習したときと同等orそれ以上の精度を記録 パラメーターの継承はパフォーマンスを毀損していないか? 子ネットワークは親のWeightを継承しているが、継承せずにスク ラッチから学習したほうが良かったりしないだろうかという点を検 証。
21.
Copyright © 2017
TIS Inc. All rights reserved. 21 評価(3/3) OpenReviewでのコメント ネットワークを徐々に成長させることでゼロからの学習の必要がな くなり、構造探索の速度とコストを削減している点は評価できる。 ただ、変形のバリエーションはあまりなくヒューリスティックでも あり、Dense/ResNetのような単純な構造にはたやすくたどり着け そう・・・といった感じ
22.
Copyright © 2017
TIS Inc. All rights reserved. 22 大規模な計算資源がなくても、ネットワークアーキテクチャの自動設計を 行うことができた! 本論文の手法は、変形のタイプを増やしたり、選別のアルゴリズムを工夫 することでさらに拡張が可能(変形後の学習として、Born Again Network を組み合わせてみるのも面白そう)。 何よりランダムに設計した場合のベースライン評価をきっちり行っている。 GPUで数日間溶かす前に、ベースラインの検証をしっかり行おう。 まとめ
23.
THANK YOU
Download now