Submit Search
Upload
U net
•
0 likes
•
23 views
H
Hayashi Kentaro
Follow
dive_into_code
Read less
Read more
Engineering
Slideshow view
Report
Share
Slideshow view
Report
Share
1 of 3
Download now
Download to read offline
Recommended
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
Deep Learning JP
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
Deep Learning JP
[DL Hacks]Shift: A Zero FLOP, Zero Parameter Alternative to Spatial Convolutions
[DL Hacks]Shift: A Zero FLOP, Zero Parameter Alternative to Spatial Convolutions
Deep Learning JP
輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions
輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions
Kotaro Asami
Dynamic Routing Between Capsules
Dynamic Routing Between Capsules
Masaya Kaneko
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
KCS Keio Computer Society
Res net
Res net
Hayashi Kentaro
Dynamic Routing Between Capsules
Dynamic Routing Between Capsules
harmonylab
Recommended
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
Deep Learning JP
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
[DL輪読会]Encoder-Decoder with Atrous Separable Convolution for Semantic Image S...
Deep Learning JP
[DL Hacks]Shift: A Zero FLOP, Zero Parameter Alternative to Spatial Convolutions
[DL Hacks]Shift: A Zero FLOP, Zero Parameter Alternative to Spatial Convolutions
Deep Learning JP
輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions
輪読資料 Xception: Deep Learning with Depthwise Separable Convolutions
Kotaro Asami
Dynamic Routing Between Capsules
Dynamic Routing Between Capsules
Masaya Kaneko
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
KCS Keio Computer Society
Res net
Res net
Hayashi Kentaro
Dynamic Routing Between Capsules
Dynamic Routing Between Capsules
harmonylab
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Deep Learning JP
研究を加速するChainerファミリー
研究を加速するChainerファミリー
Deep Learning Lab(ディープラーニング・ラボ)
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
Efficient Det
Efficient Det
TakeruEndo
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
Hiroki Nakahara
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
LeapMind Inc
SeRanet
SeRanet
Kosuke Nakago
MIRU_Preview_JSAI2019
MIRU_Preview_JSAI2019
Takayoshi Yamashita
Playing Atari with Six Neurons
Playing Atari with Six Neurons
harmonylab
More Related Content
Similar to U net
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Deep Learning JP
研究を加速するChainerファミリー
研究を加速するChainerファミリー
Deep Learning Lab(ディープラーニング・ラボ)
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
Efficient Det
Efficient Det
TakeruEndo
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
Hiroki Nakahara
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
LeapMind Inc
SeRanet
SeRanet
Kosuke Nakago
MIRU_Preview_JSAI2019
MIRU_Preview_JSAI2019
Takayoshi Yamashita
Playing Atari with Six Neurons
Playing Atari with Six Neurons
harmonylab
Similar to U net
(13)
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
研究を加速するChainerファミリー
研究を加速するChainerファミリー
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
Efficient Det
Efficient Det
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
SeRanet
SeRanet
MIRU_Preview_JSAI2019
MIRU_Preview_JSAI2019
Playing Atari with Six Neurons
Playing Atari with Six Neurons
U net
1.
どんなもの? 先行研究と比べて何がすごい?技術の手法や肝は? ネットワークの構造 画像では入力572 572を二層の畳み込み層に通過させ、max-poolで画像を縮小(この 処理を計4回)全結合は行わない(なので1回ごとに畳み込みを適用するごとに出力さ れる画像が小さくなったいく) ダウンサンプリングが終わるとアップサンプリング。 アップconv2 2と畳み込み層を計4回通過させる U-Netの改良版U-Net++https://github.com/MrGiovanni/UNetPlusPlus 下向きパスは「畳み込み+プーリング」により、深い層ほど特徴が局所的で位置情報が 曖昧に、浅い層ほど、特徴は全体的で位置情報は正確になる。一方上向きパスは、「畳 み込み+upサンプリング」により、特徴を保持したまま、画像を大きく復元する。両方 のパスにおいて、画像サイズが同じものを深い層から段階的に統合することにより、局 所的特徴を保持したまま、全体的位置情報の復元を行うことができる。 CNNと異なる点:①「upサンプリング」②「Merge」③「全結合層がない」 ①「upサンプリング」と呼ばれる操作で、次元を上げ(画像を復元)。次元を下げるプー リングの逆の効果を持つため「アンプーリング」とも呼ばれる。 ②情報の統合。上下両パスにおいて、画像サイズが同じものを深い層から段階的にマー ジすることで、局所的特徴を保持し、全体的位置情報の復元を行える。 ③領域抽出では画像が出力になるため全結合層が不必要 物体検出のネットワークだと矩形の出力とかで実装が複雑になりがちだが、畳み込み層 のみで構成されたネットワークはそのまま画像が出力される分構造がシンプルで理解し やすい。 Encoderの各層で出力される特徴マップをDecoderの対応する各層の特徴マップに連結 (concatenation)するアプローチを導入した点。このアプローチはスキップ接続と呼ばれ ている。 Encoderの構造はVGGの特徴抽出層とほぼ同様だが、畳み込み時のpaddingが0なた め、畳み込み後は特徴マップのサイズは少しだけ小さくなる。 通常のCNNで行われる画像のクラス分類(画像認識)では、畳み込み層で物体の局所的な 特徴を抽出する役割、プーリング層で物体全体の位置ズレの許容の役割を担っている。 一方の領域抽出では、「物体の局所的特徴と全体的位置情報」の両方を元画像上から特 定する(プーリング層でボカされた局所的特徴の位置情報を元画像上でpixel単位で正確 に復元する) そこで、物体局所的特徴と全体的位置情報の両方を統合して学習させるために開発され たのがU-Net U-Net:
Convolutional Networks for Biomedical Image Segmentation Olaf Ronneberger, Philipp Fischer, and Thomas Brox Computer Science Department and BIOSS Centre for Biological Signalling Studies, University of Freiburg, Germany 18 May 2015
Download now