SAM is a new segmentation model that can segment objects in images using natural language prompts. It was trained on over 1,100 datasets totaling over 10,000 images using a model-in-the-loop approach. SAM uses a transformer-based architecture with encoders for images, text, bounding boxes and masks. It achieves state-of-the-art zero-shot segmentation performance without any fine-tuning on target datasets.
本スライドは、弊社の梅本により弊社内の技術勉強会で使用されたものです。
近年注目を集めるアーキテクチャーである「Transformer」の解説スライドとなっております。
"Arithmer Seminar" is weekly held, where professionals from within and outside our company give lectures on their respective expertise.
The slides are made by the lecturer from outside our company, and shared here with his/her permission.
Arithmer株式会社は東京大学大学院数理科学研究科発の数学の会社です。私達は現代数学を応用して、様々な分野のソリューションに、新しい高度AIシステムを導入しています。AIをいかに上手に使って仕事を効率化するか、そして人々の役に立つ結果を生み出すのか、それを考えるのが私たちの仕事です。
Arithmer began at the University of Tokyo Graduate School of Mathematical Sciences. Today, our research of modern mathematics and AI systems has the capability of providing solutions when dealing with tough complex issues. At Arithmer we believe it is our job to realize the functions of AI through improving work efficiency and producing more useful results for society.
2022/3/24に開催した「オンプレML基盤 on Kubernetes」の資料です。機械学習モデルの開発者が、よりモデルの開発にのみ集中できるようにすることを目指して開発している「LakeTahoe(レイクタホ)」について紹介します。
https://ml-kubernetes.connpass.com/event/239859/
SAM is a new segmentation model that can segment objects in images using natural language prompts. It was trained on over 1,100 datasets totaling over 10,000 images using a model-in-the-loop approach. SAM uses a transformer-based architecture with encoders for images, text, bounding boxes and masks. It achieves state-of-the-art zero-shot segmentation performance without any fine-tuning on target datasets.
本スライドは、弊社の梅本により弊社内の技術勉強会で使用されたものです。
近年注目を集めるアーキテクチャーである「Transformer」の解説スライドとなっております。
"Arithmer Seminar" is weekly held, where professionals from within and outside our company give lectures on their respective expertise.
The slides are made by the lecturer from outside our company, and shared here with his/her permission.
Arithmer株式会社は東京大学大学院数理科学研究科発の数学の会社です。私達は現代数学を応用して、様々な分野のソリューションに、新しい高度AIシステムを導入しています。AIをいかに上手に使って仕事を効率化するか、そして人々の役に立つ結果を生み出すのか、それを考えるのが私たちの仕事です。
Arithmer began at the University of Tokyo Graduate School of Mathematical Sciences. Today, our research of modern mathematics and AI systems has the capability of providing solutions when dealing with tough complex issues. At Arithmer we believe it is our job to realize the functions of AI through improving work efficiency and producing more useful results for society.
2022/3/24に開催した「オンプレML基盤 on Kubernetes」の資料です。機械学習モデルの開発者が、よりモデルの開発にのみ集中できるようにすることを目指して開発している「LakeTahoe(レイクタホ)」について紹介します。
https://ml-kubernetes.connpass.com/event/239859/
DNN computes many multiply-accumulate operations, which generally use a GPU. I tried using M5StickV as a general-purpose DNN accelerator. / DNN(Deep Neural Network)を用いたアプリケーションは、その演算に大量の計算リソース(積和演算)が求められる。その為、一般的にGPUを用いる。今回、M5StickVをDNNのアクセラレータとして使えないか?試みた。
13. Mobility Technologies Co., Ltd.
● Qualcomm Adreno <= 540でVkImageを優先する
○ ハードウェア texture fetchで大幅に高速化
○ Adreno640 +を含むその他にはVkBufferを優先
● Blacklist / Whitelist for old-buggy driver
○ vendor id + driver version + vulkan api versionでフィルタリング
○ Androidシステムのアップグレード、特に8.1以降では、ドライバーの品質が向上
プラットフォーム固有のトリック
reference: https://www.bilibili.com/video/BV1fQ4y1Z7Yx/
14. Mobility Technologies Co., Ltd.
● Swiftshader as the vulkan driver on CPU
○ Make sure the vulkan code produces is expected
Vulkan continuous integration
refernce
https://github.com/Tencent/ncnn
15. Mobility Technologies Co., Ltd.
● ncnn benchmark on Apple M1 Silicon(ms) (less is better)
ncnnベンチマーク
reference: https://www.bilibili.com/video/BV1fQ4y1Z7Yx/
16. Mobility Technologies Co., Ltd.
● ncnn benchmark compared with other inference engines
ncnnベンチマーク
Small model、Threads x 1 Large model、Threads x 1
reference: https://www.zhihu.com/question/400143354