情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...Shinji Takao
人工知能学会 第25回知識流通ネットワーク研究会発表 http://sigksn.html.xdomain.jp/conf25/index.html
システム障害解析に関する専門家知識の抽出、グラフ化、DB化を行った際得られた知見と、知識流通手段としての知識グラフの可能性と課題を考察した結果を報告します。
Knowledge graphs have been getting attention because of its relevance to interpretable AI. Not only that, they also can be useful as a knowledge sharing mean which enable non-experts to utilize experts’ knowledge. We aim to report findings from constructing a knowledge graph through eliciting experts’ knowledge and building a knowledge database. We also suggest the possibilities and issues of knowledge graph as a knowledge sharing mean.
情報システム障害解析のための知識グラフ構築の試み / Constructing a knowledge graph for information sys...Shinji Takao
人工知能学会 第25回知識流通ネットワーク研究会発表 http://sigksn.html.xdomain.jp/conf25/index.html
システム障害解析に関する専門家知識の抽出、グラフ化、DB化を行った際得られた知見と、知識流通手段としての知識グラフの可能性と課題を考察した結果を報告します。
Knowledge graphs have been getting attention because of its relevance to interpretable AI. Not only that, they also can be useful as a knowledge sharing mean which enable non-experts to utilize experts’ knowledge. We aim to report findings from constructing a knowledge graph through eliciting experts’ knowledge and building a knowledge database. We also suggest the possibilities and issues of knowledge graph as a knowledge sharing mean.
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matchingharmonylab
公開URL:https://arxiv.org/pdf/2404.19174
出典:Guilherme Potje, Felipe Cadar, Andre Araujo, Renato Martins, Erickson R. ascimento: XFeat: Accelerated Features for Lightweight Image Matching, Proceedings of the 2024 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2023)
概要:リソース効率に優れた特徴点マッチングのための軽量なアーキテクチャ「XFeat(Accelerated Features)」を提案します。手法は、局所的な特徴点の検出、抽出、マッチングのための畳み込みニューラルネットワークの基本的な設計を再検討します。特に、リソースが限られたデバイス向けに迅速かつ堅牢なアルゴリズムが必要とされるため、解像度を可能な限り高く保ちながら、ネットワークのチャネル数を制限します。さらに、スパース下でのマッチングを選択できる設計となっており、ナビゲーションやARなどのアプリケーションに適しています。XFeatは、高速かつ同等以上の精度を実現し、一般的なラップトップのCPU上でリアルタイムで動作します。
セル生産方式におけるロボットの活用には様々な問題があるが,その一つとして 3 体以上の物体の組み立てが挙げられる.一般に,複数物体を同時に組み立てる際は,対象の部品をそれぞれロボットアームまたは治具でそれぞれ独立に保持することで組み立てを遂行すると考えられる.ただし,この方法ではロボットアームや治具を部品数と同じ数だけ必要とし,部品数が多いほどコスト面や設置スペースの関係で無駄が多くなる.この課題に対して音𣷓らは組み立て対象物に働く接触力等の解析により,治具等で固定されていない対象物が組み立て作業中に運動しにくい状態となる条件を求めた.すなわち,環境中の非把持対象物のロバスト性を考慮して,組み立て作業条件を検討している.本研究ではこの方策に基づいて,複数物体の組み立て作業を単腕マニピュレータで実行することを目的とする.このとき,対象物のロバスト性を考慮することで,仮組状態の複数物体を同時に扱う手法を提案する.作業対象としてパイプジョイントの組み立てを挙げ,簡易な道具を用いることで単腕マニピュレータで複数物体を同時に把持できることを示す.さらに,作業成功率の向上のために RGB-D カメラを用いた物体の位置検出に基づくロボット制御及び動作計画を実装する.
This paper discusses assembly operations using a single manipulator and a parallel gripper to simultaneously
grasp multiple objects and hold the group of temporarily assembled objects. Multiple robots and jigs generally operate
assembly tasks by constraining the target objects mechanically or geometrically to prevent them from moving. It is
necessary to analyze the physical interaction between the objects for such constraints to achieve the tasks with a single
gripper. In this paper, we focus on assembling pipe joints as an example and discuss constraining the motion of the
objects. Our demonstration shows that a simple tool can facilitate holding multiple objects with a single gripper.
5. LION-5B
紹介する論文
「LAION-5B: An open large-scale dataset for training next generation image-text
models 」
Christoph Schuhmann, Romain Beaumont, Richard Vencu, Cade W Gordon, Ross Wightman, Mehdi Cherti, Theo Coombes, Aarush Katta, Clayton Mullis, Mitchell Wortsman,
Patrick Schramowski, Srivatsa R Kundurthy, Katherine Crowson, Ludwig Schmidt, Robert Kaczmarczyk, Jenia Jitsev
発表学会・時期・論文データ
- NeurIPS 2022 Datasets and Benchmarks
- 2022/06/06 Arxive
6. LION AI ?
LION AI は非営利団体の研究組織
「大規模な機械学習モデルやデータセット
、関連コードを一般に公開することを目的
とした、世界中のメンバーからなる非営利
団体」
寄付金と公益の研究費で活動しており得敵
の企業からの投資を受けない団体。
公式ページのAboutより
https://laion.ai/about/
15. データの収集方法の概要
以下のステップでデータを収集
1. Common Crawl からデータ取得
2. alt テキスト属性と、その画像タグを取得
3. alt 属性に含まれる言語データの言語検出
4. 画像の取得・後処理
5. 画像と alt テキストを CLIP に渡して類似性チェッ
ク
論文:LAION-5B: An open large-scale dataset for training next generation image-
text models Figure 2
16. 1. Common Crawl からのデータ取得
Common Crawl は Amazon が主導となり、世界中の
Web データをクロールしたものを提供している。
2008 年より収集したデータを誰でも扱うことが可能
Common Crawl からデータを取得して解析を行った
Common Crawl トップページより
17. 2. alt テキスト属性と、その画像タグを取得
Web ページの画像は alt 属性と呼ばれる画像を説明する
属性がある
本来の目的はアクセシビリティ(閲覧に障害がある人向け
の機能)向けに、Web リーダーで画像を認識させる機能
今回は、この alt テキスト属性と、画像を取得している
alt = alternative text for an image.
Mozilla Document Network (MDN) <img>: The Image Embed element
https://developer.mozilla.org/en-US/docs/Web/HTML/Element/img
18. 3. alt 属性に含まれる言語データの言語検出
抽出した alt テキストデータを Google 開発の
CLD3(Compact Language Detector3)を用いて、英語・
英語外の言語・未検知(信頼性が低いデータ)の3種類に分
類
ここまでで得られた情報を PostgresSQL に格納し次ス
テップ以降で加工しやすいようにしておく
※ CLD3 は言語検出を目的としたニューラルネットワー
クモデル。現在試験的に開発中となっている
詳細は GitHub 参照:https://docs.ropensci.org/cld3/
Cld3 : R Wrapper for Google’s Compact Language Detector 3
https://docs.ropensci.org/cld3/
25. 参考文献
- LAION-5B: An open large-scale dataset for training next generation image-text models
- LION AI
- AT MARK IT 記事:マルチモーダルAI(Multimodal AI)とは?
- Wikipedia: Modality
- Chem-Station 記事:[スポンサーリンク] 一般的な話題 創薬におけるモダリティの意味と具体例
- 英次郎 on the web: Modability
- NTT DATA:マルチモーダルAIとは?身近な事例で解説します!
- Learning Transferable Visual Models From Natural Language Supervision
- GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion Models
- What are Diffusion Models?
- CLIP:言語と画像のマルチモーダル基盤モデル
- 【初学者向け】対照学習(Contrastive Learning)とは?
- Vision and Languageと分野を取り巻く深層学習手法の紹介