100% Serverless big data scale production Deep Learning Systemhoondong kim
- BigData Sale Deep Learning Training System (with GPU Docker PaaS on Azure Batch AI)
- Deep Learning Serving Layer (with Auto Scale Out Mode on Web App for Linux Docker)
- BigDL, Keras, Tensorlfow, Horovod, TensorflowOnAzure
서울시 챗봇팀이 개발한 ‘청년정책봇’은 시나리오 기반이 아닌 딥러닝 기반의 챗봇 서비스다. ETRI에서 개발한 KorBERT를 통해 언어 처리 모델을 대신하고, 형태소 분석 API를 통해 질문 문장에 대한 의도를 분석하였다. 카카오에서 배포한 khaii 형태소 분석기 적용을 통해 구문분석 정확도를 향상을 확인할 수 있었다. 또한, 위키 QA API를 통해 일반적인 질의응답을 위한 기능을 추가했다. 현재 상용화된 챗봇서비스의 대부분은 미리 구성된 시나리오(Flowchart)를 따라가는 방식을 활용하며, 자연어 처리 기술은 신뢰도가 낮아 사용되지 않고 있다. 그에 반해, ‘청년정책봇’은 cdQA 파이프라인을 접목해 유사도 높은 문서를 언어 처리 모델에 적용하는 방식으로 접근해 신뢰도를 높일 수 있었다. 기존 빌더를 통해, 상용화된 서비스 대비 두 가지 장점이 있다. 첫 번째 장점은 딥러닝 모델에 따른 발전 가능성으로써 ETRI KorBERT의 지속적인 개선에 따라 청년정책봇의 기계 독해 성능도 같이 개선된다는 것이다. 두 번째 장점은 서비스 지속 가능성으로써 cdQA 파이프라인에 기반해 주기적인 웹 크롤링을 통해 데이터 추가가 가능하기 때문에 소프트웨어 유지 보수에 필요한 자원을 최소화할 수 있다는 것이다. 청년정책 챗봇을 통해 cdQA 파이프라인과 ETRI BERT 모델을 활용해 기존의 데이터 인풋 제한을 극복하고 기계 독해에 대한 솔루션을 제시할 수 있었다.
PyCon Korea 2019 키노트 발표 자료입니다.
슬라이드쉐어 아직도 이러네요 ㅠㅠ 아래 스피커덱 링크로 가주시거나 다운로드 받으시면 잘 보여요 ㅠㅠhttps://speakerdeck.com/e9t/paisseongwa-keomyunitiwa-hangugeo-opeundeiteo
Second week, what is an Artivicial Inteligence?.pdfssuser5a82521
Slide 1: Title Slide
Title: "Understanding Artificial Intelligence (AI)"
Subtitle: "An Introduction to the World of Intelligent Machines"
Image: Illustration depicting futuristic technology or AI-related imagery.
Slide 2: Introduction to AI
Definition of AI: "Artificial Intelligence (AI) refers to the simulation of human intelligence in machines that are programmed to think and mimic human actions."
Brief history: Highlight key milestones in AI development, from early beginnings to modern advancements.
Slide 3: Types of AI
Narrow AI: Explanation and examples of AI designed for specific tasks, such as virtual assistants, recommendation systems, and self-driving cars.
General AI: Overview of the concept of AGI (Artificial General Intelligence), which aims to mimic human intelligence across a broad range of tasks.
Slide 4: How AI Works
Algorithms: Explanation of how AI systems use algorithms to process data, learn from it, and make decisions or predictions.
Data: Importance of high-quality data for training AI models.
Training: Overview of the training process, including supervised, unsupervised, and reinforcement learning.
Slide 5: Applications of AI
Industry: Examples of AI applications in various industries, such as healthcare (diagnosis assistance), finance (fraud detection), and retail (personalized recommendations).
Everyday life: Highlight how AI impacts daily life, including social media algorithms, virtual assistants, and smart home devices.
Slide 6: Ethical Considerations
Bias: Discussion on the potential for AI systems to inherit biases from their training data and the importance of addressing this issue.
Privacy: Considerations regarding the collection and use of personal data by AI systems, and the need for transparent data practices.
Job displacement: Exploration of the potential impact of AI on employment and the importance of retraining and reskilling the workforce.
Slide 7: Future of AI
Advancements: Speculation on future advancements in AI technology, including the potential for AGI and the ethical implications.
Challenges: Highlighting ongoing challenges in AI research, such as ensuring safety, fairness, and accountability.
Opportunities: Discussion on the potential benefits of AI for society, including improved healthcare, increased productivity, and enhanced decision-making.
Slide 8: Conclusion
Recap: Summarize key points covered in the presentation, emphasizing the significance of AI in today's world.
Call to action: Encourage further exploration of AI-related topics and participation in discussions about its future impact.
Slide 9: Q&A
Open the floor for questions and discussion, allowing the audience to clarify any doubts or share their thoughts on AI.
Slide 10: Thank You
Express appreciation to the audience for their attention and participation in the presentation.
- E-commerce BigData Scale AI Journey
- BigData Scale Deep Learning Production System Use Case
- Deep Learning, Cloud PaaS, Microservices, DevOps, etc.
- E-Commerce AI Production System Strategy
AI_introduction and requirements(2024.05.12).pdfLee Chanwoo
AI_introduction and requirements, Considerations for introducing artificial intelligence, understanding machine learning, artificial intelligence security, considerations for introducing ChatGPT, future of generative AI
100% Serverless big data scale production Deep Learning Systemhoondong kim
- BigData Sale Deep Learning Training System (with GPU Docker PaaS on Azure Batch AI)
- Deep Learning Serving Layer (with Auto Scale Out Mode on Web App for Linux Docker)
- BigDL, Keras, Tensorlfow, Horovod, TensorflowOnAzure
서울시 챗봇팀이 개발한 ‘청년정책봇’은 시나리오 기반이 아닌 딥러닝 기반의 챗봇 서비스다. ETRI에서 개발한 KorBERT를 통해 언어 처리 모델을 대신하고, 형태소 분석 API를 통해 질문 문장에 대한 의도를 분석하였다. 카카오에서 배포한 khaii 형태소 분석기 적용을 통해 구문분석 정확도를 향상을 확인할 수 있었다. 또한, 위키 QA API를 통해 일반적인 질의응답을 위한 기능을 추가했다. 현재 상용화된 챗봇서비스의 대부분은 미리 구성된 시나리오(Flowchart)를 따라가는 방식을 활용하며, 자연어 처리 기술은 신뢰도가 낮아 사용되지 않고 있다. 그에 반해, ‘청년정책봇’은 cdQA 파이프라인을 접목해 유사도 높은 문서를 언어 처리 모델에 적용하는 방식으로 접근해 신뢰도를 높일 수 있었다. 기존 빌더를 통해, 상용화된 서비스 대비 두 가지 장점이 있다. 첫 번째 장점은 딥러닝 모델에 따른 발전 가능성으로써 ETRI KorBERT의 지속적인 개선에 따라 청년정책봇의 기계 독해 성능도 같이 개선된다는 것이다. 두 번째 장점은 서비스 지속 가능성으로써 cdQA 파이프라인에 기반해 주기적인 웹 크롤링을 통해 데이터 추가가 가능하기 때문에 소프트웨어 유지 보수에 필요한 자원을 최소화할 수 있다는 것이다. 청년정책 챗봇을 통해 cdQA 파이프라인과 ETRI BERT 모델을 활용해 기존의 데이터 인풋 제한을 극복하고 기계 독해에 대한 솔루션을 제시할 수 있었다.
PyCon Korea 2019 키노트 발표 자료입니다.
슬라이드쉐어 아직도 이러네요 ㅠㅠ 아래 스피커덱 링크로 가주시거나 다운로드 받으시면 잘 보여요 ㅠㅠhttps://speakerdeck.com/e9t/paisseongwa-keomyunitiwa-hangugeo-opeundeiteo
Second week, what is an Artivicial Inteligence?.pdfssuser5a82521
Slide 1: Title Slide
Title: "Understanding Artificial Intelligence (AI)"
Subtitle: "An Introduction to the World of Intelligent Machines"
Image: Illustration depicting futuristic technology or AI-related imagery.
Slide 2: Introduction to AI
Definition of AI: "Artificial Intelligence (AI) refers to the simulation of human intelligence in machines that are programmed to think and mimic human actions."
Brief history: Highlight key milestones in AI development, from early beginnings to modern advancements.
Slide 3: Types of AI
Narrow AI: Explanation and examples of AI designed for specific tasks, such as virtual assistants, recommendation systems, and self-driving cars.
General AI: Overview of the concept of AGI (Artificial General Intelligence), which aims to mimic human intelligence across a broad range of tasks.
Slide 4: How AI Works
Algorithms: Explanation of how AI systems use algorithms to process data, learn from it, and make decisions or predictions.
Data: Importance of high-quality data for training AI models.
Training: Overview of the training process, including supervised, unsupervised, and reinforcement learning.
Slide 5: Applications of AI
Industry: Examples of AI applications in various industries, such as healthcare (diagnosis assistance), finance (fraud detection), and retail (personalized recommendations).
Everyday life: Highlight how AI impacts daily life, including social media algorithms, virtual assistants, and smart home devices.
Slide 6: Ethical Considerations
Bias: Discussion on the potential for AI systems to inherit biases from their training data and the importance of addressing this issue.
Privacy: Considerations regarding the collection and use of personal data by AI systems, and the need for transparent data practices.
Job displacement: Exploration of the potential impact of AI on employment and the importance of retraining and reskilling the workforce.
Slide 7: Future of AI
Advancements: Speculation on future advancements in AI technology, including the potential for AGI and the ethical implications.
Challenges: Highlighting ongoing challenges in AI research, such as ensuring safety, fairness, and accountability.
Opportunities: Discussion on the potential benefits of AI for society, including improved healthcare, increased productivity, and enhanced decision-making.
Slide 8: Conclusion
Recap: Summarize key points covered in the presentation, emphasizing the significance of AI in today's world.
Call to action: Encourage further exploration of AI-related topics and participation in discussions about its future impact.
Slide 9: Q&A
Open the floor for questions and discussion, allowing the audience to clarify any doubts or share their thoughts on AI.
Slide 10: Thank You
Express appreciation to the audience for their attention and participation in the presentation.
- E-commerce BigData Scale AI Journey
- BigData Scale Deep Learning Production System Use Case
- Deep Learning, Cloud PaaS, Microservices, DevOps, etc.
- E-Commerce AI Production System Strategy
AI_introduction and requirements(2024.05.12).pdfLee Chanwoo
AI_introduction and requirements, Considerations for introducing artificial intelligence, understanding machine learning, artificial intelligence security, considerations for introducing ChatGPT, future of generative AI
20181106 survey on challenges of question answering in the semantic web saltluxDongGyun Hong
This document summarizes a survey of 62 semantic question answering systems published between 2010-2015. It identifies 7 key challenges for SQA systems: lexical gap, ambiguity, multilingualism, complex queries, distributed knowledge, procedural/temporal/spatial questions, and templates. For each challenge, it describes common solutions and how Adam QA addresses each challenge, which is mostly partially or not at all currently. The conclusion recommends modularity, reuse of components, and benchmarking of individual algorithmic modules.
4. Open-domain QA
● Question Answering
○ 자연어 질의에 대한 답을 컴퓨터 시스템이 자동으로 찾아주는 것
● Open-domain
○ 이상: 모든 분야에 관한 지식을 대상으로 하는 것
○ 현실: Wikipedia, 상식
● Closed-domain
○ 의료, 법률, 패션 등 특정 도메인을 대상으로 하는 것
9. (~2007) TREC Open-domain Question Answering
● 정보 검색 기술 기반의 질의 응답
○ 관련 문서를 찾고, 답을 추출
○ Question & Answer Processing 모듈에서 휴리스틱에 의존함
전형적인 정보 검색 기술 기반의 질의 응답 시스템 구조
Jurafsky and Martin. Speech and Language Processing. 3rd edition
10. (~2011) IBM Watson - The DeepQA project
● 복잡하게 고도화한 검색 기반 질의 응답 시스템
○ Deep content analysis and evidence-based reasoning
● 2011년 퀴즈쇼 Jeopardy’s에서 역대 챔피언을 누르고 우승하였음
DeepQA architecture
11. (2013~) Machine Reading Comprehension (MRC)
● 기계의 독해 능력을 평가하기 위한 데이터셋 등장
Richardson et al., 2013. MCTest: A Challenge Dataset for the Open-Domain Machine Comprehension of Text
12. (2016~) SQuAD: The Stanford Question Answering Dataset
● 주어진 문서를 읽고, 답을 추출하는 방식 중심의 QA (Extractive QA)
● 데이터 공개 이후, 딥러닝 모델 중심의 활발한 연구가 이루어졌음
Rajpurkar et al., 2016. SQuAD: 100,000+ Questions for Machine Comprehension of Text
13. (2018~) AI Beat Humans at Reading?
● MRC 모델이 사람 이상의 성능을 달성
○ 2018년 말 (SQuAD 1.0), 2019년 초 (SQuAD 2.0)
○ 2019년 초 (KorQuAD 1.0), 2020년 중순 (KorQuAD 2.0)
https://rajpurkar.github.io/SQuAD- https://korquad.github.io/
14. BERT QA
● BERT: Bidirectional Encoder Representations from Transformers
○ Pre-trained 언어 모델
○ 다양한 자연어 task로 fine tuning 할 수 있고, 좋은 성능을 보여줌
○ 등장 이후, MRC 모델의 상당수가 BERT와 같은 pre-trained 언어 모델을 바탕으로 하고있음
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Devlin et al. NAACL, 2019
15. (2017~) from classical QA to retriever-reader approaches
● MRC 모델을 활용하는 open-domain QA 시스템 등장
16. Document retrieval QA (DrQA)
● 답이 있을만한 문서를 찾고, 해당 문서에서 답을 찾아 내는 것
○ Document retriever + MRC QA (Retriever & Reader)
● Open-domain QA pipeline을 크게 간소화 함
버락 오바마의 출생년도?
Chen et al., 2017. Reading Wikipedia to Answer Open-domain Questions
17. Document retrieval QA (DrQA)
● Document Retriever
○ TF-IDF를 사용한 정보 검색 모델(Bigram TF-IDF weighted term vector model)
○ 학습: 불가
● Document Reader
○ RNN-based MRC 모델
○ 학습: SQuAD 데이터 사용
● Document Retriever + Document Reader
○ 입력 질문에 대해 retriever가 top 5 문서를 찾음
○ Top 5 문서에 모든 문단에 대해 reader가 답을 예측
○ 가장 높은 span score를 갖는 답 반환
21. End-to-end open-domain QA
● 최근의 딥러닝 모델들은 end-to-end learning 방식을 지향함
● 기존 DrQA 모델의 경우 end-to-end learning이 불가능
○ 학습이 불가능한 retriever을 사용하기 때문
● End-to-end learning이 가능해진다면..
○ QA 모델의 학습 데이터로 질문과 답변만 필요함
○ QA task에 optimal한 evidence를 찾도록 학습이 가능
■ (학습 불가능한) 정보 검색으로 찾은 evidence 보다 나은 결과를 기대
22. Open-Retriever Question Answering
● BERT Retriever + BERT Reader
Lee et al., 2019. Latent Retrieval for Weakly Supervised Open Domain Question Answering
23. Open-Retriever Question Answering
● Retriever의 pre-training을 위해서 Inverse Cloze Task (ICT)를 제안함
○ ICT: 문장(Question)의 주변 문장(context)를 예측하는 task
○ ICT를 사용해 pre-train된 retriever는 Evidence block을 효과적으로 찾음
24. (2020~) No explicit retriever?
● Key question: pre-trained 언어 모델을 지식 베이스처럼 사용할 수 있을까?
● 언어 모델이 pre-training을 통해 위키피디아를 학습한다면, 지식을 갖을 수 있
다는 생각을 하게 됨
● 언어 모델에 직접 질의해 답을 찾는 시도가 등장
○ 문서를 사용하지 않으므로 retriever이 불필요함
Petroni1 et al., 2019. Language Models as Knowledge Bases?
25. Retrieval-free models - T5
● T5: Text-to-Text Transfer Transformer
○ 110억개 파라미터를 갖는 모델
○ 단일 모델만으로 좋은 open-domain QA 성능을 보여줌
Raffel et al., 2020. Exploring the Limits of Transfer
Learning with a Unified Text-to-Text Transformer
26. Conclusion
● Open-domain QA는 오래전부터 꾸준하게 연구되고 있는 분야
● MRC 모델을 적용하는 방향으로의 발전
○ SQuAD와 같은 데이터셋의 공개가 MRC 연구를 더욱 활발하게 만들었음
○ BERT 이후 MRC 모델이 사람 수준의 성능을 보여주었음
● 딥러닝 모델을 중심으로 연구가 이루어지고 있음
○ DeepQA처럼 복잡한 pipeline을 가졌던 시스템에서 end-to-end 시스템으로 발전
○ 딥러닝 기반 pre-trained 언어 모델의 활용