한빛데브그라운드에서 발표했던 내용입니다.
발표 영상 : https://youtu.be/ohpfSLf0V3Y
--
스타트업 비즈니스에서 데이터를 활용한 전략 수립과 의사결정은 필수적인 요소입니다. 서비스 운영 데이터에서부터 다양한 고객의 행동 로그, 소셜 미디어 데이터까지 다양한 데이터를 모두 모아 분석 환경을 구축하기 위해서는 많은 준비와 고민이 필요합니다. 스타트업에서 빠른 속도와 최소한의 비용, 다양한 분석 Tool들과 연동되는 Data Pipeline, Data Lake, Data Warehouse 구축 경험기를 공유하고자 합니다. 이 과정을 통해 애널리틱스 파이프라인을 구축 과정과 S3, Glue, Athena,EMR, Quicksight와 같은 서버리스 애널리틱스 서비스에 대한 구축 사례를 확인하실 수 있습니다.
19년 4월 1일, 서울대학교 SNCC와 공동 주최로 열린 논문 정보 수집과 연구 동향 분석 공개 세미나 발표 자료 입니다.
논문 정보를 수집할 수 있는 NetMiner 확장프로그램, Biblio Data Collector 에 대한 소개와 이를 활용한 분석 사례 소개로 구성되어 있습니다.
그리고 마지막 깜짝 발표, NetMiner 또 다른 확장프로그램 SNS Data Collector 의 업데이트 소식(인스타그램 수집)까지 보실 수 있습니다.
세미나 현장 영상 보기 >> https://www.youtube.com/channel/UCEyZjvgAc4uEIuHKRI5Jk0w
세미나 결과 보기 >> https://cyram.tistory.com
Your Raw Data is Ready - Introduction to Analytics Engineering | SMX Advanced...Christopher Gutknecht
In this SMX Advanced 2022 session, Christopher talks about the potential of working with raw data and how to properly approach the task of transforming raw data into high-quality reusable tables in your data warehouse. dbt as a transformation framework plays a key role in delivering quality and structure for this process. The chance for search marketers is to acquire data modeling skills and learn to build their own custom data products around Google Ads and Google Analytics. This talk is not just for inhouse-teams, also for agencies seeking to extend their services into data management.
Knowledge Graphs and AI to Hyper-Personalise the Fashion Retail Experience at...Connected Data World
What is the key to the holistic success of the fastest growing and most successful companies of our time globally? Well, often the key is the rapid increase in collected and analysed data. Graph databases provide a way to organise semantically by classes, not tables, are web-aware, and are superior for handling deep, complex relationships than traditional relational or NoSQL data stores.
It is these deep, complex relationships that can provide the rich context for hyper-personalising your product offering, inspiring consumers to purchase. In this talk, we describe how we are using artificial intelligence at Farfetch to not only help build a knowledge graph but also to evolve our insights with state-of-the-art graph-based AI.
한빛데브그라운드에서 발표했던 내용입니다.
발표 영상 : https://youtu.be/ohpfSLf0V3Y
--
스타트업 비즈니스에서 데이터를 활용한 전략 수립과 의사결정은 필수적인 요소입니다. 서비스 운영 데이터에서부터 다양한 고객의 행동 로그, 소셜 미디어 데이터까지 다양한 데이터를 모두 모아 분석 환경을 구축하기 위해서는 많은 준비와 고민이 필요합니다. 스타트업에서 빠른 속도와 최소한의 비용, 다양한 분석 Tool들과 연동되는 Data Pipeline, Data Lake, Data Warehouse 구축 경험기를 공유하고자 합니다. 이 과정을 통해 애널리틱스 파이프라인을 구축 과정과 S3, Glue, Athena,EMR, Quicksight와 같은 서버리스 애널리틱스 서비스에 대한 구축 사례를 확인하실 수 있습니다.
19년 4월 1일, 서울대학교 SNCC와 공동 주최로 열린 논문 정보 수집과 연구 동향 분석 공개 세미나 발표 자료 입니다.
논문 정보를 수집할 수 있는 NetMiner 확장프로그램, Biblio Data Collector 에 대한 소개와 이를 활용한 분석 사례 소개로 구성되어 있습니다.
그리고 마지막 깜짝 발표, NetMiner 또 다른 확장프로그램 SNS Data Collector 의 업데이트 소식(인스타그램 수집)까지 보실 수 있습니다.
세미나 현장 영상 보기 >> https://www.youtube.com/channel/UCEyZjvgAc4uEIuHKRI5Jk0w
세미나 결과 보기 >> https://cyram.tistory.com
Your Raw Data is Ready - Introduction to Analytics Engineering | SMX Advanced...Christopher Gutknecht
In this SMX Advanced 2022 session, Christopher talks about the potential of working with raw data and how to properly approach the task of transforming raw data into high-quality reusable tables in your data warehouse. dbt as a transformation framework plays a key role in delivering quality and structure for this process. The chance for search marketers is to acquire data modeling skills and learn to build their own custom data products around Google Ads and Google Analytics. This talk is not just for inhouse-teams, also for agencies seeking to extend their services into data management.
Knowledge Graphs and AI to Hyper-Personalise the Fashion Retail Experience at...Connected Data World
What is the key to the holistic success of the fastest growing and most successful companies of our time globally? Well, often the key is the rapid increase in collected and analysed data. Graph databases provide a way to organise semantically by classes, not tables, are web-aware, and are superior for handling deep, complex relationships than traditional relational or NoSQL data stores.
It is these deep, complex relationships that can provide the rich context for hyper-personalising your product offering, inspiring consumers to purchase. In this talk, we describe how we are using artificial intelligence at Farfetch to not only help build a knowledge graph but also to evolve our insights with state-of-the-art graph-based AI.
Semantic search helps business people find answers to pressing questions by wading through oceans of information to find nuggets of meaningful information. In this presentation we’ll discuss how semantic search and content analysis technologies are starting to appear in the marketplace today. We’ll provide a recap of what semantic search is and what the key benefits are, then we’ll answer the following questions:
• Is semantic search a feature, an application, or enterprise system?
• How can I add semantic search to my existing work processes?
• Will I need to replace my existing content technologies?
• What will I need to do to prepare my content for semantic search?
• Is semantic search just for documents or can I search my data too?
• Can I use semantic search to find information on the internet and other public data sources?
• Are there standards to consider?
윤석진 : 조직의 데이터 드리븐 문화를 위해 극복해야하는 문제들
발표영상 https://youtu.be/X29liXyIo3s
---
PAP가 준비한 팝콘 시즌1에서 프로덕트와 함께 성장하는 데이터 실무자들의 이야기를 담았습니다.
---
PAP(Product Analytics Playground)는 프로덕트 데이터 분석에 대해 편안하게 이야기할 수 있는 커뮤니티입니다.
우리는 데이터 드리븐 프로덕트 문화를 더 많은 분들이 각자의 자리에서 이끌어갈 수 있도록 하는 것을 목표로 합니다.
다양한 직군의 사람들이 모여 프로덕트를 만들듯 PAP 역시 다양한 멤버로 구성되어 있으며, 여러분들의 참여로 만들어집니다.
---
공식 페이지 : https://playinpap.oopy.io
페이스북 그룹 : https://www.facebook.com/groups/talkinpap
팀블로그 : https://playinpap.github.io
Elasticsearch is a very flexible and useful search tool for any application. It helps to store data in multiple scopes, customize search relevance, collect statistics, and improve overall user experience. Let us see how Elasticsearch has been integrated with OroCommerce to improve E-Commerce flows and achieve better results. We will use the OroCommerce application to show real life use cases and how to implement them.
Haystack 2018 - Algorithmic Extraction of Keywords Concepts and VocabulariesMax Irwin
Presentation as given to the Haystack Conference, which outlines research and techniques for automatic extraction of keywords, concepts, and vocabularies from text corpora.
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축BOAZ Bigdata
데이터 엔지니어링 프로젝트를 진행한 Catch, Traffic! 팀에서는 아래와 같은 프로젝트를 진행했습니다.
수도권 교통의 혼잡성을 해결하기 위한 방안을 찾는 데이터 파이프라인 구축
18기 김인섭 숭실대학교 산업정보시스템공학과
18기 김재민 국민대학교 AI빅데이터융합경영학과
18기 서은유 동덕여자대학교 정보통계학과
18기 윤정원 숙명여자대학교 소프트웨어융합전공
18기 이현진 서울과학기술대학교 산업정보시스템전공
18기 조은학 명지대학교 융합소프트웨어학부
The task of keyword extraction is to automatically identify a set of terms that best describe the document. Automatic keyword extraction establishes a foundation for various natural language processing applications: information retrieval, the automatic indexing and classification of documents, automatic summarization and high-level semantic description, etc. Although the keyword extraction applications usually work on single documents (document-oriented task), keyword extraction is also applicable to a more demanding task, i.e. the keyword extraction from a whole collection of documents or from an entire web site, or from tweets from Twitter. In the era of big-data, obtaining an effective and efficient method for automatic keyword extraction from huge amounts of multi-topic textual sources is of high importance.
We proposed a novel Selectivity-Based Keyword Extraction (SBKE) method, which extracts keywords from the source text represented as a network. The node selectivity value is calculated from a weighted network as the average weight distributed on the links of a single node and is used in the procedure of keyword candidate ranking and extraction. The selectivity slightly outperforms an extraction based on the standard centrality measures. Therefore, the selectivity and its modification – generalized selectivity as the node centrality measures are included in the SBKE method. Selectivity-based extraction does not require linguistic knowledge as it is derived purely from statistical and structural information of the network and it can be easily ported to new languages and used in a multilingual scenario. The true potential of the proposed SBKE method is in its generality, portability and low computation costs, which positions it as a strong candidate for preparing collections which lack human annotations for keyword extraction. Testing of the portability of the SBKE was tested on Croatian, Serbian and English texts – more precisely it was developed on Croatian News and ported for extraction from parallel abstracts of scientific publication in the Serbian and English languages.
The constructed parallel corpus of scientific abstracts with annotated keywords allows a better comparison of the performance of the method across languages since we have the controlled experimental environment and data. The achieved keyword extraction results measured with an F1 score are 49.57% for English and 46.73% for the Serbian language, if we disregard keywords that are not present in the abstracts. In case that we evaluate against the whole keyword set, the F1 scores are 40.08% and 45.71% respectively. This work shows that SBKE can be easily ported to new a language, domain and type of text in the sense of its structure. Still, there are drawbacks – the method can extract only the words that appear in the text.
검색이 무엇인지, 검색모델링이 어떤 역할을 하는지 알아보고, 쇼핑 검색을 서비스하면서 발생했던 품질 문제와 이를 해결하기 위해 시도해본 것을 이야기하고자 합니다.
목차
1. 검색이란
2. 검색모델링
3. 검색모델 유사도
4. 구조적 검색 모델
대상
검색이나 검색모델링에 대해 알고 싶거나, NHN에서 서비스 중인 쇼핑 검색에 대해 알고 싶은 개발자
기존 채용프로세스의 문제점
1. 운영비용 : 대관료, 운영 인건비, 위탁비, 면접교육관비, 위원급 전문가 인건비,
면접 교통비
-> 하이버프의 솔루션 : 채용 마케팅과 수시 채용 등 다양한 방면에서 비용과 시간 절감
2. 인력 미스매칭 : 최고의 인재를 뽑았다고 생각했는데..
-> 하이버프의 솔루션 : AI 분석과 인재추천 기능을 통해 가장 적합한 인재를 매칭
3. 장애인 채용 : 장애인을 채용이 쉬운
환경을 조성해줬으면 좋겠어요
-> 하이버프의 솔루션 : 이동이 불편한 지원자들을 위해 더 많은 면접 기회 제공
4. 면접평판 : 신경쓰이는 SNS 지원자의 면접 후기
->하이버프의 솔루션 : 객관성과 공정성을 토대로 채용비리, 또는 불합격과
불만자에 대한 사전방지
하이버프의 장점
1. 하이버프 솔루션을 통해 대면 면접시 드는 불필요한 비용을 약 90% 절감할 수 있습니다.
2. A.I 및 음성인식 기술을 통하여 인터뷰 점수를 책정하여 경쟁우위에 있는 지원자를 선별할 수 있습니다.
3. 인사 담당자가 100명의 지원자의 서류를 검토해서 면접자별 맞춤식 면접 질문을 만드는데
소요되는 시간은 10시간 이상이지만, 하이버프는 단 1분이면 끝납니다.
4. 인재 서칭, 이력서 관리, 면접 및 채용 업무를 획기적으로 줄일 수 있는
AI 기반 인재 매칭 자동화 솔루션
Semantic search helps business people find answers to pressing questions by wading through oceans of information to find nuggets of meaningful information. In this presentation we’ll discuss how semantic search and content analysis technologies are starting to appear in the marketplace today. We’ll provide a recap of what semantic search is and what the key benefits are, then we’ll answer the following questions:
• Is semantic search a feature, an application, or enterprise system?
• How can I add semantic search to my existing work processes?
• Will I need to replace my existing content technologies?
• What will I need to do to prepare my content for semantic search?
• Is semantic search just for documents or can I search my data too?
• Can I use semantic search to find information on the internet and other public data sources?
• Are there standards to consider?
윤석진 : 조직의 데이터 드리븐 문화를 위해 극복해야하는 문제들
발표영상 https://youtu.be/X29liXyIo3s
---
PAP가 준비한 팝콘 시즌1에서 프로덕트와 함께 성장하는 데이터 실무자들의 이야기를 담았습니다.
---
PAP(Product Analytics Playground)는 프로덕트 데이터 분석에 대해 편안하게 이야기할 수 있는 커뮤니티입니다.
우리는 데이터 드리븐 프로덕트 문화를 더 많은 분들이 각자의 자리에서 이끌어갈 수 있도록 하는 것을 목표로 합니다.
다양한 직군의 사람들이 모여 프로덕트를 만들듯 PAP 역시 다양한 멤버로 구성되어 있으며, 여러분들의 참여로 만들어집니다.
---
공식 페이지 : https://playinpap.oopy.io
페이스북 그룹 : https://www.facebook.com/groups/talkinpap
팀블로그 : https://playinpap.github.io
Elasticsearch is a very flexible and useful search tool for any application. It helps to store data in multiple scopes, customize search relevance, collect statistics, and improve overall user experience. Let us see how Elasticsearch has been integrated with OroCommerce to improve E-Commerce flows and achieve better results. We will use the OroCommerce application to show real life use cases and how to implement them.
Haystack 2018 - Algorithmic Extraction of Keywords Concepts and VocabulariesMax Irwin
Presentation as given to the Haystack Conference, which outlines research and techniques for automatic extraction of keywords, concepts, and vocabularies from text corpora.
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축BOAZ Bigdata
데이터 엔지니어링 프로젝트를 진행한 Catch, Traffic! 팀에서는 아래와 같은 프로젝트를 진행했습니다.
수도권 교통의 혼잡성을 해결하기 위한 방안을 찾는 데이터 파이프라인 구축
18기 김인섭 숭실대학교 산업정보시스템공학과
18기 김재민 국민대학교 AI빅데이터융합경영학과
18기 서은유 동덕여자대학교 정보통계학과
18기 윤정원 숙명여자대학교 소프트웨어융합전공
18기 이현진 서울과학기술대학교 산업정보시스템전공
18기 조은학 명지대학교 융합소프트웨어학부
The task of keyword extraction is to automatically identify a set of terms that best describe the document. Automatic keyword extraction establishes a foundation for various natural language processing applications: information retrieval, the automatic indexing and classification of documents, automatic summarization and high-level semantic description, etc. Although the keyword extraction applications usually work on single documents (document-oriented task), keyword extraction is also applicable to a more demanding task, i.e. the keyword extraction from a whole collection of documents or from an entire web site, or from tweets from Twitter. In the era of big-data, obtaining an effective and efficient method for automatic keyword extraction from huge amounts of multi-topic textual sources is of high importance.
We proposed a novel Selectivity-Based Keyword Extraction (SBKE) method, which extracts keywords from the source text represented as a network. The node selectivity value is calculated from a weighted network as the average weight distributed on the links of a single node and is used in the procedure of keyword candidate ranking and extraction. The selectivity slightly outperforms an extraction based on the standard centrality measures. Therefore, the selectivity and its modification – generalized selectivity as the node centrality measures are included in the SBKE method. Selectivity-based extraction does not require linguistic knowledge as it is derived purely from statistical and structural information of the network and it can be easily ported to new languages and used in a multilingual scenario. The true potential of the proposed SBKE method is in its generality, portability and low computation costs, which positions it as a strong candidate for preparing collections which lack human annotations for keyword extraction. Testing of the portability of the SBKE was tested on Croatian, Serbian and English texts – more precisely it was developed on Croatian News and ported for extraction from parallel abstracts of scientific publication in the Serbian and English languages.
The constructed parallel corpus of scientific abstracts with annotated keywords allows a better comparison of the performance of the method across languages since we have the controlled experimental environment and data. The achieved keyword extraction results measured with an F1 score are 49.57% for English and 46.73% for the Serbian language, if we disregard keywords that are not present in the abstracts. In case that we evaluate against the whole keyword set, the F1 scores are 40.08% and 45.71% respectively. This work shows that SBKE can be easily ported to new a language, domain and type of text in the sense of its structure. Still, there are drawbacks – the method can extract only the words that appear in the text.
검색이 무엇인지, 검색모델링이 어떤 역할을 하는지 알아보고, 쇼핑 검색을 서비스하면서 발생했던 품질 문제와 이를 해결하기 위해 시도해본 것을 이야기하고자 합니다.
목차
1. 검색이란
2. 검색모델링
3. 검색모델 유사도
4. 구조적 검색 모델
대상
검색이나 검색모델링에 대해 알고 싶거나, NHN에서 서비스 중인 쇼핑 검색에 대해 알고 싶은 개발자
기존 채용프로세스의 문제점
1. 운영비용 : 대관료, 운영 인건비, 위탁비, 면접교육관비, 위원급 전문가 인건비,
면접 교통비
-> 하이버프의 솔루션 : 채용 마케팅과 수시 채용 등 다양한 방면에서 비용과 시간 절감
2. 인력 미스매칭 : 최고의 인재를 뽑았다고 생각했는데..
-> 하이버프의 솔루션 : AI 분석과 인재추천 기능을 통해 가장 적합한 인재를 매칭
3. 장애인 채용 : 장애인을 채용이 쉬운
환경을 조성해줬으면 좋겠어요
-> 하이버프의 솔루션 : 이동이 불편한 지원자들을 위해 더 많은 면접 기회 제공
4. 면접평판 : 신경쓰이는 SNS 지원자의 면접 후기
->하이버프의 솔루션 : 객관성과 공정성을 토대로 채용비리, 또는 불합격과
불만자에 대한 사전방지
하이버프의 장점
1. 하이버프 솔루션을 통해 대면 면접시 드는 불필요한 비용을 약 90% 절감할 수 있습니다.
2. A.I 및 음성인식 기술을 통하여 인터뷰 점수를 책정하여 경쟁우위에 있는 지원자를 선별할 수 있습니다.
3. 인사 담당자가 100명의 지원자의 서류를 검토해서 면접자별 맞춤식 면접 질문을 만드는데
소요되는 시간은 10시간 이상이지만, 하이버프는 단 1분이면 끝납니다.
4. 인재 서칭, 이력서 관리, 면접 및 채용 업무를 획기적으로 줄일 수 있는
AI 기반 인재 매칭 자동화 솔루션
1. SCI급 논문을 활용한 연구 성과 분석 솔루션:
InCites B&A
함 소 영
2021.03.31.
2. 2
InCites B&A : SCI급 논문을 활용한 분석 솔루션
• Web of Science 전체 데이터 (1980 ~) +
– 완전한 SCI급 논문 데이터
– Web of Science 피인용수
– Journal Impact Factor (JCR)
– Essential Science Indicator (ESI)
– Citation Topics
• 최상위 연구(HCP) 및 연구자(HCR)
– Highly Cited Paper (HCP)
: ESI 22개 연구분야 별 피인용수
상위 1% 논문
– Highly Cited Researcher (HCR)
: HCP 기준 영향력 최상위 연구자
(명단 및 방법론 링크)
InCites B&A
성과비교 연구동향
상호협력 연구전략수립
대학간 연구 성과 비교 분석
기관 연구자의 연구 성과 분석
특정 세부 연구 분야의 동향 분석
WoS/ ESI 카테고리별 동향 분석
우리기관의 공동 연구 분석
소속 연구자의 공동 연구 분석
InCites B&A로 분석한 결과를
기반으로 연구 전략 수립
4. Insert footer 4
1) InCites B&A 기본구성
New interface design
Analyze
- 원하는 조건을 설정하며 분석 (기관,
국가, 저널, 연구자, 연구분야, 연구비
지원기관)
Report
- 시스템 제공 : 기관명, 연구자 ID만
입력하면 분석결과 제공
Organize
- Web of Science에서 가져온 데이터,
저장한 리포트 확인
Resource Center
- 어느 페이지에서나 업데이트 정보,
도움말 등 바로 확인 가능
5.
6. Insert footer 6
2) InCites B&A 업데이트
• 매달 2회 이상 업데이트
– Resource Center > What’s New
– Help > What’s New
• 데이터셋 업데이트 일정
– Help> What’s New > Dataset
Updates
– 예) 9월 28일 업데이트: 8월
31일자 Web of Science 데이터
– 약 1달의 데이터 시점 차이
7. Insert footer 7
3) Report > 시스템 제공 리포트
• Organization Report
– 기관명 입력
– 탭별로 주제별 결과 제공
– 연구 성과
– 협력
– 저널 이용 현황
– 피인용 상위 논문 목록
• Researcher Report
– 연구자 ID (RID, ORCID) 입력
– 탭별로 주제별 결과 제공
– 연구 성과
– 협력
– 피인용 상위 논문 목록
8. Insert footer 8
4) Analyze > 분석 가이드 제공
• 관심있는 그래프와 주제 선택
– 가이드 팝업 생성
– 단계별로 분석에 필요한
설정을 안내
– Next 버튼을 클릭하면 손쉽게
분석 완성
9. Insert footer 9
5) Analyze > 데이터 테이블
• 필터, 지수, 베이스라인 선택
– Filters: 분석 조건 설정
– 기관, 연구자, 저널, 국가 등
– 논문당 공동저자수 등
Threshold 설정
– Indicators : 데이터 테이블에
추가할 지수 선택
– Baselines : 데이터 평균값 또는
중복 제거 합계
• 테이블 다운로드 (CSV)
– 테이블 결과 다운로드 (csv)
– 최대 5만개
Simplified menu
filters, indicators,
baselines 등 다양한
조건 설정
Streamlined filters
전체 필터 확인 후 선택,
최소/최대값 지정 기능
포함
Enhanced visibility
선택한 필터 모두
확인
Download
10. Insert footer 10
6) Analyze > 데이터 테이블 > Documents
• 논몬수 (Documents) 클릭 > 상세
리스트
– 피인용수, Journal Impact
Factor, CNCI 등 논문별
성과지표를 한번에 확인
– CSV 파일 다운로드 (최대
5만개)
– Web of Science에서 추가
확인도 지원
• 추가 분석 (Refocus) 기능
– 연구분야, 협력 기관, 소속
연구자 등 확인을 위한
추가분석 진행
Documents List
논문명부터 Journal Impact
Factor까지 한번에 확인
Download
Refocus
협력 기관, 소속 연구자
파악 등 추가분석 진행
11. Insert footer 11
7) Analyze > 시각화 그래프
• Visual 탭에서 확인 및 설정
– 선택한 조건에 적합한
그래프만 선별해서 제공
– 그래프 모양을 확인 후 선택
• 전세계 평균값 등 Baseline 추가
– 우상단의 Baseline을 클릭해
그래프에 추가
• 그래프 저장 및 다운로드
– Add to Report기능으로
저장하면 Organize 탭에서
바로 확인
– PDF, 이미지로 다운로드
Visualizations
그래프를 확인하고 선택
Baselines
세계 평균/중복제거 합계 추가
Download
Save
분석 결과 저장
12. Insert footer 12
8) Web of Science → InCites B&A
• Web of Science 에 HCP, HP 필터 생성
– HCP: ESI 연구분야 기준 피인용
상위 1% 논문
– HP: ESI 연구분야 기준 최근 2달간
피인용 상위 0.1% 논문
• Web of Science 결과를 InCites로 저장
– WOS > Export > InCites > 데이터셋
이름 지정 후 저장
• 논문 식별자 파일을 직접 업로드
– CSV, TXT with UTF-8 encoding
– UT, DOI, MEDLINE ID 사용 가능
– 예) WOS:000392814200386
• 커스텀 데이터 확인 및 분석
– Organize > Folders > 데이터셋
Export to InCites
HCP & HP 필터
커스텀 데이터 확인
데이터셋 직접
업로드 (CSV, TXT)
13. Insert footer 13
9) InCites B&A → Web of Science
• Documents 리스트에서 Web of
Science로 이동
– 상세한 메타데이터 확인
– 검색 시점의 Web of Science
데이터 확인
Save time conducting your analyses
View in Web of Science
15. 15
주요 분석 지표 – 인용 기반
지수 의미
Citation Impact 논문 당 인용수 (
전체 인용수
전체 논문수
)
CNCI
(Category Normalization Citation Impact)
논문 당 인용수를 연구분야, 연도, 문서 형태에 대해 정규화한 값
세계 평균값을 1로 나타내어 분석대상을 비교하는 지수
JNCI
(Journal Normalization Citation Impact)
논문 당 인용수를 저널, 연도, 문서 형태에 대해 정규화한 값
세계 평균값을 1로 나타내어 분석대상을 비교하는 지수
%DocumentsinTop1(10)% 같은 출판년도, 연구분야, 문서형태 안에서 인용수기준 상위 1(10)%에 해당하는 논문의 비율
% Highly Cited Paper
Highly Cited Paper의 비율
* Highly Cited Papers는 최근 10년 동안 출판된 논문 중 ESI의 22개 연구분야별 상위 1% 인용을 받은 논문
% Hot Paper
Hot Paper의 비율
* Hot Papers는 최근 2년간 출판된 논문 중 최근 2개월 동안 받은 인용수를 기준으로 ESI의 22개 연구분야별
상위 0.1% 에 해당하는 논문
16. 16
주요 분석 지표 – 공동연구 기반
지수 의미
% industry Collaborations 기업 소속의 공저자가 포함된 논문의 비율
industry Collaborations 기업 소속의 공저자가 포함된 논문의 수
% international Collaborations 논문의 저자에 국제 공저자(소속기관)가 포함된 논문의 비율
International Collaborations 논문의 저자에 국제 공저자가 포함된 논문의 수
Baseline
분석하고자 하는 대상의 평균 또는 합계(중복제거)
* 분석대상의 특징 또는 목적에 따라 세계/ 지역/ 특정 집단으로 설정
17. 17
주요 분석 지표 – 저자 위치
지수 의미
First Author 논문의 저자 순에서 가장 처음에 위치한 저자
LastAuthor 논문의 저자 순에서 가장 마지막에 위치한 저자
Corresponding Author 교신저자
19. 19
기관 연구성과 분석 – 국내 기관
1
2
3
4
5
6
Analyze → Organization → Dataset → Publication Date → Location → Add Indicator
분석하고자 하는
논문의 출판기간 설정
InCites Dataset 또는
사용자가 만든 Dataset
South Korea
분석에 필요한
지표 설정
20. 20
소속 연구자 연구 성과 분석
Researcher → Dataset → Publication Date → Affiliated Organization → Add Indicator
분석하고자 하는
논문의 출판기간 설정
InCites Dataset 또는
사용자가 만든 Dataset
연구자 소속 기관 선택
분석에 필요한
지표 설정
21. 21
우리나라의 연구분야별 성과 분석
Research areas→ Dataset → Publication Date → Location → Add Indicator
국가 선택
Research areas 선택
22. 22
InCites B&A Exclusive Research Area Schemas
Citation Topics (Dec 2020 Update), WOS, ESI schema
Citation Topics
(Dec 2020 Update)
Web of Science Essential Science Indicators
데이터 범위 핵심 컬렉션 핵심 컬렉션 SCIE, SSCI
분류 개수
2,444 (Micro)
326 (Meso)
10 (Macro)
255 22
(21 + Multidisciplinary)
분류 단위 논문 저널
저널 +
논문 (Multidisciplinary)
분야 간 중복 X O X
문서수
업데이트 주기
매월
(B&A 정기 업데이트)
매월
(B&A 정기 업데이트)
격월
(ESI 정기 업데이트 > B&A
정기 업데이트)
분야 구조 업데이트
주기
매년 비정기 -
https://incites.help.clarivate.com/Content/Research-Areas/research-areas.htm
23. 23
InCites B&A Research Areas > Citation Topics
• CWTS (Centre for Science
and Technology Studies),
Leiden University 와 개발
• 인용 관계 기반
– Bibliographic coupling
– Co-citation
– Direct citation
• WOS CC 1980년 이후 출판
– 참고문헌/ 피인용이 없는 문서,
– 알고리즘에서 토픽 배정이
불가능한 문서 미포함 (~5%)
https://clarivate.co.kr/category/productudpate/InCitesCitationTopics?utm_campaign=EM1_InCites_C
itation_Topics_Webinar_WOSG_APAC_Korea_FEB_2021&utm_medium=email&utm_source=Eloqua
24. 24
InCites B&A Research Areas > Citation Topics
• 상하 구조, 명칭 결정
– Micro (2,444), 알고리즘
– Meso (326), 전문가 지정
– Macro (10), 전문가 지정
• 업데이트
– 문서 업데이트 (매월)
– 참고문헌만 고려
– 구조 업데이트 (매년)
– Micro 레벨 토픽 추가 가능
– 문서의 Micro Topic 변경 가능
https://clarivate.co.kr/category/productudpate/InCitesCitationTopics?utm_campaign=EM1_InCites_C
itation_Topics_Webinar_WOSG_APAC_Korea_FEB_2021&utm_medium=email&utm_source=Eloqua
25. 25
InCites B&A Research Areas > Citation Topics
• Citation Topics 리스트
– Schema Scope (링크)
– Full Schema 엑셀 파일
다운로드 제공
https://clarivate.com/webofsciencegroup/solutions/isi-reports/
31. Insert footer
Group Name Indicator Name Researcher Organization Locations
Research
Area
Journals
Funding
Agency
Impact
Indicators
% Documents in Top 1%
WOS 연구분야 기준
피인용수 상위 1% 논문
비중
✓ ✓ ✓ ✓ ✓
Documents in Top 1%
WOS 연구분야 기준
피인용수 상위 1% 논문 수
✓ ✓ ✓ ✓ ✓
% Documents in Top 10%
WOS 연구분야 기준
피인용수 상위 10% 논문
비중
✓ ✓ ✓ ✓ ✓
Documents in Top 10%
WOS 연구분야 기준
피인용수 상위 % 논문 수
✓ ✓ ✓ ✓ ✓
% Documents Cited 피인용된 논문 비중 ✓ ✓ ✓ ✓ ✓ ✓
Documents Cited 피인용된 논문 수 ✓ ✓
Citation Impact 논문당 평균 피인용수 ✓ ✓ ✓ ✓ ✓
1 Year Citing All Prior
Years Cumulative
피인용 연도별 피인용수 ✓
H-Index H- Index ✓ ✓
31
10) Indicators
• Analyze의 분석 대상(Entity)에
따라 제공되는 지수 상이
• 자세한 설명은 Indicators
Handbook 에서 제공 (링크)
32. Insert footer
Group Name Indicator Name Researcher Organization Locations
Research
Area
Journals
Funding
Agency
Productivity
Indicators
Web of Science
Documents
WOS 수록 문서수 ✓ ✓ ✓ ✓ ✓ ✓
Times Cited Web of Science 피인용수 ✓ ✓ ✓ ✓ ✓ ✓
Normalized
Indicators
Category Normalized
Citation Impact
연구분야 기준 상대적
피인용 성과 지수
(분야 세계 평균=1)
✓ ✓ ✓ ✓ ✓ ✓
Journal Normalized
Citation Impact
저널 기준 상대적 피인용
성과 지수 (저널 평균=1)
✓ ✓ ✓ ✓ ✓
Impact Relative to World
전세계 논문당 피인용수
대비 분석 대상의 논문당
피인용수
✓ ✓ ✓ ✓ ✓
Average Percentile 평균 백분위 ✓ ✓ ✓ ✓ ✓
Collaboration
International
Collaborations
국제협력 논문 수 (2개
이상 국가의 저자가 공저)
✓ ✓ ✓ ✓ ✓
% International
Collaborations
국제협력 논문 비중 (2개
이상 국가의 저자가 공저)
✓ ✓ ✓ ✓ ✓
% Industry Collaborations
산학협력 논문 비중
(기업과 연구기관이 공저)
✓ ✓ ✓ ✓ ✓
Industry Collaboration
기업과 공저한 논문수
(기업과 연구기관이 공저)
✓ ✓ ✓ ✓ ✓
32
10) Indicators
• Analyze의 분석 대상(Entity)에
따라 제공되는 지수 상이
• 자세한 설명은 Indicators
Handbook 에서 제공 (링크)
33. Insert footer
Group Name Indicator Name Researcher Organization Locations
Research
Area
Journals
Funding
Agency
Author
Position
% First Author (2008-
2020)
1저자로 참여한 논문비중
(2008년 이후 출판
논문부터 제공)
✓ ✓ ✓
% Last Author (2008-
2020)
책임 저자(last author)로
참여한 논문 비중
(2008년 이후 출판
논문부터 제공)
✓ ✓ ✓
% Corresponding Author
(2008-2020)
교신 저자 로 참여한 논문
비중 (2008년 이후 출판
논문부터 제공)
✓ ✓ ✓
First Author (2008-2020)
1저자로 참여한 논문수
(2008년 이후 출판
논문부터 제공)
✓ ✓ ✓
Last Author (2008-2020)
책임 저자(last author)로
참여한 논문수 (2008년
이후 출판 논문부터 제공)
✓ ✓ ✓
Corresponding Author
(2008-2020)
교신 저자로 참여한
논문수 (2008년 이후
출판 논문부터 제공)
✓ ✓ ✓
33
10) Indicators
• Analyze의 분석 대상(Entity)에
따라 제공되는 지수 상이
• 자세한 설명은 Indicators
Handbook 에서 제공 (링크)
34. Insert footer
Group Name Indicator Name Researcher Organization Locations
Research
Area
Journals
Funding
Agency
Journal
Citation
Reports
Data
Documents in
JIF Journals
Journal Impact Factor가
있는 저널에 게재된
논문수
✓ ✓ ✓ ✓ ✓
Documents in Q1
Journals (Q2, Q3, Q4)
JIF 상위 25% 저널에
게재된 논문수
(50, 75, 100)
✓ ✓ ✓ ✓ ✓
% Documents in Q1
Journals (Q2, Q3, Q4)
JIF 상위 25% 저널에
게재된 논문 비중
(50, 75, 100)
✓ ✓ ✓ ✓ ✓
Quartile JIF 기준 사분위 ✓
Journal Impact Factor
최신 JIF
(10월 기준 2019 JCR)
✓
Immediacy Index
최신 Immediacy Index
(10월 기준 2019 JCR)
✓
Eigenfactor
최신 Eigenfactor
(10월 기준 2019 JCR)
✓
Impact Factor without
Self Cites
최신 Impact Factor
without Self Cites
(10월 기준 2019 JCR)
✓
34
10) Indicators - Journal Citation Reports (JCR)
• Analyze의 분석 대상(Entity)에
따라 제공되는 지수 상이
• 자세한 설명은 Indicators
Handbook 에서 제공 (링크)
• Journal Citation Report (JCR):
– SCIE/SSCI 등재지의
– 피인용 영향력을
– Journal Impact Factor, JIF Percentile 등과
함께 수록하는 데이터 베이스
– JIF는 JCR 연도 직전 2개년간 게재된 논문
(article, review)이 JCR 연도에 기록한
평균 피인용수
예) 2019 JCR Impact Factor = 2019년도에 기록한
피인용수 / 2018년 2017년에 게재된 논문수 (Article +
Review)
35. Insert footer
Group Name Indicator Name Researcher Organization Locations
Research
Area
Journals
Funding
Agency
Essential
Science
Indicators
Data
% Hot Papers
ESI 22개 연구분야 기준
최근 2개월간 피인용수
상위 0.1% 논문 비중
(최근 2년간 출판 논문)
✓ ✓ ✓ ✓ ✓
Hot Papers
ESI 22개 연구분야 기준
최근 2개월간 피인용수
상위 0.1% 논문수
(최근 2년간 출판 논문)
✓ ✓ ✓ ✓ ✓
% Highly Cited Papers
ESI 22개 연구분야 기준
피인용수 상위 1% 논문
비중
(최근 10년간 출판 논문)
✓ ✓ ✓ ✓ ✓
Highly Cited Papers
ESI 22개 연구분야 기준
피인용수 상위 1% 논문수
(최근 10년간 출판 논문)
✓ ✓ ✓ ✓ ✓
ESI Most Cited ESI 에 수록된 기관 ✓
35
10) Indicators – Essential Science Indicators(ESI)
• Analyze의 분석 대상(Entity)에
따라 제공되는 지수 상이
• 자세한 설명은 Indicators
Handbook 에서 제공 (링크)
• Essential Science Indicators (ESI):
– 최근 10년간
– SCIE/SSCI 등재지 게재된
– Article, Review 논문을
– 22개 연구분야로 분류해 수록하는
데이터 베이스
– HCP는 ESI에 수록 논문 중 선정
– ESI 수록 기관은 피인용수 기준 상위 1%