자연어처리 팀 이번 주제는 longformer : The long Doucument Transformer 입니다 2017년도에 나온 트랜스포머는 많은 분야에서 소타를 달성했는데 그 이유는 트랜스포머에서 사용된 셀프어텐션 기법이 전체 시퀀스의 컨테스쳐 인포메이션을 잘 캡처할 수 있기 때문입니다 셀프어텐션 은 입력 텍스트를 전체를 다 보기 때문에 O n 제곱의 복잡도를 보인다고 합니다 그래서 굉장히 많은 계샨량을 필요로하고 시간과 메모리가 많이 소요됩니다. Longformer는 이런 문제를 개선 하기위해 ON만을 수행하는 어텐션은 제안 합니다. Longformer는 문장이 길더라도 전체 텍스트를 고려하는 홀컨텍스쳐 리프리젠테이션을 학습하면서 모델 아키텍처에 의존하지 않고 성능을 높일 수 있다고 합니다 오늘 논문리뷰는 자연어 처리팀 황소현님이 자세한 리뷰를 도와주셨습니다!