Skip to content

텍스트 요약 분야의 주요 연구 주제, Must-read Papers, 이용 가능한 model 및 data 등을 추천 자료와 함께 정리한 저장소입니다.

License

Notifications You must be signed in to change notification settings

uoneway/Text-Summarization-Repo

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

40 Commits
 
 
 
 
 
 

Repository files navigation

Text Summarization Repo

NLP 중에서도 텍스트 요약 분야와 관련한 양질의 자료를 축적해나가는 공간입니다. 텍스트 요약 분야에 관심 있어 공부를 시작하시는 분들께 좋은 길잡이가 되면 좋겠습니다.

우선은 텍스트 요약 분야가 어떤 세부 주제들로 구성되어 있는지를 이해하고, 이 분야를 이끌어온 주요 논문들을 살펴봅니다. 그 이후에는 직접 텍스트 요약 모델을 만드는데 필요한 코드, 데이터셋, 프리트레인 모델 등을 목록화 하였습니다.


Intro to Text Summarization

Definition

Berry, Dumais, & O’Brien (1995)은 텍스트 요약을 다음과 같이 정의합니다.

Text summarization is the process of distilling the most important information from a text to produce an abridged version for a particular task and user

한 마디로 주어진 텍스트 중 중요한 정보만 정제해내는 과정이라는 건데요. 여기서 정제라는 표현과 중요한이라는 표현은 다소 추상적이고 주관적인 표현이기에 개인적으로는 다음과 같이 정의하고 싶습니다.

f(text) = comprehensible information

즉 텍스트 요약은 원문을 이해하기 쉬우면서도 가치있는 정보로 변환하는 작업입니다. 인간은 길이가 길거나 여러 문서로 나눠져있는 텍스트 정보를 한 눈에 파악하기 어려워합니다. 때로는 알지 못하는 전문 용어가 많이 사용되어 있을 수도 있습니다. 이러한 텍스트를 원문을 잘 반영하면서도 간결하여 이해하기 쉬운 형태로 바꿔주는 작업은 상당히 가치있는 일입니다. 물론 무엇이 정말 가치있는 정보인지, 어떠한 형태로 바꿔줄지 등은 요약을 하는 목적이나 개인의 취향에 따라 달라지게 될 것입니다.

이러한 관점으로 바라본다면 회의록, 신문기사 헤드라인, 논문 abstract, 이력서 등 텍스트를 생성해내는 task뿐만 아니라 텍스트를 그래프나 영상으로 변환하는 작업들도 텍스트 요약에 해당된다고 말할 수 있습니다. 물론 그냥 summarization이 아닌 Text Summarization이기에 요약의 대상(source)은 text형태로 한정됩니다. (요약의 source는 text뿐만 아니라 image나 video가 될 수도 있기 때문이죠. 전자의 예가 image captioning, 후자의 예가 video Summarization입니다. 또한 Text, image, video 등 다양한 형태의 source를 함께 요약하는 방식을 multimodal summarization라고 합니다. 물론 Vision과 NLP의 경계가 점점 흐릿해져가는 최근 딥러닝 추세를 고려해본다면, 곧 'Text'를 prefix로 붙이는게 의미 없는일이 되지는 않을까 하는 생각이 들기도 하네요.)


Task Categories

일반적으로 텍스트 요약 task는 크게 요약문을 생성하는 방식에 따라 extractive summarization(이하 ext)과 abstractive summarization(이하 abs)로 나눕니다. (Gudivada, 2018)

Extractive methods select a subset of existing words, phrases, or sentences in the original text to form a summary. In contrast, abstractive methods first build an internal semantic representation and then use natural language generation techniques to create a summary.

Ext는 보통 문장 단위로 중요도를 scoring한 후, 이를 기반으로 선택하고 조합하여 summary를 만듭니다. 우리가 글을 읽다가 형광펜을 칠하는 작업과 비슷하죠. 반면 abs원문을 기반으로 하되, 새로운 텍스트(novel text)를 생성해내는 NLG(natural language generation) 방식입니다. Ext는 원문에 있던 텍스트를 활용하기에 표현이 제한적이나 말이 안되는 표현이 포함될 가능성이 낮습니다. 반면 abs는 모델에서 새로운 텍스트를 생성해내야 하기에 말이 되지 않는 표현이 만들어질 가능성이 존재하나 좀더 flexible한 접근이 가능하다는 장점이 있습니다.

이 외에도 원문의 개수에 따라 single/multi document summarization, 생성해내는 텍스트 형태에 따라 keyword/sentence summarization, 요약 과정에서 원문 외 외부 정보를 얼마나 사용하는지에 따라 knowlege-poor/rich summarization 등 다양한 구분이 있습니다.

Figure 2.1: Classification of summarization tasks.

(G. Sizov(2010). Extraction-Based Automatic Summarization: Theoretical and Empirical Investigation of Summarization Techniques)


Main Topics

Text Summarization 분야의 주요 연구주제를 살펴보고 이 분야에 어떤 Challenge가 존재하는지 함께 생각해봅시다.

  • Multi / Long documents summarization

    앞서 언급했듯 요약이라는 task는 incomprehensible text를 comprehensible information로 바꾸는 작업입니다. 그렇기에 원문이 길어질수록, 또는 한 번에 한 문서가 아닌 여러 소스의 문서를 요약할수록 요약의 효용은 증가합니다. 문제는 동시에 요약 난이도 또한 증가한다는 점이겠죠.

    그 이유로는 첫째, 원문이 길면 길수록 computational complexity가 더 급격하게 증가합니다. 이는 과거의 TextRank 같은 통계 방식에서 보다, 최근 transformer를 위시한 신경망 기반 방식에서 훨씬 더 critical한 문제입니다. 둘째, 원문이 길수록 그 안에 핵심이 아닌 내용, 즉 noise가 많이 포함되어 있기 마련입니다. 무엇이 noise고 무엇이 informative한 텍스트인지 가려내기가 쉽지 않습니다. 마지막으로 긴 원문이나 다양한 소스는 다양한 관점과 내용을 동시에 가지고 있기에 이를 잘 포괄하는 요약문을 생성하는 것이 어려워지죠.

    • Multi documents summarization(MDS)

      MDS는 복수개의 문서를 요약하는 작업입니다. 일견 생각해도 하나의 주제를 일관된 흐름과 관점으로 서술하고 있는 하나의 문서를 요약하는 작업보다 다양한 저자들의 서로 다른 관점의 글들을 요약하는 일이 어려울 것입니다. 물론 MDS의 경우에도 보통은 유사한 주제를 다루고 있는 동일 cluster 문서임을 전제로 하고 있지만, 여러 문서 중 어떻게 하면 중요한 정보를 식별하고 중복 정보를 걸러낼 수 있는가는 쉽지 않은 문제입니다.

      특정 제품에 대한 리뷰를 요약하는 task는 가장 쉽게 생각할 수 있는 MDS의 예입니다. 보통 Opinion summarization라고 불리는 이 task는 텍스트 길이가 짧고 주관성이 높다는 특징을 가집니다. 위키문서를 생성해내는 작업 또한 MDS로 생각해볼 수 있습니다. Liu et al. (2018)는 위키문서에 reference로 달린 웹사이트 본문들을 원문으로, 해당 위키문서 문장들을 summary로 간주하여 데이터화 하고, 이를 통해 위키 생성 모델을 만듭니다.

    • Long documents summarization

      Liu et al. (2018)는 긴 텍스트를 인풋으로 받아들이기 위해 우선 통계적 방법으로 extractive summary를 만들어 중요한 문장만 추린 후 모델의 입력으로 사용합니다. 또한 transformer 연산량을 줄이기 위해 input을 블락 단위로 나눠서 연산하고 이 때 1-d convolution을 적용하여 개별 attention key, value의 수를 줄인 attention 방식을 사용합니다. Big Bird (2020) 논문은 transformer의 계산량을 줄이기 위해 기존 모든 단어 간 조합을 살펴보는 full attention 방식(quadratic) 대신 sparse attention mechanism(linear)을 도입합니다. 그 결과 동일 성능 하드웨어로 최대 8배까지 긴 문장을 요약할 수 있었습니다.

      반면 Gidiotis &Tsoumakas (2020)은 긴 텍스트 요약 문제를 한 번에 풀지 않고 여러 작은 텍스트 요약 문제들로 바꿔 푸는 divide-and-conquer 접근을 시도합니다. 원문과 target summary를 multiple smaller source-target pairs로 바꿔서 모델을 훈련합니다. inference 시에는 이 모델을 통해 출력된 partial summaries를 aggregate하여 complete summary를 만듭니다.


  • Performance improvement

    어떻게 하면 더 좋은 요약문을 생성해낼 수 있을까요?

    • Transfer Learning

      최근 NLP에서 Pretraining model을 이용하는 것은 거의 default가 되었습니다. 그렇다면 Text Summarization에서 좀 더 좋은 성능을 보여줄 수 있는 Pretraining model을 만들기 위해서는 어떤 구조를 가져야 할까요? 어떤 objective를 가져야 할까요?

      PEGASUS (2020)에서는 텍스트 요약과정과 objective가 유사할수록 높은 성능을 보여줄 것이라는 가정하에 ROUGE score에 기반하여 중요하다고 판단되는 문장을 골라 문장 단위로 마스킹하는 GSG(Gap Sentences Generation) 방식을 사용했습니다. 현 SOTA 모델인 BART (2020)(Bidirectional and Auto-Regressive Transformers)는 입력 텍스트 일부에 노이즈를 추가하여 이를 다시 원문으로 복구하는 autoencoder 형태로 학습합니다.

    • Knowledge-enhanced text generation

      Text-to-text task에서는 원문만으로는 원하는 출력을 생성하는 것이 어려운 경우가 많습니다. 그래서 원문뿐만 아니라 추가로 다양한 knowledge를 모델에 제공하여 성능을 높이려는 시도가 있습니다. 이러한 knowledge의 source나 제공 형태는 keywords, topics, linguistic features, knowledge bases, knowledge graphs, grounded text 등 다양합니다.

      예를 들어 Tan, Qin, Xing, & Hu(2020)는 일반적인 summry dataset을 복수개의 Aspect-based Summary로 변환하기 위해 knowledge graph인 ConceptNet을, 주어진 aspect와 관련한 더 풍성한 정보를 모델에 전달하기 위해 Wikipedia를 활용합니다. 보다 더 자세히 알고 싶다면 Yu et al. (2020)가 쓴 survey 논문을 읽어보세요.

    • Post-editing Correction

      한 번에 좋은 요약문을 생성해내면 좋겠지만, 쉽지 않은 일입니다. 그렇다면 우선 요약문을 생성한 후 이를 다양한 기준에서 검토하고 수정해보면 어떨까요?

      일례로 Cao, Dong, Wu, &Cheung (2020)은 생성된 요약문에 pretrained neural corrector model을 적용하여 Factual Error를 감소시키는 방법을 제시합니다.

    • 이 외에도 최근 많은 관심을 받고 있는 **Graph Neural Network(GNN)**을 요약에 적용하는 시도도 많아지고 있습니다.


  • Data scarcity problem

    텍스트 요약이란 task는 사람이 하기에도 쉽지 않은, 시간이 많이 소모되는 작업입니다. 따라서 다른 task와 비교해도 labeled dataset을 만드는데 상대적으로 더 큰 비용이 소모되고 당연히 training을 위한 데이터가 많이 부족합니다.

    • 이에 따라 앞서 언급한 pretraining model을 이용하는 transfer Learning방식 외에도 unsupervised learning이나 reinforcement learning 방식으로 학습하거나 few-Shot Learning적 접근을 시도하고 있습니다.

    • 당연히 좋은 요약 데이터를 만드는 것 자체도 굉장히 중요한 연구 주제입니다. 특히나 현재 만들어진 summarization 관련 데이터셋의 상당수가 english 언어로 된 news type에 편중되어 있습니다. 이에 따라 최근 WikiLinguaMLSUM과 같은 multilingual datasets이 만들어지고 있습니다. 보다 자세한 내용은 MLSUM: The Multilingual Summarization Corpus2. Related Work를 살펴보세요.


  • Metric / Evaluation method

    앞서 '좋은'이라는 두루뭉술한 표현을 썼는데요. 과연 '좋은 요약문'이란 무엇일까요? Brazinskas, Lapata, & Titov (2020)에서는 좋은 요약문의 판단기준으로 다음 다섯가지를 사용합니다.

    • Fluency: the summary should be grammatically correct, easy to read and understand;
    • Coherence: the summary should be well structured and well organized;
    • Nonredundancy: there should be no unnecessary repetition in the summary;
    • Informativeness: how much useful information about the product does the summary provide?
    • Sentiment: how well the sentiment of the summary agrees with the overall sentiment of the original reviews?

    문제는 이러한 부분을 측정하는 것이 쉽지 않다는 점입니다. 텍스트 요약에서 가장 흔히 사용되는 성능 측정 지표는 ROUGE score인데요. ROUGE score에는 다양한 변종이 있지만, 기본적으로 'generated summary와 reference summary의 출현 단어와 그 순서가 얼마나 일치하는가'를 측정합니다. 뜻은 유사하지만 형태는 다른 단어가 나오거나, 단어 순서가 달라지면 설혹 더 좋은 요약문일지라도 낮은 점수를 받을 수 있겠죠. 특히 ROUGE score를 높이려다 오히려 요약문의 표현적 다양성(diversity)을 해치는 결과를 가져올 수 있습니다. 이 때문인지 많은 논문에서는 ROUGE score 뿐만 아니라 비싼 돈이 들어가는 human evaluation 결과를 추가로 제시합니다.

    Lee et al. (2020)은 generated summary가 본문 및 reference summary와 얼마나 유사한지를 이들을 SBERT로 임베딩한 후 나오는 벡터 간 유사도로 측정하는 RDASS(Reference and Document Awareness Semantic Score)를 제시합니다. 이러한 방식은 특히 단어와 여러 형태소가 결합하여 다양한 의미와 문법적 기능을 표현하는 교착어인 한국어 평가 정확도를 올려줄 것으로 기대됩니다. Kryściński, McCann, Xiong, & Socher (2020)는 Factual Consistency를 평가하기 위한 weakly-supervised, model-based approach를 제안했습니다.


  • Controllable text generation

    주어진 문서에 대해 최고의 요약문은 오직 하나일까요? 그렇지 않을 겁니다. 성향이 다른 사람들은 동일한 원문에 대해서도 서로 다른 요약문을 더 선호할 수 있습니다. 혹 동일한 사람일지라도 요약을 하는 목적이나 상황에 따라 원하는 요약문은 달라지겠죠. 이렇게 사용자가 지정한 조건에 따라 출력을 원하는 형태로 조정하는 방식controllable text generation라고 합니다. 주어진 문서에 대해 동일한 요약문을 생성하는 Generic summarization에 비해 개인화된 요약문을 제공할 수 있습니다.

    이렇게 생성되는 요약문은 이해하기 쉽고 가치있어야 할 뿐만 아니라 함께 넣어준 condition과 밀접하게 연관성을 지녀야 합니다.

    f(text, condition) = comprehensible informationthat meets the given conditions

    요약모델에 어떤 condition을 추가해볼 수 있을까요? 그리고 어떻게 하면 그 조건에 맞는 요약문을 생성해낼 수 있을까요?

    • Aspect-based summarization

      에어팟 사용자 리뷰를 요약할 때 음질, 배터리, 디자인 등의 측면을 나눠 각각에 대한 요약을 하고 싶을 수 있습니다. 아니면 글의 writing style이나 sentiment를 조정해보고 싶을 수도 있습니다. 이렇게 원문에서도 특정한 측면(aspect) 또는 특성(feature)과 관련있는 정보만을 요약하는 작업aspect-based summarization라고 합니다.

      기존에는 주로 모델 학습 시 사용했던 pre-defined aspect에서만 제한적으로 작동하는 모델만 가능했지만 최근들어 Tan, Qin, Xing, & Hu(2020)와 같이 학습 시 주어지지 않았던 arbitrary aspect에 대한 추론을 가능케 하기 위한 시도들이 이루어지고 있습니다.

    • Query focused summarization(QFS)

      Conditionquery인 경우, QFS라 부릅니다. Query는 주로 자연어 형태를 띠고 있기에 이 다양한 표현들을 어떻게 잘 임베딩하여 원문과 매칭할지가 주요한 과제입니다. 우리가 잘 아는 QA시스템과 상당히 유사하다고 할 수 있습니다.

    • Update summarization

      인간은 계속해서 학습하고 성장해나가는 동물입니다. 따라서 특정 정보에 대해 내가 느끼는 오늘의 가치는 일주일 후의 가치와 전혀 다를 수 있습니다. 내가 이미 경험한 문서에 있던 내용의 가치는 낮아질 것이고, 아직 경험하지 못한 새로운 내용은 여전히 높은 가치를 지닐 것입니다. 이러한 관점에서 해당 이용자가 이전에 경험했던 문서 내용과 유사도가 낮은 새로운 내용 위주의 요약문을 생성하는 작업update summarization이라고 합니다.

    CTRLsum은 다양한 keywords 또는 descriptive prompts를 본문과 함께 입력하여 생성되는 요약문을 조정합니다. Training 단계에서 명시적으로 학습하지 않은 keyword나 prompt에 대해서도 control 되는 것과 같은 결과를 보여준다는 점에서 보다 범용적인 controllable Text Summarization 모델이라고 할 수 있습니다. 고현웅님의 summarizers 라이브러리를 통해 쉽게 사용해볼 수 있으니 한 번 살펴보세요.


  • 이 외에도 **모델 경량화(lightweight deep learning)**와 같은 전형적인 DL 주제는 물론이고 뉴스나 위키백과와 같은 Structured text가 아닌 대화체 요약(conversation summarization) 등에 적합한 요약모델을 만들고자 하는 시도 등 다양한 주제들이 있습니다.


Related Knowledge

텍스트 요약 분야 공부를 해나가는데 있어 다음을 알고 있다면 좀 더 쉽게 공부를 진행해나갈 수 있을 것입니다.

Required

  • NLP 기본 개념 이해

    • Embedding
    • Transfer learning(Pre-training + Fine-tuning)
  • Transformer/BERT 구조 및 Pre-training objective 이해

    최신 NLP 분야 논문들의 상당수가 Transformer에 기반하여 만들어진 BERT, 그리고 이 BERT의 변형인 RoBERTa, T5 등 여러 Pretraining model에 기반하고 있습니다. 따라서 이들의 개략적 구조와 Pre-training objective에 대해 얕게나마 이해하고 있다면 논문을 읽거나 구현함에 있어 큰 도움이 됩니다.

  • Text Summarization 기초 개념

    • Summarization 기본 용어
      • Original text = Source text
      • generated summary는 모델이 생성해낸 요약문을 의미합니다. 반면 우리가 정답으로 간주하는(보통은 사람이 직접 원문을 보고 생성한) 요약문은 reference summary 또는 gold summary라고 부릅니다. 보통은 두 용어를 크게 구분없이 쓰는듯 하나, 전자는 generated summary를 평가하기 위한 기준이 되는 요약문이라는 면을 강조할 때, 후자는 우리가 찾는 진짜 요약문이라는 점을 강조할 때 주로 사용되는 듯 합니다.
    • Metric: Rouge, BLEU, Perplexity(PPL) 등
    • [글] icoxfog417. awesome-text-summarization
    • [PPT] Sang-Houn Choi. Text summarization

Elective

  • Graph Neural Network(GNN)

  • Machine translation(MT)

    MT는 seq2seq의 등장 이후 NLP분야 중에서도 가장 활발하게 연구되어온 task 중 하나입니다. Summarization 과정을 원 텍스트를 다른 형태의 텍스트로 변환하는 과정으로 본다면 일종의 MT라고도 볼 수 있기에, MT 관련 연구와 아이디어 중 많은 부분이 summarization 분야에 이미 차용되었거나 앞으로 적용될 가능성이 높습니다.


Papers

Must-read Papers

Year Paper Keywords
2004

Model
TextRank: Bringing order into texts
R. Mihalcea, P. Tarau

추출요약 분야의 고전이자 지금도 활발하게 사용되고 있는 대표적인 요약모델입니다. 문서 내에서 중요한 sentence(즉 summary에 포함될만한)는 다른 sentence들과 높은 similarity를 가지고 있을 것이라는 가정 하에 구글 검색엔진의 초기 아이디어인 PageRank 알고리즘을 차용하는데요. 각 sentence가 문서 내 다른 sentence와 가지는 similarity를 recursive하게 계산하기 위해 sentence-level weighted graph를 구성하고, 이 weight가 높은 sentence를 summary에 포함합니다.
통계 기반 unsupervised learning 방식으로 별도의 학습 데이터 없이 추론이 가능하고, 알고리즘이 명확하여 이해가 쉽습니다.

- [Library] gensim.summarization(3.x버전만 가능. 4.x버전에서 삭제), PyTextRank
- [이론/Code] lovit. TextRank 를 이용한 키워드 추출과 핵심 문장 추출
ext,
Graph-based(PageRank),
Unsupervised
2019

Model
BertSum: Text Summarization with Pretrained Encoders (Official code)
Yang Liu, Mirella Lapata / EMNLP 2019

BERTSUM_structure Pre-trained BERT를 요약 task에 활용하려면 어떻게 해야할까요?
BertSum은 여러 sentence를 하나의 인풋으로 넣어주기 위해 매 문장 앞에 [CLS] 토큰을 삽입하고 interval segment embeddings을 추가한 변형 input embeddings을 제안합니다.
ext 모델은 BERT에 Transformer layers를 얹은 encoder 구조를, abs 모델은 ext 모델 위에 6-layer Transformer decoder를 얹은 encoder-decoder 모델을 사용합니다.

- [Review] 이정훈(KoreaUniv DSBA)
- [Korean] KoBertSum
ext/abs,
BERT+transformer,
2-staged fine-tuning
2019

Pretraining Model
BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, Luke Zettlemoyer / ACL 2020

img BERT는 bidirectional encoder로 generation task에 약하고, GPT는 auto-regressive한 model로 bidirectional한 정보를 얻지 못한다는 단점을 가집니다.
BART는 이들을 결합한 seq2seq 형태를 가짐으로 기존에 나왔던 다양한 denosing기법을 한 모델에서 실험해볼 수 있었습니다. 그 결과 Text infilling(text span을 하나의 mask token으로 바꿈)과 Sentence shuffling(문장 순서를 랜덤으로 섞음)을 동시에 적용함으로, 특히 summarization 분야에서 기 SOTA 모델을 훌쩍 뛰어넘는 성능을 보여줍니다.

- [Korean] SKT T3K. KoBART
- [Review] 진명훈_영상, 임연수_글, Jiwung Hyun_글,
abs,
seq2seq,
Denoising autoencoder,
Text infilling
2020

Model
MatchSum: Extractive Summarization as Text Matching (Official code)
Ming Zhong, Pengfei Liu, Yiran Chen, Danqing Wang, Xipeng Qiu, Xuanjing Huang / ACL 2020

- [Review] 이유경(KoreaUniv DSBA)
ext
2020

Technique
Summarizing Text on Any Aspects: A Knowledge-Informed Weakly-Supervised Approach (Official code)
Bowen Tan, Lianhui Qin, Eric P. Xing, Zhiting Hu / EMNLP 2020

image-20210109063052942
Aspect-based summarization는 1) multiple aspect-based summaries data가 부족하고, 2) 모델을 학습한다 해도 학습한 data의 pre-defined aspects에서만 제한적으로 작동한다는 점에서 쉽지 않은 task입니다.
본 논문은 이 문제를 해결하기 위해 external knowledge sources를 활용합니다.
- generic summary를 multiple aspect-based summaries로 변환하기 위해 크게 두 단계를 거칩니다. 우선 aspect 수를 늘려주기 위해 generic summary에서 추출한 entity를 seed삼아 ConcepNet에서 그 이웃 entities까지 추출하고 이들 각각을 하나의 aspect로 간주합니다. 이 각각의 aspect에 대한 psedo summary를 만들어내기 위해 다시 ConcepNet을 이용하는데요. ConcepNet에서 해당 aspect와 연결된 주위 entity를 추출하고, generic summary 내에서 이들이 포함되어 있는 문장만 추출하여 concat합니다. 이를 해당 entity(aspect)에 대한 summary로 간주합니다.
- 주어진 aspect와 관련한 더 풍성한 정보를 모델에 전달하기 위해 Wikipedia를 활용합니다. 구체적으로는 해당 문서 내에서 등장하는 단어 중, 문서 내 TF-IDF 점수가 높으면서 동시에 해당 aspect에 해당하는 Wikipedia 페이지에 등장하는 10개 이하의 단어목록을 모델 input으로 aspect와 함께 넣어줍니다.
이러한 방식으로 pretraining model(BART)을 fine-tuning함으로, 적은 데이터로 arbitrary aspect에 대해서도 우수한 성능을 보였습니다.
Aspect-based,
Knowlege-rich
2020

Review
What Have We Achieved on Text Summarization?
Dandan Huang, Leyang Cui, Sen Yang, Guangsheng Bao, Kun Wang, Jun Xie, Yue Zhang / EMNLP 2020

ROUGE score뿐만 아니라 Accuracy 및 Fluency 관련 8 metrics(PolyTope)에 따라 10개의 대표적인 요약모델을 평가합니다. 그 결과를 요약해보자면,
- 전통적 rule-based 방법은 여전히 baseline으로 유효하다.
- 유사한 세팅 하에서는 abs모델보다 ext모델이 대체적으로 faithfulness와 factual-consistency에서 더 좋은 성능을 보임. The main shortcoming is unnecessity for extractive models, and omission and intrinsic hallucination for abstractive models.
- Sentence representation을 생성하기 위한 transformer와 같은 더 복잡한 구조가 duplication 문제 말고는 크게 도움이 안됨
- Copy(Pointer-Generator)는 reproducing detail하는데, Inaccuracy Intrinsic 뿐만 아니라 추출/생성을 적절히 혼합하여 word level duplication 문제도 효과적으로 해결함. but tends to cause redundancy to a certain degree.
Coverage는 by a large margin으로repetition errors(Duplication)은 감소시키나, 동시에 Addition과 Inaccuracy Intrinsic error를 증가시키는 한계
- ext후 abs하는 hybrid 모델은 원문의 일부(extracted snippets)을 통해 요약을 생성해내기에 recall은 좋지만 Inaccuracy error에 문제가 있을 수 있음
- Pre-training, 특히 encoder only 모델(BertSumExtAbs)보다 encoder-decoder 모델(BART)은 요약분야에서 아주 효과적임. 이는 입력에 대한 이해 및 생성을 모두 pretraining하는 것이 content selection과 combination에 아주 유용함을 시사함. 동시에 대부분의 abs 모델이 앞쪽 문장만 집중하는데 반해 BART가 원문 전반을 모두 보고 있다는 점은 pretraing 시 sentence shuffling의 효과로 보임
image-20210109062449344

- [Review] 김한길, 허훈
review
2020

Model
CTRLsum: Towards Generic Controllable Text Summarization (Official code)
Junxian He, Wojciech Kryściński, Bryan McCann, Nazneen Rajani, Caiming Xiong

CTRLsum은 keywords 또는 descriptive prompts를 통해 생성되는 요약문을 조정할 수 있는 controllable Text Summarization 모델입니다.
- Training: 일반적인 summary 데이터를 변형하여 keyword 기반 controllable summary 데이터셋을 만들기 위해, 본문에서 요약문과 가장 유사한(ROUGE score가 높은) sub-sequences를 고르고 거기서 keyword를 추출합니다. 이를 문서와 함께 input으로 넣어 pretrained BART를 fine-tuning 합니다.
image-20210323020610430
- Inference: 아래 이미지와 같이 본문과 함께 적절한 keywords와 prompts(optional)를 넣어주면 특정 entity에 대한 요약문을 생성하거나 요약문 길이를 조정하거나, 질문(query)에 대한 응답을 생성하는 등의 요약문 control이 가능합니다. 주목할 부분은 모델 training 단계에서 이러한 prompts를 명시적으로 학습시키지 않았는데도 마치 prompt를 이해하고 이에 따른 요약을 생성해내는 것 처럼 작동한다는 점입니다. GPT-3와 유사하게요.image-20210323023840092
- [Library] Package for controllable summarization based CTRLsum
controllable,
BART

SOTA & Latest Research List

SOTA Model List

Latest Research List


Resources

실제로 요약 모델을 만들고 실습하는데 필요한 코드, 데이터, 프리트레인 모델을 정리했습니다. 한국어 자료 위주이며, 영어 관련 자료는 상기 Papers 항목에서 각 논문의 code 부분을 참고해주세요

Code / Examples

Datasets

아래 사용한 약자의 의미는 다음과 같습니다.

  • w: The number of words의 평균값; s: The average number of sentences의 평균값

    예) 13s/214w → 1s/26w 는 평균 13문장(평균 214단어)으로 구성된 본문 텍스트와 평균 1개 문장(평균 26개 단어)로 구성된 요약 텍스트가 제공된다는 의미입니다.

  • abs: Abstractive summary; ext: Extractive summary


Korean

Dataset Domain / Length Volume
(pair)
License
모두의 말뭉치-문서 요약 말뭉치
짧은 뉴스 본문에 대한 제목, 3문장 abs 및 ext summay 제공
id로 모두의말뭉치-신문 말뭉치와 결합하면 소제목, media, date, topic 관련 추가 정보를 얻을 수 있음
뉴스
- origin → 3s(abs); 3s(ext)
13,167 국립국어원
(개별 약정)
AIHub-문서요약 텍스트
신문기사, 기고문, 잡지기사, 법원판결문에 대한 abs 및 ext summay 제공

- [EDA] 데이터 EDA 노트북
- 한국어 문서 추출요약생성요약 AI 경진대회(~ 20.12.09)에서 사용
- 신문기사 30만, 기고문 6만, 잡지기사 1만, 법원 판결문 3만
- 13s/214w → 1s/26w(abs); 3s/55w(ext)
400,000 AIHub
(개별 약정)
AIHub-논문자료 요약
학술논문과 특허명세서에 대해 전체 및 섹션별 abs summary 제공
- 학술논문, 특허명세서
- origin → abs
350,000 AIHub
(개별 약정)
AIHub-도서자료 요약
다양한 주제의 한국어 도서 원문에 대한 abs summary 제공
- 보건사회, 생명, 조세, 환경, 지역사회 개발, 무역, 경제, 노동 등
- 300-1000자 원문 → abs
200,000 AIHub
(개별 약정)
sae4K 50,000 CC-BY-SA-4.0
sci-news-sum-kr-50 뉴스(IT/과학)
50 MIT
WikiLingua: A Multilingual Abstractive Summarization Dataset (2020)
매뉴얼 사이트인 WikiHow를 기반으로 Korean, English 등 18개국어 summay dataset 제공

- paper, Collab notebook
- How-to docs
- 391w→ 39w
12,189
(전체 770,087 중 kor)
2020,
CC BY-NC-SA 3.0

English / Multilingual

Dataset Domain / Length Volume License
ScisummNet(paper)
ACL(computational linguistics, NLP) research papers에 대한 세 가지 유형의 summary(논문 abstract, collection of citation sentences, human summary) 제공

- CL-SciSumm 2019-Task2(repo, paper)
- CL-SciSumm @ EMNLP 2020-Task2(repo)
- Research paper
(computational linguistics, NLP)
- 4,417w → 110w(논문abstract) ; 2s(citation); 151w(abs)
1,000(abs/ ext) CC BY-SA 4.0
LongSumm
NLP 및 ML 분야 Research paper에 대한 상대적으로 장문의 summary(관련 blog posts 기반 abs, 관련 conferences videos talks 기반 ext) 제공


- LongSumm 2020@EMNLP 2020
- LongSumm 2021@ NAACL 2021
- Research paper(NLP, ML)
- origin → 100s/1,500w(abs); 30s/ 990w(ext)
700(abs) + 1,705(ext) Attribution-NonCommercial-ShareAlike 4.0
CL-LaySumm
NLP 및 ML 분야 Research paper에 대해 비전문가를 위한 쉬운(lay) summary 제공

- CL-LaySumm @ EMNLP 2020
- Research paper(epilepsy, archeology, materials engineering)
- origin → 70~100w
600(abs) 개별약정 필요(a.dewaard@elsevier.com 로 이메일을 송부)
Global Voices: Crossing Borders in Automatic News Summarization (2019)

- Paper
- 뉴스
- 359w→ 51w
MLSUM: The Multilingual Summarization Corpus
CNN/Daily Mail dataset과 유사하게 news articles 내 highlights/description을 summary로 간주하여 English, French, German, Spanish, Russian,Turkish에 대한 summary dataset을 구축

- Paper, 이용(huggingface)
- 뉴스
- 790w→ 56w
(en 기준)
1.5M(abs) non-commercial research purposes only

Pre-trained Models

Model Pre-training Usage License
BERT(multilingual)
BERT-Base(110M parameters)
- Wikipedia(multilingual)
- WordPiece.
- 110k shared vocabs
- BERT-Base, Multilingual Cased 버전 권장
(--do_lower_case=false 옵션 넣어주기)
- Tensorflow
Google
(Apache 2.0)
KOBERT
BERT-Base(92M parameters)
- 위키백과(문장 5M개), 뉴스(문장 20M개)
- SentencePiece
- 8,002 vocabs(unused token 없음)
- PyTorch
- KoBERT-Transformers(monologg)를 통해 Huggingface Transformers 라이브러리로 이용 가능, DistilKoBERT 이용 가능
SKTBrain
(Apache-2.0)
KorBERT
BERT-Base
- 뉴스(10년 치), 위키백과 등 23GB
- ETRI 형태소분석 API / WordPiece(두 버전을 별도로 제공)
- 30,349 vocabs
- Latin alphabets: Cased
- [소개] 임준(ETRI). NLU Tech Talk with KorBERT
- PyTorch, Tensorflow
ETRI
(개별 약정)
KcBERT
BERT-Base/Large
- 네이버 뉴스 댓글(12.5GB, 8.9천만개 문장)
(19.01.01 ~ 20.06.15 기사 중 댓글 많은 기사 내 댓글과 대댓글)
- tokenizers의 BertWordPieceTokenizer
- 30,000 vocabs
Beomi
(MIT)
KoBART
BART(124M)
- 위키백과(5M), 기타(뉴스, 책, 모두의 말뭉치 (대화, 뉴스, ...), 청와대 국민청원 등 0.27B)
- tokenizers의 Character BPE tokenizer
- 30,000 vocabs( 포함)

- [Example] seujung. KoBART-summarization(Code, Demo)
- 요약 task에 특화
- Huggingface Transformers 라이브러리 지원
- PyTorch
SKT T3K
(modified MIT)

Others

Services


Recommended Resources


Other Papers List

Review

Year Paper
2018 A Survey on Neural Network-Based Summarization Methods
Y. Dong
2020 Review of Automatic Text Summarization Techniques & Methods
Widyassari, A. P., Rustad, S., Shidik, G. F., Noersasongko, E., Syukur, A., & Affandy, A.
2020 A Survey of Knowledge-Enhanced Text Generation
Wenhao Yu, Chenguang Zhu, Zaitang Li, Zhiting Hu, Qingyun Wang, Heng Ji, Meng Jiang

Classic

Year Paper Keywords
1958 Automatic creation of literature abstracts
P.H. Luhn
gen-ext
2000 Headline Generation Based on Statistical Translation
M. Banko, V. O. Mittal, and M. J. Witbrock
gen-abs
2004 LexRank: graph-based lexical centrality as salience in text summarization
G. Erkan, and D. R. Radev,
gen-ext
2005 Sentence Extraction Based Single Document Summarization
J. Jagadeesh, P. Pingali, and V. Varma
gen-ext
2010 Title generation with quasi-synchronous grammar
K. Woodsend, Y. Feng, and M. Lapata,
gen-ext
2011 Text summarization using Latent Semantic Analysis
M. G. Ozsoy, F. N. Alpaslan, and I. Cicekli
gen-ext

Based on Neural Net

Year Paper Keywords
2014 On using very large target vocabulary for neural machine translation
S. Jean, K. Cho, R. Memisevic, and Yoshua Bengio
gen-abs
2015

Model
NAMAS: A Neural Attention Model for Abstractive Sentence Summarization (Code)
A. M. Rush, S. Chopra, and J. Weston / EMNLP 2015

기존의 문장 선택 및 조합 방식을 넘어서기 위해 기 Seq2Seq에 target-to-source attention을 도입하여 abstractive summary를 생성합니다.
abs
Seq2Seq with att
2015 Toward Abstractive Summarization Using Semantic Representations
Fei Liu,Jeffrey Flanigan,Sam Thomson,Norman M. Sadeh,Noah A. Smith / NAA-CL
abs,
task-event,
arch-graph
2016 Neural Summarization by Extracting Sentences and Words
Jianpeng Cheng,Mirella Lapata / ACL
gen-2stage
2016 Abstractive sentence summarization with attentive recurrent neural networks
S. Chopra, M. Auli, and A. M. Rush / NAA-CL
gen-abs,
RNN,CNN,
arch-att
2016 Abstractive text summarization using sequence-to-sequence RNNs and beyond
R. Nallapati, B. Zhou, C. dos Santos, C. Gulcehre, and B. Xiang / CoNLL
gen-abs, data-new
2017

Model
SummaRuNNer: A Recurrent Neural Network based Sequence Model for Extractive Summarization of Documents
R. Nallapati, F. Zhai and B. Zhou

img
Hierarchical BiGRU 구조로 문서를 인코딩합니다. 우선 sentence별로 첫 번째 BiGRU에 word 단위로 입력하여 sentence vector를 만들고, 이를 다시 BiGRU에 통과시켜 문장별 임베딩(hidden states)을 생성합니다. 이 개별 문장 임베딩과 이들을 wighted sum한 doc vectort를 logistic classifier에 입력해 해당 문장이 요약에 포함시킬지 여부를 판단합니다.
ext,
RNN
(hierarchical BiGRU)
2017

Model,
Technique
Pointer-generator: Get to the point: Summarization with pointergenerator networks (Code)
A. See, P. J. Liu, and C. D. Manning / ACL 2017

img
Generator를 통해 vocabulary distrubution을 생성하고, pointer를 통해 원문의 어떤 단어를 copy할 지를 나타내는 attention distribution을 생성한 후, 학습된 생성 확률(Pgen)에 따라 weighted-sum하여 최종 단어 생성분포를 결정합니다. Abstactive 방식인 generator와 extractive 방식인 attention을 결합한 hybrid 방식으로 기 Seq2Seq with Attention 방식이 factual consistency가 낮던 문제를 보완합니다. 또한 특정 단어가 반복해서 생성되는 문제를 해결하고자, 현재까지 사용된 단어별 누적 attention distribution값(coverage vector c)에 기반한 repetition penalty term을 loss에 포함합니다.

- [Review] 김형석(KoreaUniv DSBA)
ext/abs,
Pointer-Generator,
Coverage loss
2017 A deep reinforced model for abstractive summarization
R. Paulus, C. Xiong, and R. Socher
gen-ext/abs
2017 Abstractive Document Summarization with a Graph-Based Attentional Neural Model
Jiwei Tan,Xiaojun Wan,Jianguo Xiao / ACL
ext, abs,
arch-graph, arch-att
2017 Deep Recurrent Generative Decoder for Abstractive Text Summarization
Piji Li,Wai Lam,Lidong Bing,Zihao W. Wang / EMNLP
latent-vae
2017 Generative Adversarial Network for Abstractive Text Summarization
2018 Controlling Decoding for More Abstractive Summaries with Copy-Based Networks
N. Weber, L. Shekhar, N. Balasubramanian, and K. Cho
ext/abs
2018

Model
Generating Wikipedia by Summarizing Long Sequences
P. J. Liu, M. Saleh, E. Pot, B. Goodrich, R. Sepassi, L. Kaiser, and N. Shazeer / ICLR
ext/abs
2018 Query Focused Abstractive Summarization: Incorporating Query Relevance, Multi-Document Coverage, and Summary Length Constraints into seq2seq Models
T. Baumel, M. Eyal, and M. Elhadad
ext/abs
2018

Model
Bottom-Up Abstractive Summarization
Sebastian Gehrmann,Yuntian Deng,Alexander M. Rush / EMNLP 2018

요약에 사용될만한 단어들을 먼저 추출(ext)한 후, 이를 기반으로 요약을 생성(abs)하는 대표적인 2staged 모델입니다.*
abs,
hybrid,
bottom-up attention
2018 Deep Communicating Agents for Abstractive Summarization
Asli Çelikyilmaz,Antoine Bosselut,Xiaodong He,Yejin Choi / **NAA-CL
abs, task-longtext, arch-graph
2018 Fast Abstractive Summarization with Reinforce-Selected Sentence Rewriting
Y. Chen, M. Bansal
gen-ext/abs
arch-graph
2018 Ranking Sentences for Extractive Summarization with Reinforcement Learning
Shashi Narayan,Shay B. Cohen,Mirella Lapata
ext, abs,
RNN,CNN,
nondif-reinforce
2018 BanditSum: Extractive Summarization as a Contextual Bandit
Yue Dong,Yikang Shen,Eric Crawford,Herke van Hoof,Jackie Chi Kit Cheung
ext, abs,
RNN,
nondif-reinforce
2018 Content Selection in Deep Learning Models of Summarization
Chris Kedzie,Kathleen McKeown,Hal Daumé
ext,
task-knowledge
2018 Faithful to the Original: Fact Aware Neural Abstractive Summarization
2018 A reinforced topic-aware convolutional sequence-to-sequence model for abstractive text summarization
2018 Don’t Give Me the Details, Just the Summary! Topic-Aware Convolutional Neural Networks for Extreme Summarization
2018 Global Encoding for Abstractive Summarization
2018 Fast Abstractive Summarization with Reinforce-Selected Sentence Rewriting
2018 Neural Document Summarization by Jointly Learning to Score and Select Sentences
2018 Retrieve, Rerank and Rewrite: Soft Template Based Neural Summarization
2019

Model
Fine-tune BERT for Extractive Summarization
Y. Liu
gen-ext
2019 Pretraining-Based Natural Language Generation for Text Summarization
H. Zhang, J. Xu and J. Wang
gen-abs
2019 Improving the Similarity Measure of Determinantal Point Processes for Extractive Multi-Document Summarization
Sangwoo Cho,Logan Lebanoff,Hassan Foroosh,Fei Liu / ACL
task-multiDoc
2019 HIBERT: Document Level Pre-training of Hierarchical Bidirectional Transformers for Document Summarization
Xingxing Zhang,Furu Wei,Ming Zhou / ACL
arch-transformer
2019 Searching for Effective Neural Extractive Summarization: What Works and What's Next Ming Zhong,Pengfei Liu,Danqing Wang,Xipeng Qiu,Xuanjing Huang / ACL gen-ext
2019 BottleSum: Unsupervised and Self-supervised Sentence Summarization using the Information Bottleneck Principle
Peter West,Ari Holtzman,Jan Buys,Yejin Choi / EMNLP
gen-ext, sup-sup, sup-unsup, arch-transformer
2019 Scoring Sentence Singletons and Pairs for Abstractive Summarization
Logan Lebanoff,Kaiqiang Song,Franck Dernoncourt,Doo Soon Kim,Seokhwan Kim,Walter Chang,Fei Liu
gen-abs, arch-cnn
2019

Model
PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization (Code)
Jingqing Zhang, Yao Zhao, Mohammad Saleh, Peter J. Liu / ICML 2020

image-20210109064954956
PEGASUS는 Pretraining objective가 텍스트 요약 과정과 흡사할수록 높은 성능을 보여줄 것이라는 가정하에 ROUGE score에 기반하여 중요하다고 판단되는 문장을 골라 문장 단위로 마스킹하는 GSG(Gap Sentences Generation) 방식을 사용했습니다.

- [Review] 김한길. 영상, 발표자료
2020

Model
TLDR: Extreme Summarization of Scientific Documents (Code, Demo)
Isabel Cachola, Kyle Lo, Arman Cohan, Daniel S. Weld
gen-ext/abs

References

About

텍스트 요약 분야의 주요 연구 주제, Must-read Papers, 이용 가능한 model 및 data 등을 추천 자료와 함께 정리한 저장소입니다.

Topics

Resources

License

Stars

Watchers

Forks