議論抽出(Argument Mining: AM)とは、テキストから議論、その構成要素、および議論と構成要素間の関係を自動的に抽出するプロセスである。オンライン討論をサポートするプラットフォームが増えるにつれ、特に下流タスクを支援する上で、AMの必要性はますます切迫している。関係ベースの議論抽出(Relation-based AM: RbAM)は、議論間の合意(支持)関係と不一致(攻撃)関係を特定することに焦点を当てたAMの一形態である。RbAMは困難な分類課題であり、既存手法は満足のいく性能を発揮できていない。本論文では、適切に事前学習とプロンプティングを施した汎用大規模言語モデル(LLM)が、最良のベースライン(RoBERTaベース)を大幅に上回る性能を発揮し得ることを示す。具体的には、2つのオープンソースLLM(Llama-2とMistral)を用いて10のデータセットで実験を行った。