Peringkasan Teks Otomatis Abstraktif Menggunakan Transformer Pada Teks Bahasa Indonesia

Bahari, Andika (2023) Peringkasan Teks Otomatis Abstraktif Menggunakan Transformer Pada Teks Bahasa Indonesia. Other thesis, Universitas Komputer Indonesia.

[img]
Preview
Text
1.UNIKOM_ANDIKA BAHARI_COVER.pdf - Published Version

Download (58kB) | Preview
[img]
Preview
Text
19.UNIKOM_ANDIKA BAHARI_LEMBAR PENGESAHAN.pdf - Published Version

Download (267kB) | Preview
[img]
Preview
Text
17.UNIKOM_ANDIKA BAHARI_SURAT KETERANGAN PUBLIKASI.pdf - Published Version

Download (145kB) | Preview
[img]
Preview
Text
20.UNIKOM_ANDIKA BAHARI_SURAT PERNYATAAN ORISINALITAS.pdf - Published Version

Download (152kB) | Preview
[img]
Preview
Text
4.UNIKOM_ANDIKA BAHARI_KATA PENGANTAR.pdf - Published Version

Download (6kB) | Preview
[img]
Preview
Text
5.UNIKOM_ANDIKA BAHARI_DAFTAR ISI.pdf - Published Version

Download (197kB) | Preview
[img]
Preview
Text
11.UNIKOM_ANDIKA BAHARI_BAB 1.pdf - Published Version

Download (137kB) | Preview
[img]
Preview
Text
12.UNIKOM_ANDIKA BAHARI_BAB 2.pdf - Published Version

Download (572kB) | Preview
[img] Text
13.UNIKOM_ANDIKA BAHARI_BAB 3.pdf - Published Version
Restricted to Repository staff only

Download (1MB) | Request a copy
[img] Text
14.UNIKOM_ANDIKA BAHARI_BAB 4.pdf - Published Version
Restricted to Repository staff only

Download (406kB) | Request a copy
[img]
Preview
Text
15.UNIKOM_ANDIKA BAHARI_BAB 5.pdf - Published Version

Download (9kB) | Preview
[img]
Preview
Text
10.UNIKOM_ANDIKA BAHARI_DAFTAR PUSTAKA.pdf - Published Version

Download (132kB) | Preview
[img]
Preview
Text
18.UNIKOM_ANDIKA BAHARI_KONTAK PENULIS _ KONTRIBUTOR.pdf - Published Version

Download (5kB) | Preview
Official URL: https://elibrary.unikom.ac.id/

Abstract

Peringkasan teks abstraktif digunakan untuk menghasilkan ringkasan yang mirip dengan ringkasan buatan manusia. Untuk mencapai kemampuan tersebut, biasanya diterapkan arsitektur deep learning yang bersifat recurrent, seperti RNN, LSTM, dan GRU. Pada penelitian sebelumnya yang membahas peringkasan teks abstraktif dalam bahasa Indonesia, model recurrent banyak digunakan dan terdapat masalah pada kohesi dan tata bahasa dari ringkasan yang dihasilkan oleh model, sehingga hal ini bisa berdampak terhadap performa. Saat ini, terdapat arsitektur yang lebih baru bernama Transformer yang mengandalkan mekanisme attention secara keseluruhan. Karena sifatnya yang tidak recurrent, Transformer mengatasi masalah ketergantungan terhadap deretan hidden state yang terjadi pada model recurrent dan bisa mempertahankan informasi pada seluruh input sequence. Dengan demikian, pada penelitian ini, penulis menggunakan Transformer untuk mengevaluasi seberapa baik Transformer dalam melakukan peringkasan teks abstraktif dalam bahasa Indonesia. Pelatihan dilakukan menggunakan pre-trained model T5 dengan dataset Indosum yang berisi sekitar 19 ribu pasangan berita dan ringkasan. Skor evaluasi paling tinggi yang berhasil dicapai adalah ROUGE-1 sebesar 0.61 dan ROUGE-2 sebesar 0.51.

Item Type: Thesis (Other)
Uncontrolled Keywords: peringkasan teks abstraktif, Transformer, T5, Indonesia
Subjects: 000_COMPUTER SCIENCE, INFORMATION & GENERAL WORKS. > 004_Data Processing & Computer Science
Q Science > QA Mathematics > QA76 Computer software
Divisions: S1_SKRIPSI > FTIK_Teknik Informatika (01)
Depositing User: Mia Hayati Kosasih
Date Deposited: 04 Oct 2024 03:43
Last Modified: 04 Oct 2024 03:43
URI: http://elibrary.unikom.ac.id/id/eprint/9303

Actions (login required)

View Item View Item