Bahari, Andika (2023) Peringkasan Teks Otomatis Abstraktif Menggunakan Transformer Pada Teks Bahasa Indonesia. Other thesis, Universitas Komputer Indonesia.
1.UNIKOM_ANDIKA BAHARI_COVER.pdf - Published Version
Download (58kB) | Preview
19.UNIKOM_ANDIKA BAHARI_LEMBAR PENGESAHAN.pdf - Published Version
Download (267kB) | Preview
17.UNIKOM_ANDIKA BAHARI_SURAT KETERANGAN PUBLIKASI.pdf - Published Version
Download (145kB) | Preview
20.UNIKOM_ANDIKA BAHARI_SURAT PERNYATAAN ORISINALITAS.pdf - Published Version
Download (152kB) | Preview
4.UNIKOM_ANDIKA BAHARI_KATA PENGANTAR.pdf - Published Version
Download (6kB) | Preview
5.UNIKOM_ANDIKA BAHARI_DAFTAR ISI.pdf - Published Version
Download (197kB) | Preview
11.UNIKOM_ANDIKA BAHARI_BAB 1.pdf - Published Version
Download (137kB) | Preview
12.UNIKOM_ANDIKA BAHARI_BAB 2.pdf - Published Version
Download (572kB) | Preview
13.UNIKOM_ANDIKA BAHARI_BAB 3.pdf - Published Version
Restricted to Repository staff only
Download (1MB) | Request a copy
14.UNIKOM_ANDIKA BAHARI_BAB 4.pdf - Published Version
Restricted to Repository staff only
Download (406kB) | Request a copy
15.UNIKOM_ANDIKA BAHARI_BAB 5.pdf - Published Version
Download (9kB) | Preview
10.UNIKOM_ANDIKA BAHARI_DAFTAR PUSTAKA.pdf - Published Version
Download (132kB) | Preview
18.UNIKOM_ANDIKA BAHARI_KONTAK PENULIS _ KONTRIBUTOR.pdf - Published Version
Download (5kB) | Preview
Abstract
Peringkasan teks abstraktif digunakan untuk menghasilkan ringkasan yang mirip dengan ringkasan buatan manusia. Untuk mencapai kemampuan tersebut, biasanya diterapkan arsitektur deep learning yang bersifat recurrent, seperti RNN, LSTM, dan GRU. Pada penelitian sebelumnya yang membahas peringkasan teks abstraktif dalam bahasa Indonesia, model recurrent banyak digunakan dan terdapat masalah pada kohesi dan tata bahasa dari ringkasan yang dihasilkan oleh model, sehingga hal ini bisa berdampak terhadap performa. Saat ini, terdapat arsitektur yang lebih baru bernama Transformer yang mengandalkan mekanisme attention secara keseluruhan. Karena sifatnya yang tidak recurrent, Transformer mengatasi masalah ketergantungan terhadap deretan hidden state yang terjadi pada model recurrent dan bisa mempertahankan informasi pada seluruh input sequence. Dengan demikian, pada penelitian ini, penulis menggunakan Transformer untuk mengevaluasi seberapa baik Transformer dalam melakukan peringkasan teks abstraktif dalam bahasa Indonesia. Pelatihan dilakukan menggunakan pre-trained model T5 dengan dataset Indosum yang berisi sekitar 19 ribu pasangan berita dan ringkasan. Skor evaluasi paling tinggi yang berhasil dicapai adalah ROUGE-1 sebesar 0.61 dan ROUGE-2 sebesar 0.51.
| Item Type: | Thesis (Other) |
|---|---|
| Uncontrolled Keywords: | peringkasan teks abstraktif, Transformer, T5, Indonesia |
| Subjects: | 000 COMPUTER SCIENCE, INFORMATION & GENERAL WORKS > 004 Data Processing & Computer Science Q Science > QA Mathematics > QA76 Computer software |
| Divisions: | S1 Skripsi > Teknik Informatika |
| Depositing User: | Mia Hayati Kosasih |
| Date Deposited: | 04 Oct 2024 03:43 |
| Last Modified: | 04 Oct 2024 03:43 |
| URI: | http://elibrary.unikom.ac.id/id/eprint/9303 |
