PENERAPAN NER-LDA BERBASIS MODEL TRANSFORMER UNTUK DETEKSI DAN KLASIFIKASI TWEET KEBIJAKAN PUBLIK DI INDONESIA

Dina , Merlia Efendi (2025) PENERAPAN NER-LDA BERBASIS MODEL TRANSFORMER UNTUK DETEKSI DAN KLASIFIKASI TWEET KEBIJAKAN PUBLIK DI INDONESIA. FAKULTAS MATEMATIKA ILMU PENGETAHUAN ALAM, UNIVERSITAS LAMPUNG.

[img]
Preview
File PDF
ABSTRAK.pdf

Download (345Kb) | Preview
[img] File PDF
SKRIPSI FULL.pdf
Restricted to Hanya staf

Download (5Mb) | Minta salinan
[img]
Preview
File PDF
SKRIPSI FULL TANPA BAB PEMBAHASAN.pdf

Download (3203Kb) | Preview

Abstrak (Berisi Bastraknya saja, Judul dan Nama Tidak Boleh di Masukan)

Integrasi inovasi teknologi signifikan mengubah tatanan komunikasi mentransformasikan kehidupan ke arah digital. Platform media sosial populer di Indonesia salah satunya X (Twitter). Ruang lingkup tweet dapat menjadi informasi sebagai acuan pemerintah dan pemangku kepentingan mengoptimalkan kebijakan di Indonesia. Oleh karena itu, diperlukan cara yang tepat untuk mendeteksi dan mengklasifikasi tweet keresahan masyarakat terhadap fenomena kebijakan publik yang trending pada platform X. Penelitian ini menerapan Named Entity Recognition – Latent Dirichlet Allocation (NER-LDA) dalam mengoptimalkan klasifikasi teks menggunkan model Transformer yang dibandingkan mulai dari Indonesian Bidirectional Encoder Representations from Transformers (IndoBERT), Distilled Bidirectional Encoder Representations from Transformers Multilingual (DistilBERT Multilingual), hingga Cross-lingual Language Model-Robustly Optimized Bidirectional Encoder Representations From Transformers Pretraining Approach (XLM-RoBERTa). Penelitian ini menerapkan augmentasi data Large Language Model Meta AI (LLaMA) dan hyperparameter tuning Grid Search. Hasil kombinasi parameter terbaik pada ketiga model Transformer dari data saat trending adalah batch size 16 dan learning rate sebesar 1 × 10 lalu pada data setelah trending adalah batch size 32 untuk model IndoBERT serta batch size 16 untuk model DistilBERT Multilingual dan XLM-RoBERTa dengan learning rate terbaik untuk ketiga model sebesar 1 × 10 −5 . Perbandingan ketiga model Transformer memperoleh hasil evaluasi terbaik untuk data saat trending adalah model DistilBERT Multilingual dan data setelah trending adalah model IndoBERT dengan accuracy kedua model mencapai 99%. Hasil menunjukkan bahwa model Transformer memiliki kinerja optimal dalam klasifikasi tweet kebijakan publik, baik pada data saat maupun setelah trending. Kata kunci: DistilBERT Multilingual, IndoBERT, NER -LDA, Transformer, XLM-RoBERTa. −5

Jenis Karya Akhir: Skripsi
Subyek: 500 ilmu pengetahuan alam dan matematika
500 ilmu pengetahuan alam dan matematika > 510 Matematika
Program Studi: FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM (FMIPA) > Prodi S1 Matematika
Pengguna Deposit: 2506127396 Digilib
Date Deposited: 21 Jun 2025 09:06
Terakhir diubah: 21 Jun 2025 09:06
URI: http://digilib.unila.ac.id/id/eprint/89321

Actions (login required)

Lihat Karya Akhir Lihat Karya Akhir