<?xml version="1.0" encoding="UTF-8" ?>
<modsCollection xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://www.loc.gov/mods/v3" xmlns:slims="http://slims.web.id" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-3.xsd">
<mods version="3.3" id="1712363">
 <titleInfo>
  <title>EVALUASI KINERJA ENCODER DARI MODEL NO LANGUAGE LEFT BEHIND UNTUK KLASIFIKASI TEKS SENTIMEN DALAM BEBERAPA BAHASA DAERAH DI INDONESIA</title>
 </titleInfo>
 <name type="Personal Name" authority="">
  <namePart>Zul Akhyar</namePart>
  <role>
   <roleTerm type="text">Primary Author</roleTerm>
  </role>
 </name>
 <typeOfResource manuscript="no" collection="yes">mixed material</typeOfResource>
 <genre authority="marcgt">bibliography</genre>
 <originInfo>
  <place>
   <placeTerm type="text">Banda Aceh</placeTerm>
   <publisher>Fakultas mipa</publisher>
   <dateIssued>2026</dateIssued>
  </place>
 </originInfo>
 <language>
  <languageTerm type="code">id</languageTerm>
  <languageTerm type="text">Indonesia</languageTerm>
 </language>
 <physicalDescription>
  <form authority="gmd">Skripsi</form>
  <extent></extent>
 </physicalDescription>
 <note>Penelitian ini bertujuan untuk mengevaluasi kinerja encoder dari model No Language&#13;
Left Behind (NLLB) dalam tugas klasifikasi sentimen pada beberapa bahasa daerah di&#13;
Indonesia. Model NLLB yang awalnya dikembangkan untuk penerjemahan mesin&#13;
dieksplorasi kemampuannya dalam menghasilkan representasi kontekstual teks yang&#13;
relevan untuk tugas klasifikasi sentimen. Dataset yang digunakan adalah NusaX, yang&#13;
mencakup 12 bahasa, termasuk Bahasa Indonesia, Inggris, dan 10 bahasa daerah. Dua&#13;
pendekatan pelatihan diterapkan, yaitu fine-tuning, di mana seluruh parameter model&#13;
disesuaikan dengan data klasifikasi sentimen, dan partial fine-tuning, di mana hanya&#13;
lapisan atas yang diperbarui sementara embedding layer dibekukan untuk&#13;
mempertahankan representasi leksikal awal. Pelatihan dilakukan menggunakan&#13;
algoritma optimisasi AdamW dengan fungsi kerugian CrossEntropyLoss, serta mean&#13;
pooling sebagai mekanisme agregasi fitur. Evaluasi dilakukan menggunakan metrik&#13;
accuracy dan macro F1-score baik secara multibahasa maupun per-bahasa. Hasil&#13;
penelitian menunjukkan bahwa kedua pendekatan menghasilkan performa yang&#13;
sebanding dengan nilai accuracy 81% dan macro F1-score 80% pada data&#13;
multibahasa. Analisis per-bahasa juga memperlihatkan bahwa model bekerja lebih&#13;
baik pada bahasa yang telah terdaftar dalam pelatihan awal NLLB, seperti bahasa&#13;
Aceh, Bali, Banjar, Minangkabau, Jawa, dan Sunda, dengan accuracy berkisar antara&#13;
79–86%. Sementara itu, beberapa bahasa yang belum termasuk dalam cakupan&#13;
pelatihan NLLB, seperti Ngaju, Madura, dan Batak Toba, menunjukkan performa yang&#13;
sedikit lebih rendah, dengan accuracy berkisar antara 70–78%. Penelitian ini&#13;
menunjukkan bahwa encoder NLLB memiliki potensi adaptasi yang baik untuk tugas&#13;
klasifikasi teks, bahkan dalam konteks bahasa daerah dengan sumber daya terbatas.</note>
 <note type="statement of responsibility"></note>
 <subject authority="">
  <topic>NATURAL LANGUAGE PROCESSING - COMPUTER SCIENCE</topic>
 </subject>
 <classification>006.35</classification>
 <identifier type="isbn"></identifier>
 <location>
  <physicalLocation>ELECTRONIC THESES AND DISSERTATION Universitas Syiah Kuala</physicalLocation>
  <shelfLocator></shelfLocator>
 </location>
 <slims:digitals/>
</mods>
<recordInfo>
 <recordIdentifier>1712363</recordIdentifier>
 <recordCreationDate encoding="w3cdtf">2026-02-25 11:26:51</recordCreationDate>
 <recordChangeDate encoding="w3cdtf">2026-02-25 12:22:39</recordChangeDate>
 <recordOrigin>machine generated</recordOrigin>
</recordInfo>
</modsCollection>