<?xml version="1.0" encoding="UTF-8" ?>
<modsCollection xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://www.loc.gov/mods/v3" xmlns:slims="http://slims.web.id" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-3.xsd">
<mods version="3.3" id="143583">
 <titleInfo>
  <title>INTEGRASI INDOBERT DAN FITUR MACHINE LEARNING UNTUK MENINGKATKAN KINERJA PENGENALAN KETERKAITAN TEKSTUAL DALAM BAHASA INDONESIA</title>
 </titleInfo>
 <name type="Personal Name" authority="">
  <namePart>Teuku Yusransyah Tandi</namePart>
  <role>
   <roleTerm type="text">Primary Author</roleTerm>
  </role>
 </name>
 <typeOfResource manuscript="no" collection="yes">mixed material</typeOfResource>
 <genre authority="marcgt">bibliography</genre>
 <originInfo>
  <place>
   <placeTerm type="text">Banda Aceh</placeTerm>
   <publisher>Fakultas MIPA Informatika Magister Kecerdasan Buatan</publisher>
   <dateIssued>2024</dateIssued>
  </place>
 </originInfo>
 <language>
  <languageTerm type="code"></languageTerm>
  <languageTerm type="text"></languageTerm>
 </language>
 <physicalDescription>
  <form authority="gmd">Theses</form>
  <extent></extent>
 </physicalDescription>
 <note>Penelitian ini bertujuan untuk mengembangkan sebuah model Recognizing Textual Entailment (RTE) dalam bahasa Indonesia yang dinamakan Hybrid-IndoBERT-RTE. Model ini dirancang untuk menangani tantangan dalam pengenalan keterkaitan tekstual, yang merupakan tugas penting dalam pemrosesan bahasa alami atau Natural Language Processing (NLP). Arsitektur Hybrid-IndoBERT-RTE dibangun dengan melakukan modifikasi pada IndoBERT-large-p1, sebuah model bahasa yang telah terbukti efektif dalam berbagai tugas NLP bahasa Indonesia. Dalam modifikasi ini, vektor output yang dihasilkan dari IndoBERT-large-p1 digabungkan dengan fitur machine learning dari klasifikasi feature rich, yang memungkinkan model untuk menangkap informasi lebih kaya dan mendalam. Bagian classification head dari model ini terdiri dari 1 input layer, 3 hidden layer, 1 dropout layer, dan 1 output layer, yang didesain untuk meningkatkan performa prediksi model. Untuk menguji performa model, penelitian ini menggunakan dataset Wiki Revisions Edits Textual Entailment (WRETE), yang terdiri dari 450 data yang terdiri dari 300 data digunakan untuk pelatihan, 50 data untuk validasi, dan 100 data untuk pengujian. Hasil eksperimen menunjukkan bahwa Hybrid-IndoBERT-RTE mampu mencapai nilai F1-score sebesar 85%, yang menandakan bahwa model ini memiliki kemampuan yang baik dalam mengenali keterkaitan tekstual dalam bahasa Indonesia. Selain performa yang baik, model Hybrid-IndoBERT-RTE juga menunjukkan efisiensi dalam penggunaan sumber daya komputasi. Selama proses pelatihan, model ini menggunakan rata-rata sumber daya Video Random Access Memory Graphics Processing Unit (VRAM GPU) 4,2 kali lebih efisien dibandingkan dengan IndoBERT-large-p1 yang digunakan dalam penelitian IndoNLU sebelumnya. Tidak hanya itu, waktu pelatihan model ini juga 44,44 kali lebih cepat, yang memungkinkan proses eksperimen dilakukan dengan lebih cepat dan dalam iterasi yang lebih banyak. Efisiensi ini sangat penting dalam konteks pengembangan model RTE, di mana penghematan sumber daya komputasi dan waktu pelatihan dapat mempercepat inovasi dan aplikasi lebih lanjut.</note>
 <note type="statement of responsibility"></note>
 <classification>0</classification>
 <identifier type="isbn"></identifier>
 <location>
  <physicalLocation>ELECTRONIC THESES AND DISSERTATION Universitas Syiah Kuala</physicalLocation>
  <shelfLocator></shelfLocator>
 </location>
 <slims:digitals/>
</mods>
<recordInfo>
 <recordIdentifier>143583</recordIdentifier>
 <recordCreationDate encoding="w3cdtf">2024-12-23 17:04:46</recordCreationDate>
 <recordChangeDate encoding="w3cdtf">2024-12-24 08:52:38</recordChangeDate>
 <recordOrigin>machine generated</recordOrigin>
</recordInfo>
</modsCollection>