<?xml version="1.0" encoding="UTF-8" ?>
<modsCollection xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://www.loc.gov/mods/v3" xmlns:slims="http://slims.web.id" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-3.xsd">
<mods version="3.3" id="143575">
 <titleInfo>
  <title>LC-BERT:</title>
  <subTitle>IMPLEMENTASI REDUKSI DIMENSI PADA VEKTOR WORD EMBEDDING YANG DIHASILKAN OLEH BIDIRECTIONAL ENCODER REPRESENTATIONS FROM TRANSFORMERS (BERT)</subTitle>
 </titleInfo>
 <name type="Personal Name" authority="">
  <namePart>Andri Darnius</namePart>
  <role>
   <roleTerm type="text">Primary Author</roleTerm>
  </role>
 </name>
 <typeOfResource manuscript="no" collection="yes">mixed material</typeOfResource>
 <genre authority="marcgt">bibliography</genre>
 <originInfo>
  <place>
   <placeTerm type="text">Banda Aceh</placeTerm>
   <publisher>Fakultas MIPA Informatika Magister Kecerdasan Buatan</publisher>
   <dateIssued>2024</dateIssued>
  </place>
 </originInfo>
 <language>
  <languageTerm type="code"></languageTerm>
  <languageTerm type="text"></languageTerm>
 </language>
 <physicalDescription>
  <form authority="gmd">Theses</form>
  <extent></extent>
 </physicalDescription>
 <note>Penelitian ini berfokus pada peningkatan efisiensi model kecerdasan buatanyang kompleks seperti BERT dengan menerapkan teknik reduksi dimensi. ModelBERT memiliki jutaan parameter yang menyebabkan kebutuhan komputasi dan memori yang besar selama pelatihan. Pendekatan yang diambil memanfaatkan BERT sebagai fondasi, dengan menerapkan teknik whitening atau sphering sebagai metode reduksi dimensi pada tahap ekstraksi fitur. Dua skenario dievaluasi: benchmark standar menggunakan BERT asli, dan skenario modifikasi yang melibatkan ekstraksi fitur BERT, teknik whitening (PCA, ZCA, BERT Whitening), dan klasifikasi menggunakan Bidirectional Long-Short Memory (Bi-LSTM) dan MLP. Dataset AG News yang berisi judul dan deskripsi berita dengan 4 kelas topik digunakan sebagai fokus Utama penelitian. Hasil menunjukkan model pada skenario modifikasi, yang mengombinasikan fitur BERT, BERT whitening, dan klasifier Bi-LSTM, memberikan performa terbaik dalam akurasi, skor F1, waktu pelatihan, dan penggunaan memori Graphics Processing Unit (GPU). Temuan ini mengindikasikan bahwa reduksi dimensi whitening dapat meningkatkan efisiensi klasifikasi teks tanpa mengorbankan akurasi. Penelitian ini diharapkan dapat memperluas aplikasi kecerdasan buatan di lingkungan dengan sumber daya terbatas dengan meningkatkan efisiensi model kompleks seperti BERT melalui optimasi parameter dan reduksi dimensi.</note>
 <note type="statement of responsibility"></note>
 <classification>0</classification>
 <identifier type="isbn"></identifier>
 <location>
  <physicalLocation>ELECTRONIC THESES AND DISSERTATION Universitas Syiah Kuala</physicalLocation>
  <shelfLocator></shelfLocator>
 </location>
 <slims:digitals/>
</mods>
<recordInfo>
 <recordIdentifier>143575</recordIdentifier>
 <recordCreationDate encoding="w3cdtf">2024-12-23 16:45:51</recordCreationDate>
 <recordChangeDate encoding="w3cdtf">2024-12-24 08:33:15</recordChangeDate>
 <recordOrigin>machine generated</recordOrigin>
</recordInfo>
</modsCollection>