<?xml version="1.0" encoding="UTF-8" ?>
<modsCollection xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://www.loc.gov/mods/v3" xmlns:slims="http://slims.web.id" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-3.xsd">
<mods version="3.3" id="165667">
 <titleInfo>
  <title>MODEL VISION REFORMER UNTUK MENINGKATKAN EFESIENSI TRANSFORMER PADA PENGENALAN WAJAH</title>
 </titleInfo>
 <name type="Personal Name" authority="">
  <namePart>Muhammad Dedi Saputra</namePart>
  <role>
   <roleTerm type="text">Primary Author</roleTerm>
  </role>
 </name>
 <typeOfResource manuscript="no" collection="yes">mixed material</typeOfResource>
 <genre authority="marcgt">bibliography</genre>
 <originInfo>
  <place>
   <placeTerm type="text">Banda Aceh</placeTerm>
   <publisher>Fakultas Teknik</publisher>
   <dateIssued>2025</dateIssued>
  </place>
 </originInfo>
 <language>
  <languageTerm type="code"></languageTerm>
  <languageTerm type="text"></languageTerm>
 </language>
 <physicalDescription>
  <form authority="gmd">Theses</form>
  <extent></extent>
 </physicalDescription>
 <note>ABSTRAK&#13;
&#13;
Penelitian ini merupakan studi kuantitatif eksperimental yang bertujuan mengembangkan dan mengevaluasi kinerja model deep learning berbasis Transformer untuk pengenalan wajah, menggunakan Indonesian Muslim Student Face Dataset (IMSFD) dengan subset 10 kelas. Pendekatan dilakukan melalui integrasi arsitektur Reformer ke dalam Vision Transformer (ViT), membentuk model Vision Reformer (ViR), yang dibandingkan dengan ViT murni berdasarkan metrik akurasi, presisi, recall, dan F1-score. Proses meliputi pra-pemrosesan data, perancangan arsitektur, pelatihan dan validasi model, evaluasi performa, serta visualisasi kurva pembelajaran. Implementasi menggunakan Python pada platform AWS dengan menggunakan konfigurasi learning rate 0,001, 0,0001 dan Google Colab untuk evaluasi peforma. Hasil pengujian menunjukkan bahwa model ViR dengan learning rate 0,0001 memberikan performa terbaik dengan accuracy 0,9463, F1-Score 0,9477, precision 0,9589, dan recall 0,9463, serta menunjukkan efisiensi waktu pelatihan sebesar 41.076 detik. Sebaliknya, model ViT memerlukan waktu pelatihan lebih lama 82.368 detik pada konfigurasi serupa, menghasilkan accuracy 0,9411, lebih rendah dari ViR. Selain itu, analisis penggunaan memori GPU menunjukkan bahwa model ViR lebih efisien dibandingkan ViT, khususnya pada konfigurasi batch size kecil. Pada batch size besar (16 dan 32), ViR tetap unggul dengan selisih penggunaan memori sebesar 78 MB dan 39 MB. Selain itu, ViR menunjukkan pola penggunaan memori yang stabil dan linear, mencerminkan konsistensi dalam pengelolaan sumber daya GPU. Dengan demikian, model Vision Reformer terbukti mampu meningkatkan efisiensi waktu pelatihan dan penggunaan memori, serta mempertahankan performa akurasi tinggi, sehingga layak diterapkan dalam sistem pengenalan wajah berbasis deep learning di lingkungan pendidikan.&#13;
&#13;
Kata kunci:  Pengenalan Wajah, Reformer, Vision Transformer, Efisiensi memori, akurasi.</note>
 <note type="statement of responsibility"></note>
 <classification>0</classification>
 <identifier type="isbn"></identifier>
 <location>
  <physicalLocation>ELECTRONIC THESES AND DISSERTATION Universitas Syiah Kuala</physicalLocation>
  <shelfLocator></shelfLocator>
 </location>
 <slims:digitals/>
</mods>
<recordInfo>
 <recordIdentifier>165667</recordIdentifier>
 <recordCreationDate encoding="w3cdtf">2025-07-23 12:42:53</recordCreationDate>
 <recordChangeDate encoding="w3cdtf">2025-07-23 15:30:13</recordChangeDate>
 <recordOrigin>machine generated</recordOrigin>
</recordInfo>
</modsCollection>