<?xml version="1.0" encoding="UTF-8" ?>
<modsCollection xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://www.loc.gov/mods/v3" xmlns:slims="http://slims.web.id" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-3.xsd">
<mods version="3.3" id="1714685">
 <titleInfo>
  <title>ANALISIS PERBANDINGAN EKSTRAKSI FITUR GAMMATONE-FREQUENCY CEPSTRAL COEFFICIENTS DAN CONSTANT-Q CEPSTRAL COEFFICIENTS DALAM DETEKSI AUDIO DEEPFAKE</title>
 </titleInfo>
 <name type="Personal Name" authority="">
  <namePart>Furqan Al Ghifari Zulva</namePart>
  <role>
   <roleTerm type="text">Primary Author</roleTerm>
  </role>
 </name>
 <typeOfResource manuscript="no" collection="yes">mixed material</typeOfResource>
 <genre authority="marcgt">bibliography</genre>
 <originInfo>
  <place>
   <placeTerm type="text">Banda Aceh</placeTerm>
   <publisher>Fakultas MIPA Informatika</publisher>
   <dateIssued>2026</dateIssued>
  </place>
 </originInfo>
 <language>
  <languageTerm type="code"></languageTerm>
  <languageTerm type="text"></languageTerm>
 </language>
 <physicalDescription>
  <form authority="gmd">Skripsi</form>
  <extent></extent>
 </physicalDescription>
 <note>Deteksi audio deepfake menjadi tantangan penting dalam bidang keamanan digital seiring meningkatnya kemampuan teknologi sintesis suara berbasis deep learning. Teknologi ini memungkinkan pembuatan suara sintetis yang sangat menyerupai suara asli seseorang, sehingga berpotensi disalahgunakan untuk penipuan, manipulasi informasi, maupun pelanggaran privasi. Penelitian ini bertujuan untuk menganalisis dan membandingkan efektivitas dua metode ekstraksi fitur berbasis cepstral, yaitu Gammatone-Frequency Cepstral Coefficients (GFCC) dan Constant-Q Cepstral Coefficients (CQCC), serta kombinasi keduanya, dalam mendeteksi audio deepfake menggunakan arsitektur Convolutional Neural Network–Bidirectional Long Short-Term Memory (CNN–BiLSTM). Data yang digunakan adalah dataset Fake or Real (FoR) yang mencakup lebih dari 198.000 sampel audio dalam empat varian kondisi berbeda, meliputi original, normalised, 2-seconds, dan rerecorded. Model CNN–BiLSTM dilatih menggunakan optimizer Adam, fungsi loss cross-entropy, ukuran batch size sebesar 32, dan 50 epochs. Evaluasi dilakukan menggunakan metrik accuracy, precision, recall, F1-score, Area Under Curve (AUC), dan Equal Error Rate (EER). Hasil eksperimen menunjukkan bahwa model dengan kombinasi fitur GFCC–CQCC mencapai kinerja terbaik dengan accuracy 98,50%, F1-score 98,30%, recall 98,73%, AUC 0,9990, dan EER 1,51%. Kombinasi fitur memberikan peningkatan performa dibandingkan penggunaan fitur tunggal, karena GFCC unggul dalam menangkap karakteristik alami saluran vokal, sedangkan CQCC efektif dalam mendeteksi artefak frekuensi nonlinier khas audio sintetis. Selain itu, model CNN–BiLSTM berhasil diimplementasikan ke dalam sistem berbasis client–server dengan backend FastAPI dan frontend aplikasi mobile Flutter. Penelitian ini menunjukkan potensi integrasi metode cepstral ganda dan arsitektur gabungan CNN–BiLSTM dalam memperkuat sistem keamanan berbasis suara terhadap ancaman manipulasi digital.</note>
 <note type="statement of responsibility"></note>
 <classification>0</classification>
 <identifier type="isbn"></identifier>
 <location>
  <physicalLocation>ELECTRONIC THESES AND DISSERTATION Universitas Syiah Kuala</physicalLocation>
  <shelfLocator></shelfLocator>
 </location>
 <slims:digitals/>
</mods>
<recordInfo>
 <recordIdentifier>1714685</recordIdentifier>
 <recordCreationDate encoding="w3cdtf">2026-04-20 10:07:57</recordCreationDate>
 <recordChangeDate encoding="w3cdtf">2026-04-20 10:34:55</recordChangeDate>
 <recordOrigin>machine generated</recordOrigin>
</recordInfo>
</modsCollection>