<?xml version="1.0" encoding="UTF-8" ?>
<modsCollection xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://www.loc.gov/mods/v3" xmlns:slims="http://slims.web.id" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-3.xsd">
<mods version="3.3" id="158443">
 <titleInfo>
  <title>PENERAPAN SPEECH EMOTION RECOGNITION (SER) DALAM MENGIDENTIFIKASI EMOSI SUARA MENGGUNAKAN DEEP LEARNING</title>
 </titleInfo>
 <name type="Personal Name" authority="">
  <namePart>Tasya Nadila</namePart>
  <role>
   <roleTerm type="text">Primary Author</roleTerm>
  </role>
 </name>
 <typeOfResource manuscript="no" collection="yes">mixed material</typeOfResource>
 <genre authority="marcgt">bibliography</genre>
 <originInfo>
  <place>
   <placeTerm type="text">Banda Aceh</placeTerm>
   <publisher>Fakultas MIPA Informatika</publisher>
   <dateIssued>2025</dateIssued>
  </place>
 </originInfo>
 <language>
  <languageTerm type="code"></languageTerm>
  <languageTerm type="text"></languageTerm>
 </language>
 <physicalDescription>
  <form authority="gmd">Skripsi</form>
  <extent></extent>
 </physicalDescription>
 <note>Emosi merupakan hal yang erat kaitannya dengan keberadaan manusia, dan tidak dapat terpisahkan. Salah satu cara untuk mengenali emosi seseorang adalah melalui suara. Speech Emotion Recognition (SER) bertujuan untuk menganalisis dan mengklasifikasikan emosi berdasarkan sinyal suara. Penelitian ini membangun model SER berbasis Convolutional Neural Network (CNN) dengan menggunakan dua dataset publik, yaitu RAVDESS yang berbahasa Inggris dan EmoDB yang berbahasa Jerman, untuk mengenali enam jenis emosi: marah, jijik, takut, sedih, netral, dan bahagia. Terdapat dua jenis model yang dibangun, yaitu model spesifik yang dilatih menggunakan satu dataset dan model general yang dilatih menggunakan gabungan dari kedua dataset. Hasil akurasi terbaik untuk model spesifik EmoDB mencapai 86,95% dan untuk model spesifik RAVDESS 80,18%, sedangkan model general memperoleh akurasi sebesar 81,13% pada dataset RAVDESS dan 76,09% pada dataset EmoDB. Dalam rangka menguji kemampuan generalisasi model terhadap konteks bahasa dan ekspresi yang berbeda, penelitian ini menggunakan data primer berupa rekaman suara mahasiswa Universitas Syiah Kuala yang berbahasa Indonesia. Data primer diproses dengan mengonversi format audio ke dalam bentuk .wav, kemudian dilakukan ekstraksi fitur menggunakan metode Mel-Frequency Cepstral Coefficients (MFCC), dan normalisasi untuk menyesuaikan distribusi data. Hasil evaluasi dengan data primer menunjukkan bahwa model general memiliki performa generalisasi yang lebih baik terhadap data primer, dengan akurasi mencapai 76%. Angka ini lebih tinggi dibandingkan model spesifik EmoDB yang mencapai 50% dan model spesifik RAVDESS yang mencapai 40%. Penelitian ini juga menegaskan bahwa normalisasi pada tahap inferensi merupakan langkah penting untuk menjaga akurasi prediksi, serta membuktikan bahwa model mampu mengenali emosi dari data di luar pelatihan.&#13;
&#13;
Kata kunci: Speech Emotion Recognition, Convolutional Neural Network, Sinyal Suara, MFCC, RAVDESS, EmoDB</note>
 <note type="statement of responsibility"></note>
 <classification>0</classification>
 <identifier type="isbn"></identifier>
 <location>
  <physicalLocation>ELECTRONIC THESES AND DISSERTATION Universitas Syiah Kuala</physicalLocation>
  <shelfLocator></shelfLocator>
 </location>
 <slims:digitals/>
</mods>
<recordInfo>
 <recordIdentifier>158443</recordIdentifier>
 <recordCreationDate encoding="w3cdtf">2025-07-03 17:55:37</recordCreationDate>
 <recordChangeDate encoding="w3cdtf">2025-07-04 09:18:37</recordChangeDate>
 <recordOrigin>machine generated</recordOrigin>
</recordInfo>
</modsCollection>