PENGEMBANGAN SISTEM KLASIFIKASI STRES MENGGUNAKAN CITRA WAJAH BERBASIS CNN DAN DATA CLEANING | ELECTRONIC THESES AND DISSERTATION

Electronic Theses and Dissertation

Universitas Syiah Kuala

    SKRIPSI

PENGEMBANGAN SISTEM KLASIFIKASI STRES MENGGUNAKAN CITRA WAJAH BERBASIS CNN DAN DATA CLEANING


Pengarang

M. Akbar Latif - Personal Name;

Dosen Pembimbing

Elizar - 197903052002121004 - Dosen Pembimbing I
Maulisa Oktiana - 199010252024062001 - Dosen Pembimbing I
Maya Fitria - 199005012019032020 - Dosen Pembimbing II
Rusdha Muharar - 197804182006041003 - Penguji



Nomor Pokok Mahasiswa

2104111010065

Fakultas & Prodi

Fakultas Teknik / Teknik Komputer (S1) / PDDIKTI : 56202

Penerbit

Banda Aceh : Fakultas Teknik., 2026

Bahasa

Indonesia

No Classification

006.42

Literature Searching Service

Hard copy atau foto copy dari buku ini dapat diberikan dengan syarat ketentuan berlaku, jika berminat, silahkan hubungi via telegram (Chat Services LSS)

Stres merupakan kondisi psikologis yang muncul akibat tekanan emosional maupun beban kerja yang berlebihan, sehingga dapat mempengaruhi kesehatan fisik, mental, serta menurunkan produktivitas. Salah satu indikator yang paling jelas untuk mendeteksi stres adalah ekspresi wajah, karena perubahan emosional sering tercermin melalui citra wajah seseorang. Penelitian klasifikasi stres berbasis citra wajah sebelumnya menghadapi kendala pada akurasi yang rendah, yang sebagian besar disebabkan oleh kualitas data yang kurang baik dan pemilihan arsitektur model yang kurang optimal. Penelitian ini berkontribusi dengan mengusulkan penggunaan beberapa model CNN serta menerapkan proses data cleaning menyeluruh untuk meningkatkan kualitas data dan performa model. Proses cleaning meliputi pengecekan wajah valid dan penghapusan gambar kartun, serta melakukan peningkatan resolusi citra menggunakan teknik bicubic interpolation. Model dilatih dan diuji menggunakan Stress Face Dataset. Sementara itu, dataset FER-2013 digunakan untuk menguji kemampuan generalisasi, guna menilai sejauh mana model yang telah dilatih dapat beradaptasi pada dataset lain. Hasil penelitian menunjukkan bahwa penerapan data cleaning menghasilkan peningkatan performa yang cukup signifikan pada tiap model yang dilatih. Dimana model EfficientNetB0 menjadi model yang memiliki performa pelatihan paling optimal dengan akurasi validasi yang meningkat dari 0.7246 menjadi 0.9006. Selanjutnya, hasil evaluasi menunjukkan peningkatan performa paling optimal pada model DenseNet201 dengan peningkatan akurasi dari 0.7355 menjadi 0.9120. Hasil pengujian generalisasi pada FER-2013 menunjukkan peningkatan akurasi yang cukup optimal pada model MobileNetV2, dengan peningkatan akurasi dari dari 0.7755 menjadi 0.8412.

Stress is a psychological condition that arises from emotional pressure or excessive workload, which can affect physical and mental health and reduce productivity. One of the most prominent indicators for detecting stress is facial expression, as emotional changes are often reflected in a person’s facial appearance. Previous studies on stress classification using facial images have encountered challenges related to low accuracy, largely due to poor data quality and suboptimal model architecture selection. This study addresses these limitations by proposing the use of several Convolutional Neural Network (CNN) architectures and applying a comprehensive data-cleaning process to improve data quality and model performance. The cleaning procedures include validating facial regions, removing cartoon images, and enhancing image resolution through bicubic interpolation. The models were trained and evaluated using the Stress Face Dataset, while the FER2013 dataset was utilized to assess generalization capability and determine how well the trained models adapt to an external dataset. The findings indicate that the data-cleaning process yields substantial performance improvements across all trained models. EfficientNetB0 achieved the most optimal training performance, with validation accuracy increasing from 0.7246 to 0.9006. Additionally, DenseNet201 showed the highest evaluation improvement, with accuracy rising from 0.7355 to 0.9120. Generalization testing on FER-2013 demonstrated a notable accuracy increase for MobileNetV2, improving from 0.7755 to 0.8412.

Citation



    SERVICES DESK