<?xml version="1.0" encoding="UTF-8" ?>
<modsCollection xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://www.loc.gov/mods/v3" xmlns:slims="http://slims.web.id" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-3.xsd">
<mods version="3.3" id="49577">
 <titleInfo>
  <title>ANALISA DATA RETAIL MENGGUNAKAN METODE APRIORI PADA SISTEM TERDISTRIBUSI HADOOP</title>
 </titleInfo>
 <name type="Personal Name" authority="">
  <namePart>STEVEN LIUNARDI</namePart>
  <role>
   <roleTerm type="text">Primary Author</roleTerm>
  </role>
 </name>
 <typeOfResource manuscript="no" collection="yes">mixed material</typeOfResource>
 <genre authority="marcgt">bibliography</genre>
 <originInfo>
  <place>
   <placeTerm type="text">Banda Aceh</placeTerm>
   <publisher>FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SYIAH KUALA</publisher>
   <dateIssued>2018</dateIssued>
  </place>
 </originInfo>
 <language>
  <languageTerm type="code">id</languageTerm>
  <languageTerm type="text">Indonesia</languageTerm>
 </language>
 <physicalDescription>
  <form authority="gmd">Skripsi</form>
  <extent></extent>
 </physicalDescription>
 <note>Pada era teknologi ini, perkembangan data semakin pesat. Data dapat bersumber dari banyak media perangkat dalam berbagai format. Transaksi penjualan merupakan salah satu penghasil data yang besar. Pengolahan data yang besar menimbulkan masalah waktu dalam analisis sehingga harus dilakukan secepat mungkin agar hasilnya dapat dimanfaatkan segera sesuai kebutuhan. Hal tersebut dapat ditangani secara paralel menggunakan Hadoop. Kinerja pada mesin Hadoop dapat dipantau menggunakan Ambari YAVA. Pada penelitian ini, dataset transaksi sebanyak 10 juta baris dibangkitkan dengan program Java dan dilakukan analisis menggunakan metode Apriori yang diterapkan pada mesin tunggal, Hadoop dengan 1 slave node dan 2 slave node. Perbandingan ini dilakukan untuk memahami cara penerapan algoritma Apriori pada setiap mesin, membandingkan interval waktu dalam proses data pada setiap mesin, dan mengetahui dampak perubahan waktu yang dihasilkan dari setiap mesin. Hasil penelitian menunjukkan bahwa waktu analisis data yang diperlukan oleh mesin tunggal adalah 603 menit, sedangkan pada Hadoop 1 slave adalah 150 menit, diikuti dengan Hadoop 2 slave yaitu selama 118 menit. Dari hasil tersebut, dapat disimpulkan bahwa penggunaan 1 slave dapat menambah kecepatan proses sebesar 3.02 kali dan 2 slave sebesar 4.11 kali lebih cepat dari mesin tunggal. Penambahan slave node pada Hadoop sangat berpengaruh pada kecepatan proses data.&#13;
&#13;
Kata kunci: Apache Hadoop, Apache Ambari YAVA, Apriori, Association Rule&#13;
</note>
 <subject authority="">
  <topic>COMPUTER SCIENCE</topic>
 </subject>
 <classification>1</classification>
 <identifier type="isbn"></identifier>
 <location>
  <physicalLocation>ELECTRONIC THESES AND DISSERTATION Universitas Syiah Kuala</physicalLocation>
  <shelfLocator></shelfLocator>
 </location>
 <slims:digitals/>
</mods>
<recordInfo>
 <recordIdentifier>49577</recordIdentifier>
 <recordCreationDate encoding="w3cdtf">2018-10-09 15:20:05</recordCreationDate>
 <recordChangeDate encoding="w3cdtf">2019-04-12 11:20:38</recordChangeDate>
 <recordOrigin>machine generated</recordOrigin>
</recordInfo>
</modsCollection>