Survey
* Your assessment is very important for improving the workof artificial intelligence, which forms the content of this project
* Your assessment is very important for improving the workof artificial intelligence, which forms the content of this project
DAFTAR ISI RINGKASAN MULTI DOKUMEN BERBASIS ISI DENGAN ..................................................................... 1 PENGKLASTER SEKUENSIAL DAN ALGORITMA GENETIKA .............................................................. 1 * Dewi Yanti Liliana, **Tiara Arinta Dewi ..................................................................................................... 1 PENENTUAN RUTE TERPENDEK BERSEPEDA ........................................................................................ 7 DI AREA KOTA MALANG MENGGUNAKAN ALGORITMA SEMUT ..................................................... 7 Dian Eka Ratnawati, Sindy Yudi Prakoso, Yusi Tyroni Mursityo ................................................................ 7 PENJADWALAN FLOWSHOP ..................................................................................................................... 14 DENGAN METODE HEURISTIK MULTIPLE OBJECTIVE TERBOBOTI ............................................... 14 Dyah Herawatie, Eto Wuryanto .................................................................................................................. 14 i Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Komputasi Cerdas ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 RINGKASAN MULTI DOKUMEN BERBASIS ISI DENGAN PENGKLASTER SEKUENSIAL DAN ALGORITMA GENETIKA *Dewi Yanti Liliana, **Tiara Arinta Dewi Program Studi Ilmu Komputer, Program Teknologi Informasi dan Ilmu Komputer, Universitas Brawijaya, Jl. Veteran Malang, Jawa Timur, 65141 E-mail: *[email protected] Abstrak Peringkasan dokumen diperlukan untuk mengekstrak intisari atau bagian penting dari keseluruhan dokumen untuk mempermudah menangkap informasi yang disampaikan pada suatu dokumen tunggal. Permasalahan yang dihadapi adalah bagaimana jika pengguna menginginkan ringkasan informasi dari berbagai dokumen (ringkasan multi dokumen). Berbagai macam dokumen tidak dapat diringkas menjadi satu, hanya dokumen-dokumen yang memiliki kesamaan isi yang dapat menghasilkan satu ringkasan. Untuk itu sebelum diringkas, dokumen-dokumen tersebut dikelompokkan terlebih dahulu menggunakan algoritma pengklaster sekuensial. Selanjutnya peringkasan dokumen dilakukan dengan ekstraksi kalimat dan perangkingan berbasis algoritma genetika. Ekstraksi kalimat berfungsi untuk mengidentifikasi kalimatkalimat penting berdasarkan fitur-fitur yang ditentukan, dan dari nilai fitur tersebut kalimat akan dirangking secara optimal dengan algoritma genetika. Hasil dari ringkasan tiap dokumen dalam satu klaster digabung menjadi satu ringkasan. Penelitian ini diujikan pada beberapa klaster dokumen dengan ukuran ringkasan 25%, 50%, dan 75%. Berdasarkan pengujian yang dilakukan dihasilkan rata-rata precision 0.710491, rata-rata recall 0.70388, dan rata-rata F-measure yang merepresentasikan akurasi sistem 0.7069. Dengan akurasi yang dihasilkan maka metode yang diusulkan dapat membantu memperoleh ringkasan infomasi secara efektif. Kata kunci: algoritma genetika, ekstraksi fitur, pengklaster sekuensial, peringkasan multi dokumen Abstract Document summarization is required to extract the essential part of the whole document to facilitate the capture of information presented in a single document. The problem faced is what if the user wants to summarize from the various documents (multi-document summarization). Various kinds of documents cannot be condensed into one, only documents that have similar content can generate a summary. For that reason before summarized, these documents are grouped first using sequential clustering algorithms. Furthermore document summarization is done by sentence extraction and ranked-based genetic algorithms. Sentence extraction serves to identify important sentences based on determined features, and the value of those features will rank sentences optimally with genetic algorithms. The result of a summary of each document in the cluster is combined into a single summary. This study tested on several clustering documents with a summary measure of 25%, 50%, and 75%. Based on tests performed its yield 0.710491 average precision, average recall 0.70388, and the average F-measure system accuracy representing 0.7069. With the resulting accuracy of the proposed method can help to obtain an information summary effectively. Key words: genetic algorithms, feature extraction, sequential clustering, multi documents summarization SI- 1 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 masukan. Sebelum diringkas dokumendokumen masukan tersebut akan dikelompokkan terlebih dahulu. Pengelompokkan dokumen dilakukan berdasarkan kesamaan konten yang dimiliki karena hanya dokumen yang memiliki banyak kesamaan konten yang dapat diringkas menjadi satu [2]. Pengelompokkan dilakukan menggunakan metode pengklaster sekuensial. Selanjutnya, peringkasan untuk masingmasing dokumen dilakukan dalam dua bagian yaitu ekstraksi kalimat dan perangkingan kalimat berbasis algoritma genetika. Hasil dari ringkasan tiap dokumen akan digabung. Proses penggabungan dilakukan terhadap ringkasan suatu dokumen dengan ringkasan dokumen lain dalam satu klaster, sehingga dihasilkan teks ringkasan gabungan untuk multi dokumen. Dokumen-dokumen yang berada dalam satu klaster akan menghasilkan sebuah ringkasan, jadi jumlah ringkasan sama dengan jumlah klaster. Hasil ringkasan multi dokumen akan dievaluasi menggunakan tiga parameter yaitu precision, recall, dan F-measure [6]. PENDAHULUAN Perkembangan informasi online menjadi media yang semakin penting untuk menemukan dan merepresentasikan informasi tekstual. Mengingat dokumen teks sekarang ini begitu banyak, maka diperlukan suatu cara yang mudah untuk mendapatkan informasi yang dibutuhkan. Salah satu cara yang dapat ditempuh adalah dengan meringkas dokumen [1]. Tersedianya sumber informasi yang tidak terbatas mengakibatkan perolehan sumber informasi dan pertukaran data berupa teks melibatkan banyak sumber informasi sehingga memicu penelitian mengenai metode peringkasan dokumen yang semula ditujukan untuk membuat sebuah ringkasan dari dokumen tunggal menjadi metode peringkasan multi dokumen [2]. Dokumen-dokumen yang akan diringkas menjadi satu harus memiliki keterkaitan topik atau isi [3, 4]. Untuk itu, sebelum diringkas dokumen-dokumen tersebut dikelompokkan terlebih dahulu sesuai kesamaan konten, dalam penelitian ini menggunakan Pengklaster sekuensial. Kemudian, dokumen diekstrak menggunakan enam fitur [3]. Hasil dari ekstraksi kalimat akan dirangking untuk menentukan kalimat-kalimat penting. Perangkingan kalimat dilakukan dengan pendekatan algoritma genetika. Algoritma genetika dapat bekerja secara optimal untuk mengolah keenam nilai tersebut agar menjadi satu nilai tunggal dimana semua nilai fitur dapat terpenuhi bersamaan. Dengan nilai tunggal yang dihasilkan, kalimat dapat diurutkan dari yang paling besar nilainya. Nilai mengindikasikan tingkat kepentingan kalimat. Dengan adanya ringkasan, diharapkan pengguna dapat dengan mudah memahami makna sebuah teks tanpa harus membaca keseluruhan teks. A. Pengklaster sekuensial Perhitungan pengklaster sekuensial menggunakan nilai TF.IDF yang telah dinormalisasi dan cosine similarity. TF.IDF adalah perkalian antara term frequency dengan inverse document frequency.Variabel TF merupakan jumlah suatu term/kata dalam suatu dokumen, sedangkan IDF merupakan invers document frequency dari sebuah term/kata. Dengan menggunakan bobot TFIDF, sebuah dokumen dapat dimodelkan sebagai sebuah vektor. Dokumen Di dapat dimodelkan atas komponen Ti sehingga jika seluruh dokumen dikumpulkan maka akan terbentuk matriks term-dokumen dengan bobot term/TF-IDF sebagai nilainya. Tahapan proses pengklaster sebagai berikut : 1. Masukan dari proses ini adalah kumpulan dokumen hasil praproses. 2. Inisialisasi nilai threshold kemiripan = 0.085 (pengesetan awal berasal dari ujicoba) dan Smax = 0. 3. Untuk setiap dokumen dilakukan perhitungan kemiripan dengan dokumen yang telah terklaster. 4. Sebelum dilakukan perhitungan kemiripan, dilakukan pengecekan pada klaster ke-1. Jika klaster ke-1 kosong maka dokumen ke-i langsung dimasukkan pada klaster 1 . DESAIN SISTEM Sistem akan menerima input beberapa dokumen berbahasa Inggris dari user kemudian dokumen-dokumen tersebut akan diproses melalui beberapa tahapan untuk menghasilkan ringkasan yang merupakan intisari dari dokumen-dokumen masukan. Pertama, sistem akan melakukan preprocessing terhadap dokumen-dokumen CI - 2 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 5. Nilai Smax dihitung dari maksimum nilai kemiripan dokumen ke-i dengan dokumen lain yang sudah terklaster. 6. Jika nilai Smax lebih besar daripada nilai threshold maka dokumen ke-i dimasukkan pada klaster yang bersesuaian. 7. Jika nilai Smax lebih besar daripada nilai threshold maka dokumen ke-i dimasukkan pada klaster yang bersesuain. 8. Jika nilai Smax kurang dari threshold maka dokumen dimasukkan pada klaster baru. 9. Dilakukan sampai semua dokumen terklaster Perhitungan fitur ini ditunjukkan dengan persamaan berikut: = ∑ !" #∑ # $ %% (2) 3. Fitur Kemiripan Kalimat (F3) Fitur ini merupakan kesamaan antar kalimat. Untuk tiap kalimat S, kemiripan antara S dan tiap kalimat lain dihitung menggunakan cosine similarity Bobot kata TS.ISFi dan TS.ISFj dari kata t sampai n pada kalimat Si dan Sj direpresentasikan oleh vektor. Kemiripan tiap kalimat ditunjukkan oleh persamaan berikut : ∑ + & × ) &' # & , ) % = ,∑ + & × ,∑ + ) -= B. Ekstraksi Kalimat Sebelum melakukan ekstraksi kalimat, dokumen dipecah menjadi tiap kalimat. Setiap kalimat dari dokumen tersebut akan diekstraksi sehingga memiliki nilai yang mewakili kalimat tersebut. Ada enam fitur untuk setiap kalimat. Setiap fitur diberi nilai antara '0 'dan '1'. Enam fitur tersebut sebagai berikut: ∑ &' # & , ) % !" #∑ &'# &, ) %% (3) 4. Fitur Proper noun (F4) Kalimat yang mengandung proper noun termasuk kalimat penting yang biasanya masuk dalam ringkasan. Proper noun adalah kata yang menunjukkan nama sesuatu, seperti nama orang, nama tempat, nama bulan, dan sebagainya. Berikut ini persamaan untuk menghitung nilai proper noun : )/'0!1 234253 4/ 2!6! !0&'!7 . = 2! )! 8 !0&'!7/)/'0!1 !7! (4) 1. Fitur Panjang Kalimat (F1) Fitur ini berfungsi untuk menyaring kalimat pendek seperti nama pengarang dan datelines seperti pada artikel berita. Kalimat pendek tidak dipakai untuk ringkasan dokumen. Perhitungan fitur ini ditunjukkan dengan persamaan 1: 1= ISSN : 2302-7088 5. Fitur Thematic word (F5) Thematic word yang dimaksud adalah kata yang frekuensinya tinggi pada suatu dokumen. Fitur ini penting karena berhubungan dengan topik. Pada penelitian ini diasumsikan Thematic word atau kata tematik adalah kata yang frekuensinya lebih dari satu, untuk mengantisipasi dokumen pendek. Persamaannya ditunjukkan oleh persamaan berikut : := (1) 2. Fitur Pembobotan Kata/Term Weight (F2) Nilai suatu kalimat dapat dihitung sebagai jumlah nilai bobot kata dalam kalimat tersebut. Di sini akan dilakukan penghitungan menggunakan persamaan TF.IFS dari kata kek sampai ke-n untuk kalimat(S) dari x sampai y. TS.ISF adalah perkalian antara term frequency dengan inverse sentence frequency. Ide dasar dari penilaian TF.ISF adalah mengevaluasi setiap kata dalam distribusinya pada seluruh kalimat di dokumen. Jadi nilai TF.ISF ditentukan untuk mengevaluasi pentingnya sebuah kata dalam dokumen bedasarkan frekuensinya dalam sebuah kalimat dan distribusinya di seluruh kalimat dalam dokumen. )/'0!1 715'!7&; <436 2!6! !0&'!7 !" )/'0!1 715'!7&; <436 2!6! =/!7/ !0&'!7 (5) 6. Fitur Numerical data (F6) Kalimat yang mengandung data numerik dianggap kalimat penting dan biasanya masuk dalam ringkasan. Nilai dari fitur ini dihitung dengan persamaan berikut : >= )/'0!1 6!7! /'53& 2!6! !0&'!7 2! )! 8 !0&'!7 C. Perangkingan Berbasis Algoritma CI - 3 (6) Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember terbesar sesuai nilai fitness dan diambil yang tertinggi sebanyak ukuran populasi / jumlah individu awal. Fungsi fitness didapatkan dari persamaan objektif Fan. Persamaan objektif Fan merupakan persamaan minimum sehingga fungsi fitness dihitung dari invers persamaan objektif Fan. Persamaan fungsi fitness ditunjukkan pada persamaan berikut: Genetika Berikut ini penjelasan langkah-langkah perangkingan berbasis Algoritma Genetika (AG): 1. Pembangkitan Populasi Awal dan Representasi Kromosom Pada penelitian ini kromosom merepresentasikan fitur-fitur yang ada. Satu individu terdiri dari enam kromosom sesuai dengan jumlah fitur. Tiap kromosom terdiri dari sejumlah gen sesuai dengan persamaan berikut [5] : (7) ?& = @ ABC[ E − ! G + ]J &7 5== = ' ∑' &= ∑)= #'!" E) −E&) % <) (9) Nilai wLM dihitung dari nilai <) yang telah didapat pada tahap sebelumnya. Nilai max E' ) merupakan nilai maksimum fitur ke-j pada semua kalimat. Untuk menghitung nilai W digunakan persamaan berikut : ") <) = " 747!0 (10) Dimana j = 1,2,…,n (n adalah jumlah kromosom tiap individu). Untuk menghitung nilai x yang merupakan variabel temporer dengan persamaan berikut: dengan b = batas atas interval dan a = batas bawah interval. Maka jumlah gen untuk tiap kromosom sebagai berikut: ?& = @ ABC[ ISSN : 2302-7088 −G G + ]J (8) = @ ABC[ G J = 7 ") = ! + N E − ! /# (11) Dengan demikian ukuran gen untuk tiap individu dengan enam kromosom (enam fitur) = 7 × 6 = 42. ?) − %O × P) dengan a = batas bawah interval data, pada kasus ini adalah 0; b = batas atas interval data, pada kasus ini adalah 1; Lj = panjang gen ke-j Kemudian dihitung x total untuk tiap individu (pada kasus ini sepanjang 6 kromosom). 2. Crossover Satu Titik Proses crossover tergantung pada suatu parameter yaitu probabilitas crossover (Pc). Misalkan probabilitas crossover adalah 0.8, artinya diharapkan 80% individu yang akan mengalami crossover. 5. Merangking kalimat Setelah diketahui individu mana yang memiliki nilai fitness tertinggi, individu tersebut dijadikan sebagai solusi terbaik. Untuk mendapatkan urutan rangking, nilai bobot dari individu yang tepilih sebagai solusi terbaik, digunakan untuk menghitung nilai alternatif ke-i sebagai nilai kalimat ke-i dengan persamaan berikut [5]: 8& = ∑)+ Q) E&) (12) 3. Mutasi Biner Sama dengan pengkodeannya, mutasi yang digunakan adalah mutasi biner. Mutasi biner yaitu mengubah nilai 1 menjadi 0 dan sebaliknya, 0 jadi 1. Proses mutasi tergantung pada probabilitas mutasi (Pm). Misalkan probabilitas mutasi 0.01, artinya diharapkan 1% dari total gen mengalami mutasi. D. Penggabungan Ringkasan tiap Klaster Penggabungan merupakan proses untuk menggabungkan hasil ringkasan masingmasing dokumen yang ada dalam satu klaster. Hasil ringkasan digabungkan menggunakan perhitungan cosine similarity dengan TF (Term Frequency). TF adalah frekuensi kata pada suatu kalimat. Perhitungan cosine 4. Perhitungan Nilai Fitness dan Seleksi Seleksi yang digunakan pada penelitian ini adalah seleksi Rank-Based fitness. Seleksi dilakukan dengan mengurutkan individu sesuai nilai fitnessnya kemudian mengambil individu-individu teratas. Seluruh individu, yaitu individu awal, anakan hasil crossover, dan anakan hasil mutasi dihitung nilai fitnessnya kemudian diurutkan mulai dari yang CI - 4 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember similarity dengan TF seperti ditunjukkan pada persamaan berikut: Cosine ( & , )) = ,∑ ∑ 7& × 7) 7& × ,∑ 7) ISSN : 2302-7088 HASIL UJI COBA Pengujian dilakukan untuk mengetahui seberapa dekat hasil ringkasan sistem dengan hasil ringkasan manual. Perhitungan terhadap tiga parameter yang berbeda yaitu precision, recall, dan F-measure dilakukan untuk ukuran ringkasan dokumen yang berbeda, yaitu 25%, 50%, dan 75%. Setelah dilakukan pengujian akan diketahui kemampuan sistem dalam menghasilkan informasi yang relevan yang diinginkan user. Dari 9 dokumen yang dimasukkan terbagi menjadi 4 klaster. Hasil percobaan untuk semua ukuran ringkasan dengan parameter algoritma genetika jumlah individu = 20, maksimum generasi = 50, probabilitas crossover = 0.8, dan probabilitas mutasi 0.01 ditunjukkan pada gambar 1, 2, dan 3. (13) dengan 7& jumlah kata k pada kalimat I; 7) jumlah kata k pada kalimat j. METODE EVALUASI Proses evaluasi hasil text summarization dilakukan menggunakan tiga parameter yaitu precision, recall, dan F-measure [6]. Sebuah sistem informasi dikatakan baik jika tingkat precision, recall, dan F-measurenya tinggi. Cara mengevaluasinya yaitu membandingkan ringkasan otomatis hasil sistem dengan ringkasan manual. 1. Precision Precision merupakan perbandingan jumlah informasi relevan yang didapatkan sistem dengan jumlah seluruh informasi yang terambil oleh sistem baik yang relevan maupun tidak. Persamaan precision ditunjukkan pada persamaan berikut : ;4335;7 P = ;4335;7R<34 8 (14) Nilai Precision 1.0000 0.8000 0.6000 0.4000 0.2000 0.0000 2. Recall Recall merupakan perbandingan jumlah informasi relevan yang didapatkan sistem dengan jumlah seluruh informasi relevan yang ada dalam koleksi informasi (baik yang terambil atau tidak terambil oleh sistem). Persamaan recall ditunjukkan pada persamaan berikut: ;4335;7 R= (15) 0.9474 0.77780.81480.82500.8387 0.66670.6000 0.64290.6667 0.5238 0.4444 25% 50% 75% Gambar 1. Grafik Nilai Precision Pada Gambar 1 nilai precision terendah dihasilkan oleh klaster 1 dengan ukuran ringkasan 25%. Nilai precision tertinggi dihasilkan klaster 2 dengan ukuran ringkasan 75%. ;4335;7R'&==56 Keterangan: correct : jumlah kalimat yang diekstrak oleh sistem dan manusia. wrong : jumlah kalimat yang diekstrak oleh sistem tetapi tidak diekstrak oleh manusia. missed : jumlah kalimat yang diekstrak oleh manusia tetapi tidak diekstrak oleh sistem. Nilai Recall 1.0000 0.8000 0.6000 0.4000 3. F-Measure F-Measure merupakan hubungan antara recall dan precision yang merepresentasikan akurasi sistem. Persamaan F-Measure seperti pada persamaan berikut: ∗T∗U F = TRU (16) 0.90000.84620.8387 0.77780.8148 0.6923 0.61540.6000 0.5238 0.4444 0.2000 0.0000 Gambar 2. Grafik Nilai Recall CI - 5 25% 50% 75% Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Pada gambar 2 nilai recall terendah dihasilkan oleh klaster 1 dengan ukuran ringkasan 25% sedangkan nilai recall tertinggi dihasilkan oleh klaster 2 dengan ukuran ringkasan 75%. ringkasan manual diperoleh nilai F-measure tertinggi untuk ukuran ringkasan 75% yaitu sebesar 0.8438, sedangkan nilai F-measure untuk ukuran ringkasan 25% dan 50% yaitu sebesar 0.5878 dan 0.6891. Jadi semakin besar ukuran ringkasan semakin tinggi nilai Fmeasure atau akurasinya. Rata-rata nilai Fmeasure untuk semua ukuran ringkasan yang merepresentasikan akurasi sistem yaitu sebesar 0.7069. Nilai F-measure 1.0000 0.8000 0.6000 0.4000 0.2000 0.0000 0.9231 0.77780.81480.83540.8387 0.66670.6400 0.64000.6000 0.5238 0.4444 ISSN : 2302-7088 25% PUSTAKA 50% [1] Fattah, M. A. dan Ren, Fuji. Automatic Text Summarization. World Academy of Science, Engineering and Technology. Singapore. 2008 [2] Hariharan, S. Extraction Based Multi Document Summarization using Single Document Summary Cluster. B.S. Abdur Rahman University. Vandalur. 2010 [3] Kogilavani, A., dan Balasubramani, P. Clustering Feature Specific Sentence Extraction Based Summarization of Multiple Documents. Kongu Engineering College. Erode. 2010 [4] Kuo, J. dan Chen, H. Cross-document Event Clustering Using Knowledge Mining From Co-reference Chains. National Taiwan University. Taipei. 2006. [5] Kusumadewi, Sri. Pencarian Bobot Atribut Pada Multiple Attribute Decision Making (MADM) dengan Pendekatan Obyektif Menggunakan Algoritma Genetika. Gematika Jurnal Manajemen Informatika. Jakarta. 2005 [6] Nedunchelian, R., Muthucumarasamy, R., dan Saranathan, E. Comparison Of Multi Document Summarization Techniques. IJCSNS (International Journal of Computer Science and Network Security). 2011 75% Gambar 3. Grafik Nilai F-measure Pada gambar 3 nilai F-measure terendah dihasilkan oleh klaster 1 dengan ukuran ringkasan 25%, sedangkan nilai tertinggi dihasilkan oleh klaster 2 dengan ukuran ringkasan 75%. Untuk ukuran ringkasan 25% didapatkan rata-rata nilai F-measure 0.5878, ukuran ringkasan 50% didapatkan rata-rata nilai F-measure 0.6891, dan untuk ukuran ringkasan 75% rata-rata nilai F-measure sebesar 0.8438. Di sini terlihat nilai F-measure semakin naik untuk ukuran ringkasan yang semakin besar pula. Rata-rata nilai F-measure merepresentasikan akurasi sistem ini, yaitu 0.7069. KESIMPULAN Penelitian ini telah menghasilkan sistem peringkasan multi dokumen berbahasa Inggris berbasis isi menggunakan pengklaster sekuensial dan perangkingan berbasis algoritma genetika. Berdasarkan evaluasi sistem yang dilakukan dengan membandingkan hasil ringkasan sistem dan CI - 6 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 PENENTUAN RUTE TERPENDEK BERSEPEDA DI AREA KOTA MALANG MENGGUNAKAN ALGORITMA SEMUT Dian Eka Ratnawati, Sindy Yudi Prakoso, Yusi Tyroni Mursityo Program Studi Ilmu Komputer, Program Teknologi Informasi dan Ilmu Komputer, Universitas Brawijaya, Jl. Veteran Malang, Jawa Timur, 65141 Email: [email protected] ,[email protected], [email protected] Abstrak Bersepeda dianggap sebagai transportasi bebas polusi dan menyehatkan, namun diperlukan adanya suatu informasi perjalanan. Informasi perjalanan ini sangat erat kaitannya dengan rute yang dipilih sehingga dapat menghasilkan solusi yang optimal, dalam hal ini adalah meminimalkan jarak perjalanan dari tempat asal menuju tempat tujuannya. Penelitian ini bertujuan membangun sebuah sistem penentuan jalur terpendek bersepeda di area kota Malang menggunakan algortima semut. Pada penelitian ini ingin diketahui apakah hasil jalur terpendek yang dihasilkan oleh algoritma semut lebih baik dari solusi yang dihasilkan algoritma Dijkstra atau sebaliknya. Dari ujicoba dengan membandingkan algoritma semut dengan Dijkstra diperoleh nilai MSE 0.490746 yang membuktikan bahwa algoritma semut memiliki tingkat akurasi yang cukup tinggi. Kata Kunci: Algoritma Semut, Ant Colony System, Algoritma Dijkstra, Rute Terpendek. Abstract Cycling is considered to be a healthy and pollution-free tranportation, but it needs some kind of travel information. This travel Information is very closely related with the selected route so that it can provide optimal solution, in this case to minimize distance from starting point to the desired destination. This study aims to build a shortest cycling path determination in Malang City using ant algorithm system. In this study wanted to know whether the results generated by the shortest path ant algorithm is better than Dijkstra algorithm generated solutions. From the test by comparing the ant algorithm Dijkstra is obtained MSE 0.490746 which proved that the ant algorithm has a fairly high degree of accuracy. Keyword : Ant Algorithm, Dijkstra Algorithm, Shortest Route ke tempat lainnya. Shortest path problem merupakan salah satu permasalahan optimasi yang dapat diselesaikan dengan menggunakan metode heuristik, seperti algoritma genetika (Genetic Algorithm, GA) dan algoritma semut (Ant Colony, AntCo)[2]. Algoritma semut adalah solusi universal dan fleksibel yang awalnya digunakan pada permasalahan optimasi Traveling Salesman Problem. Analogi pencarian rute terpendek oleh semutsemut, telah menjadi stimulus terciptanya suatu metode untuk menentukan jarak terpendek dari suatu tempat ke tempat lain, Jarak terpendek yang dimaksud adalah hasil dari perhitungan beberapa parameter melalui Ant Colony Optimization [3]. PENDAHULUAN Salah satu inovasi untuk mengurangi polusi dalam transportasi darat yaitu dengan adanya program car free day yang diharapkan bisa memberikan ruang bagi masyarakat Kota Malang untuk bisa berolahraga serta menikmati udara segar bebas asap[1]. Dengan ditunjang dengan slogan Bike to Work ternyata banyak diminati oleh warga kota Malang. Kebutuhan akan suatu informasi atau petunjuk tentang suatu lokasi baik itu lokasi jalan ataupun lokasi obyek-obyek tertentu sangat diperlukan bagi pengguna sepeda untuk menentukan jalur terpendek dari suatu tempat CI - 7 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 Pengisian kota pertama ke dalam tabu list. Hasil dari langkah ini adalah terisinya elemen tabu list oleh setiap semut. Dalam penelitian ini, pencarian rute terpendek mempunyai tujuan membantu dalam menentukan jalur terpendek dari dan menuju suatu tempat tertentu di Malang khususnya Malang Kota, dengan ditentukannya jalur terpendek maka diharapkan dapat meminimalisasi waktu tempuh perjalanan c. Pemilihan Rute Perjalanan Semut Perjalanan koloni semut berlangsung terus menerus hingga mencapai kota yang telah ditentukan. Perhitungan nilai probabilitas kota untuk dikunjungi seperti pada persamaan 1: \]^_ = TINJAUAN PUSTAKA 2.1 Konsep Dasar Ant Colony Optimization (ACO) Algoritma Ant Colony Optimization diinspirasikan oleh lingkungan koloni semut pada saat mencari makanan [3]. Semut-semut mempunyai penyelesaian yang unik dan sangat maju yaitu dengan menggunakan jejak pheromone, proses peninggalan pheromone ini dikenal sebagai stigmergy, yaitu sebuah proses memodifikasi lingkungan yang tidak hanya bertujuan untuk mengingat jalan pulang ke sarang, tetapi juga memungkinkan para semut berkomunikasi dengan koloninya pada suatu jalur dan membangun solusi, semakin banyak jejak pheromone ditinggalkan, maka jalur tersebut akan diikuti oleh semut lain. Dalam algoritma semut, diperlukan beberapa variabel dan langkah-langkah untuk menentukan jalur terpendek, yaitu[3]: a N`]^ O .Nb]^ O c a ∑_ defghijkl mN`]_ d O .Nb]_ d O _ c (1) dimana : Pij : probabilitas verteks i ke verteks j i : verteks ke-i j : verteks ke-j τij : pheromone dari verteks i ke verteks j β : tetapan pengendali visibilitas α : tetapan pengendali intensitas jejak semut ηij : visibilitas dari verteks i ke verteks j k : jumlah jalur kemungkinan yang dilalui d. Perhitungan Panjang Jalur Setiap Semut Perhitungan dilakukan berdasarkan tabuk masing-masing dengan menggunakan persamaan 2: n = o p q , p qr tr + so +r p q , p q Rr (2) dimana : Lk : panjang lintasan yang dilalui semut k n : banyak titik 67!E/ = ,7!E/ =R : bobot antara titik ke s dan s+1 pada tabu list a. Inisialisasi Parameter Dalam ACO terdapat beberapa parameter masukan sebagai inisialisasi awal untuk melakukan proses optimasi. Beberapa parameter tersebut adalah: 1. τij : Intensitas jejak semut antar kota dan perubahannya 2. n : Banyak titik atau dij (jarak antar kota) 3. Penentuan kota berangkat dan kota tujuan 4. Q : Tetapan siklus semut 5. α : Tetapan pengendali intensitas jejak semut 6. β : Tetapan pengendali visibilitas 7. ηij : Visibilitas antar titik (1/dij) 8. m : Jumlah semut 9. ρ : Tetapan penguapan jejak semut 10. Jumlah siklus maksimum (NCmax) bersifat tetap selama algoritma dijalankan. 11. Inisialisasi kota pertama setiap semut. e. Perhitungan Perubahan Harga Intensitas Pheromone Semut Persamaan (3) digunakan untuk menghitung perubahan intensitas pheromone semut : ∆v&) = ∑'+ ∆v&) (3) dimana : ∆v&) : Intensitas jejak semut antar kota dan perubahannya ∆v&) : perubahan harga intensitas jejak kaki semut antar kota setiap semut m : jumlah semut k : jumlah jalur yang mungkin dilewati m semut ditempatkan pada kota pertama yang telah ditentukan. f. Pengosongan Tabu List b. Pengisian Tabu List CI - 8 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember v&) ← Tabu list perlu dikosongkan untuk diisi lagi dengan urutan kota yang baru pada siklus selanjutnya, jika jumlah siklus maksimum belum tercapai atau belum terjadi konvergensi. wƒE= G 2.2.Ant Colony System (ACS) Algoritma Ant Colony System (ACS) merupakan pengembangan dari Algoritma ACO. Algoritma ini tersusun atas sejumlah m semut yang bekerjasama dan berkomunikasi secara tidak langsung melalui komunikasi Pheromone[4].Peranan utama dari penguapan Pheromone pada ACS adalah untuk mencegah stagnasi. jxC yjzf[v&,/ O. [{&,/ ]| } , =w €, (4) )& ! ~ ≤ ~G 5 =204&7!=& )& ! 7&6! 5 =2043!=& 2.2.2.Update Pheromone Lokal Lokal updating rule dengan mengubah tingkat pheromone pada edge-edge yang telah dikunjungi semut[5], menggunakan persamaan 5: (5) v&) ← − ‚ . v&) + ‚. vG .ƒ )& ! 3, = … 74/3 753E!& =5E!0& †! 5=50/3/1! 2.4 Akurasi Untuk menghitung akurasi menggunakan metode Mean Square Error (MSE). Semakin kecil nilai MSE mengindikasikan bahwa hasil prediksi semakin akurat[7]. Nilai MSE dapat diperoleh dengan persamaan 8. dimana : ‚ : parameter evaporasi lokal. τ0 : nilai awal jejak pheromone. vG = dengan: „v&) = (7) 2.3. Algoritma Dijkstra Algoritma Dijkstra merupakan salah satu varian dari algoritma greedy, yaitu salah satu algoritma untuk pemecahan persoalan yang terkait dengan masalah optimasi. Algoritma greedy ini hanya memikirkan solusi terbaik yang akan diambil pada setiap langkah tanpa memikirkan konsekuensi ke depan. Algoritma greedy ini berupaya membuat pilihan nilai optimum lokal pada setiap langkah dan berharap agar nilai optimum lokal ini mengarah kepada nilai optimum global[6]. Fungsi objektif akan memaksimalkan atau meminimalkan nilai solusi. Tujuannya adalah memilih satu saja solusi terbaik dari masingmasing anggota himpunan solusi Penggunaan strategi greedy pada algoritma Dijkstra adalah Pada setiap langkah, ambil sisi berbobot minimum yang menghubungkan sebuah simpul yang sudah terpilih dengan sebuah simpul lain yang belum terpilih. Lintasan dari simpul asal ke simpul yang baru haruslah merupakan lintasan yang terpendek di antara semua lintasannya ke simpul-simpul yang belum terpilih. dimana : j : titik yang akan dituju. Jumlah Pheromone yang terdapat pada edge antara titik r dan titik s. q : sebuah bilangan random. β : parameter pengendali jarak (β > 0 ) Jika q ≤ q0 maka pemilihan titik yang akan dituju menerapkan aturan eksploitasi sedangkan jika q > q0 maka menerapkan eksplorasi. dengan − ‚ . v&) + ‚. ∆v&) dimana : ρ : parameter evaporasi global. Cbs : panjang lintasan terbaik keseluruhan. τij : intensitas jejak pheromone pada garis (i,j) 2.2.1.State Transition Rule Aturan transisi status yang berlaku pada ACS[5] adalah seperti persamaan 4 : ) ISSN : 2302-7088 ∑ MSE = (6) dimana : n : jumlah titik. Cnn : panjang sebuah tour terbaik. n i =1 ( Dig − Dik ) 2 n dimana : ‡&8 : jarak aktual semut pada periode i ‡& : jarak aktual dijkstra pada periode i n : jumlah percobaan 2.2.3.Update Pheromone Global Global updating rule [5], menggunakan persamaan 7 : CI - 9 (8) Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember METODOLOGI 3.1. Perancangan Sistem Gambar 1 merupakan flowchart pencarian rute terpendek menggunakan algoritma semut: 1. Inisialisasi parameter awal, yaitu: a. Parameter yang digunakan dalam penentuan rute terpendek yaitu nama jalan, titik penyusun jalan, dan panjang jalan b. Parameter algoritma semut, yaitu : 1. Jumlah semut yang akan digunakan (m) 2. Jumlah iterasi yang akan digunakan (NCmax) 3. Tetapan penguapan jejak semut (ρ) 4. Tetapan pengendali intensitas jejak semut (α) 5. Tetapan pengendali visibilitas (β) 6. Intensitas jejak semut antar kota (τ) ISSN : 2302-7088 4. Update pheromone lokal dimana setiap semut setelah menuju titik selanjutnya akan selalu melakukan update pheromone untuk membuat tingkat ketertarikan ruasruas yang ada berubah secara dinamis. 5. Simpan hasil terbaik dari setiap perjalanan semut kedalam tabulist. 6. Update pheromone global. 7. Reset tabulist. 8. Jika kondisi terpenuhi, berhenti dan hasilnya adalah solusi rute terpendek 3.2 Perancangan Basis Data Gambar 2 merupakan tabel-tabel dalam basisdata digunakan untuk menyimpan seluruh data yang digunakan oleh sistem. Tabel yang dapat disusun berdasarkan kebutuhan sistem ini yaitu tabel Jalan, tabel Cabang, tabel LampuLantas, dan tabel Koordinat Penyusun. Gambar 2 Entity Relationship Diagram HASIL DAN PEMBAHASAN Gambar 1. Flowchart Membangun Rute Perjalanan 2. Hasil dari inisialisasi tersebut akan dimasukkan ke dalam tabu list sebagai node awal semut. 3. Proses simulate ant yaitu mensimulasikan perjalanan semut sampai semua semut tiba pada tujuan tertentu secara random. CI - 10 Pada penelitian ini dilakukan dua skenario ujicoba. Pada uji coba yang pertama dilakukan pengujian pengaruh parameter semut untuk mendapatkan nilai parameter terbaik dari algoritma semut. Data yang digunakan pada pengujian pertama adalah data jalan kota malang. Uji coba ini dilakukan sebanyak 5 kali pada setiap perubahan nilai parameter. Dari uji coba tersebut akan diperoleh nilai terbaik yang kemudian akan di rata-rata sebagai nilai parameter yang optimal. Pada ujicoba yang kedua,untuk mengetahui tingkat keoptimalan algoritma ant colony system, dilakukan perbandingan antara algoritma ant colony system dengan algoritma Dijkstra. Dalam melakukan perbandingan ini, parameter yang digunakan algoritma ant colony system adalah nCmax=20, m=500, τ0=0.5, α=4, β=4, ρ=0.9, dan Q0=0.3. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 4.1.Pengujian Parameter Semut 4.1.1.Pengujian Jumlah Pheromone Awal(τ0) Semut (m) dan Pada pengujian ini nilai m antara 100 500 dan nilai τ0 antara 0,1 - 0,9 didapatkan hasil seperti pada gambar 3. Gambar 5. Grafik Uji ρ 4.1.4. Pengujian Parameter Q0 Parameter ini merupakan konstanta yang digunakan untuk pemilihan titik-titik yang akan dilalui oleh semut. Didapatkan nilai konstanta Q0 yang terbaik adalah 0.3.seperti pada gambar 6. Hasil Uji Q0 4.1.2. Pengujian Parameter α dan β Pengujian untuk mencari nilai α dan β yang terbaik dari nilai 1 sampai dengan 5, didapatkan hasil nilai α dan β terbaik adalah 4 seperti yang ditunjukkan pada gambar 4. Jarak (Km) Gambar 3. Pengaruh Parameter m dan τ0 20 10 0 0.1 0.3 0.5 0.7 0.9 Q0 Gambar 6. Grafik Uji Q0 Hasil Uji α dan β 4.1.5.Pengujian Konvergensi Pengujian dengan beberapa generasi dilakukan untuk menghasilkan solusi yang konvergen. Hasil dari pengujian ini digunakan untuk mencari siklus awal terjadinya kestabilan nilai / jarak dengan pengecekan 20 iterasi terakhir yang menghasilkan jarak yang sama. Jarak (Km) 20 β 10 α 0 1 2 3 4 5 Gambar 4. Grafik Uji α dan β 4.1.3. Pengujian Parameter ρ Pengujian untuk mencari nilai ρ yang terbaik dari nilai 0.1 - 0.9. Setelah 5 kali pengujian, didapatkan hasil nilai ρ terbaik adalah 0.9 seperti yang ditunjukkan pada gambar 5. Gambar 7. Grafik Uji Konvergensi Berdasarkan gambar 7, dapat diketahui bahwa pada generasi ke 20 sampai 50 memiliki nilai yang sama. Dapat dikatakan bahwa pada generasi ke 20 telah didapatkan hasil yang konvergen. CI - 11 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 4.2 Pengujian Dijkstra ACS dengan algoritma Hasil dari pengujian antara ACS dengan algoritma Dijkstra dapat dilihat pada gambar 8 Jarak (Km) Pengujian Jarak Dekat 10 5 Dijkstra 0 1 2 3 4 5 ACS Percobaan ke- Gambar 8. Pengujian ACS dengan algoritma Dijkstra Dari hasil pengujian yang ditunjukkan pada gambar 8, jarak yang dihasilkan oleh ACS dan Dijkstra adalah sama. Pada Gambar 9 terdapat rute yang dihasilkan oleh ACS dan Dijkstra. Gambar 9. Rute yang dihasilkan oleh ACS dan Djikstra Dari beberapa percobaan, algoritma Dijkstra selalu mendapat rute yang optimal untuk semua data uji karena algoritma hanya memikirkan solusi terbaik dengan langsung mengambil jarak terpendek pada saat itu tanpa memikirkan jarak total yang dihasilkan. : + . > GŠ. + G. G‰Š. . ˆ = G. .‹G‰.> ˆ= G + G. ‰ MSE yang dihasilkan tersebut membuktikan bahwa algoritma semut memiliki tingkat akurasi yang cukup tinggi untuk penyelesaian masalah. CI - 12 ISSN : 2302-7088 KESIMPULAN Kesimpulan yang dapat diambil daripenelitian ini adalah: 1. Pencarian rute terpendek dengan metode Ant Colony System dapat diimplementasikan. Proses pencarian rute terpendek di mulai dengan menyebarkan semut ke suatu titik, kemudian semut akan berjalan bebas menuju tujuan perjalanan. Dalam pemilihan jalur terpendek, metode ini tergantung dari nilai parameter yang dimasukkan antara lain jumlah semut, τ0, α, β, ρ, dan Q0. 2. Perbandingan jarak terpendek yang dihasilkan algoritma Ant Colony System dengan Dijkstra menghasilkan jarak yang relative sama. Hanya saja rute yang dihasilkan oleh algoritma Ant Colony System lebih bervariatif, karena dipengaruhi oleh beberapa parameter. 3. Dari ujicoba diketahui bahwa algoritma Ant Colony System memiliki tingkat akurasi yang cukup tinggi, DAFTAR PUSTAKA [1] Nugraha, D., & dkk. (2006). Diagnosis Gangguan Sistem Urinari pada Anjing dan Kucing menggunakan VFI 5. Bandung: IPB.Surya Post, 30 November 2011 [2] Mutakhiroh, I., Saptono, F., Hasanah, N., & Wiryadinata, R. (2007). Pemanfaatan Metode Heuristik Dalam Pencarian Jalur Terpendek Dengan Algoritma Semut dan Algoritma Genetik. Yogyakarta: Seminar Nasional Aplikasi Teknologi Informasi. ISSN: 1907-5022 [3] M. Dorigo, V. Maniezzo, dan A. Colorni. (1996). The Ant System: Optimization by a colony of cooperating agents. IEEE Transactions on Systems, Man,and Cybernetics— Part B, 26(1), , pp.1-13. [4] Dorigo, M., & Stützle, T. (2004). Ant Colony Optimization. England: The MIT Press Cambridge, Massachusetts Institute of Technology. [5] Dorigo, M., & Gambardella, L. M. (1997). Ant colonies for the traveling salesman problem. Belgium: Tech.Rep/IRIDIA/1996-003, Université Libre de Bruxelles. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember [6] Novandi, R. A. (2007). Perbandingan Algoritma Dijkstra dan Algoritma Floyd-Warshall dalam Penentuan Lintasan Terpendek (Single Pair Shortest Path). Bandung: Institut Teknologi Bandung. [7] Kaur Parvinder, Shakti Kumar, Amarpartap Singh, Optimization of Membership Functions Based on AntColony Algorithm, (IJCSIS) International Journal of Computer Science and Information Security,Vol. 10, No. 4, April 2012, tanggal akses Agustus 2012 [8] Handaka, M. S. (2010). Perbandingan Algoritma Dijkstra (Greedy), Bellman-Ford(BFS-DFS), dan FloydWarshall (Dynamic Programming) CI - 13 ISSN : 2302-7088 dalam Pengaplikasian Lintasan Terpendek pada Link-State Routing Protocol. Bandung: Institut Teknologi Bandung [9] Mutakhiroh, I., Saptono, F., Hasanah, N., & Wiryadinata, R. (2007). Pemanfaatan Metode Heuristik Dalam Pencarian Jalur Terpendek Dengan Algoritma Semut dan Algoritma Genetik. Yogyakarta: Seminar Nasional Aplikasi Teknologi Informasi. ISSN: 1907-5022. [10] Wardy, I. S. (2007). Penggunaan graph dalam algoritma semut untuk melakukan optimasi. Bandung : Institut Teknologi Bandung. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 PENJADWALAN FLOWSHOP DENGAN METODE HEURISTIK MULTIPLE OBJECTIVE TERBOBOTI Dyah Herawatie, Eto Wuryanto Departemen Matematika, Fak. Sains dan Teknologi Universitas Airlangga Email : [email protected], [email protected] Abstrak Penelitian ini merupakan pengembangan dari penelitian yang telah dilakukan Rajendran (1995), yang telah mengembangkan algoritma CDS (Cambell, Dudek, Smith) untuk penjadwalan flowshop dengan menggunakan multiple objective. Penelitian ini memodifikasi fungsi tujuannya dengan memberi bobot, berdasarkan derajat kepentingannya. Disamping itu juga akan dikembangkan algoritma baru, yang merupakan pengembangan dari algoritma RA (Rapid Acess). Menurut Sahu (2009), algoritma RA yang merupakan modifikasi dengan menggabungkan keuntungan dari Palmer’s slope index dan CDS lebih efisien jika dibandingkan dengan algoritma lain. Dari penelitian ini, dapat diambil kesimpulan antara lain : dari beberapa data yang digunakan, algoritma RA tidak selalu menghasilkan jadwal yang lebih baik dari algoritma CDS. Selain itu dengan bobot yang ditambahkan pada fungsi relativitas, akan bisa menghasilkan jadwal yang lebih baik lagi. Dalam penelitian ini ditunjukkan dengan semakin kecilnya nilai makespan, total flow time, dan total idle time. Hal ini terjadi pada data 3 (10×5), data 4 (10×10), dan data 5 (10×8). Jika data yang digunakan berukuran kecil (jumlah job × banyaknya mesin), maka penambahan bobot kurang mempengaruhi solusi yang diperoleh. Hal ini ditunjukan pada data 1 (5×3) dan data 2 (5×5). Kata kunci : Penjadwalan flowshop, algoritma CDS, algoritma RA, multiple objectives. Abstract Rajendran (1995) has developed an algorithm CDS (Cambell, Dudek, Smith) for flowshop scheduling using multiple objective. This research was added on the Rajendran’s function of the goal with weighting based on the degree of importance. Besides, it was also made a new algorithm with weighted multiple objective that is the development of algorithm RA (Rapid Acess). RA algorithm is a modified version by combining the advantages of Palmer's slope index and CDS. This algorithm is more efficient than other algorithms (Sahu, 2009). The results of this research are: The RA algorithm does not always produce a better scheduling than CDS algorithm. The weighted function of relativity will be able to obtain a best scheduling. This is shown by the data 3 (10 jobs × 5 machines), data 4 (10 × 10), and data 5 (10 × 8). In case of small data (data 1 (5 × 3) and data 2 (5 × 5)), the additional weight not affect to the gained solution. Key word : Flowshop scheduling, CDS algorithm, RA algorithm, multiple objectives. PENDAHULUAN Latar Belakang Penjadwalan merupakan salah satu bagian penting dalam bidang industri, terutama di bagian manufaktur dan produksi. Permasalahan penjadwalan di bidang produksi meliputi pengaturan job-job yang akan diproses pada serangkaian mesin dengan CI - 14 urutan job yang sama berlaku untuk setiap mesin dan setiap mesin hanya memproses sebuah job pada saat yang sama. Masalah ini dikenal dengan istilah flowshop. Permasalahan utama pada flowshop adalah menentukan urutan job yang akan dipertahankan di sepanjang sistem yang memenuhi fungsi tujuan. Permasalahan penjadwalan flow shop diperkenalkan oleh S.M Johnson pada tahun Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 1954 dengan permasalahan yang dikemukakan berupa permasalahan penjadwalan flow shop 2-mesin dengan fungsi tujuan meminimumkan makespan. Beberapa algoritma yang bisa digunakan untuk menyelesaikan permasalahan penjadwalan flow shop m-mesin, antara lain algoritma Palmer, Gupta, CDS (Cambell, Dudek, Smith), dan algoritma heuristik RA (Rapid Acess). Algoritma ini mempunyai fungsi tujuan meminimumkan makespan. Selain makespan, fungsi tujuan yang sering digunakan sebagai ukuran efektifitas untuk permasalahan penjadwalan permutation flowshop antara lain total flow time, idle time mesin, dan tardiness (keterlambatan dalam proses produksi). Rajendran (1995) mengemukakan sebuah algoritma heuristik untuk permasalahan penjadwalan permutation flowshop m-mesin dengan multiple objectives atau fungsi tujuan lebih dari satu. Dalam algoritma ini, jadwal awal diperoleh dari algoritma CDS. Setelah jadwal awal melalui beberapa iterasi terbentuklah sebuah jadwal baru. Dari tiap jadwal yang didapat kemudian dibandingkan efektivitas kedua jadwal dengan cara membandingkan nilai relativitas multiple objectives jadwal awal dengan nilai relativitas multiple objectives jadwal baru. Jadwal dengan nilai relativitas paling minimum akan diiterasi lagi hingga didapatkan nilai multiple objectives paling minimum. Jadwal dengan nilai multiple objectives paling minimum menjadi solusi dari penjadwalan permutation flow shop m-mesin. Sahu (2009) dalam tesisnya melakukan survey terhadap metode-metode dalam penjadwalan flowshop dengan membandingkan keefektifan algoritma Palmer, Gupta, CDS (Cambell, Dudek, Smith), dan algoritma heuristik RA. Ukuran efektivitas yang digunakan dalam survey tersebut adalah makespan. Dari hasil survey ini diperoleh kesimpulan bahwa algoritma RA memberikan hasil yang paling efisien. Berdasarkan latar belakang permasalahan tersebut, maka perlu dilakukan penelitian yang lebih mendalam tentang penjadwalan flowshop dengan multiple objective. Dalam penelitian ini akan dikembangkan algoritma yang telah dikemukakan oleh Rajendran (1995), yaitu dengan menambahkan bobot dalam fungsi obyektifnya. Tujuan digunakannya bobot dalam fungsi obyektifnya adalah untuk memberikan kepentingan relatif di antara CI - 15 ISSN : 2302-7088 fungsi–fungsi tujuan yang digunakan. Selain itu akan dikembangkan algoritma baru dengan jadwal awal menggunakan algoritma RA, dan menggunakan multiple objective terboboti. Dan selanjutnya akan dilakukan perbandingan terhadap kedua algoritma tersebut. Tujuan Penelitian ini bertujuan : 1. Mengembangkan algoritma CDS yang telah dilakukan Rajendran (1995) dengan menggunakan multiple objective terboboti. 2. Menyusun algoritma penjadwalan flowshop baru dengan jadwal awal menggunakan algoritma RA menggunakan multiple objective terboboti. 3. Mengimplementasikan algoritma tersebut ke dalam program JAVA. 4. Membandingkan keefektifan kedua algoritma tersebut dengan menggunakan data sekunder. STUDI PUSTAKA Penjadwalan Flowshop Seperti dijelaskan oleh Sahu (2009), penjadwalan flowshop sejenis dengan masalah kombinatorial. Penjadwalan flowshop merupakan sebuah permasalahan perencanaan produksi dengan n-job (item, tugas, dan lainlain) yang harus diproses dalam urutan yang sama pada setiap m-mesin.. Masing-masing job mempunyai processing time yang berbeda untuk mesin yang berbeda. Beberapa karakteristik dari penjadwalan flowshop, antara lain : 1. Terdapat m mesin dan n job 2. Masing-masing job terdiri dari m operasi dan masing-masing operasi membutuhkan mesin yang berbeda 3. Ke-n job diproses dalam urutan yang sama pada m mesin 4. waktu pemrosesan dari job ke-i pada mesin ke-j dinotasikan dengan t ij (i = 1, 2, ...n, dan j = 1, 2, ... m) 5. Disusun sebuah jadwal berupa urutan job, yang akan memenuhi tujuan tertentu. Tujuan yang sering digunakan adalah meminimumkan makespan. Dalam penjadwalan flowshop digunakan asumsi antara lain : Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 1. Setiap job diproses pada semua mesin berdasarkan urutan tertentu 2. Setiap mesin hanya memproses satu job pada suatu waktu 3. Setiap job diproses pada satu mesin pada suatu waktu 4. Operasi tidak pre-emptif 5. Waktu set-up untuk sebuah operasi adalah sequence-independent dan tidak termasuk dalam waktu pemrosesan. c. Meminimalkan persediaan barang setengah jadi (work in process-WIP). Kriteria ini dievaluasi dengan menentukan jumlah pekerjaan rata-rata dalam sistem. Hubungan antara benyaknya pekerjaan dalam sistem da persediaan WIP akan tinggi. Oleh karen itu, jika terdapat lebih sedikit pekerjaan dalam sistem, maka persediaan yang ada lebih rendah. d. Meminimalkan waktu tunggu pelanggan. Kriteria ini dievaluasi dengan menentukan keterlambatan pekerjaan rata-rata. Untuk menyelesaian permasalahan penjadwalan flowshop, dikenal beberapa metode penjadwalan, antara lain (Sahu (2009)) 1. Masalah flowshop 2 mesin : a. Algoritma Johnson b. Algoritma Kusiak 2. Metode heuristik untuk masalah penjadwalan n-job m-mesin : a. Algoritma heuristik Palmer b. Algoritma heuristik Gupta c. Algoritma heuristik CDS d. Algoritma heuristik RA Algoritma CDS (Campbell, Dudek, Smith) Algoritma CDS merupakan salah satu algoritma umum yang digunakan untuk menjadwalkan urutan job pada permasalahan flowshop dengan lebih dari 2 mesin guna mendapatkan sebuah waktu penyelesaian atau makespan yang mendekati minimum. Algoritma ini merupakan pengembangan dari algoritma Johnson. Langkah-langkah dalam algoritma CDS (Cambell, et al 1970 dan Hong et al., 2001) : 1. Set variabel i = 0. 2. Set variable i = i + 1 , a. Untuk j = 1 sampai m-1 hitung Ukuran efektivitas Dalam penjadwalan digunakan beberapa ukuran efektifitas. Ukuran ini digunakan untuk mengukur efektivitas dari sebuah jadwal. Dalam Sahu (2009), disebutkan beberapa ukuran efektivitas yang digunakan dalam penjadwalan flowshop antara lain : a. Rata-rata waktu penyelesaian pekerjaan b. Rata-rata lamanya waktu pekerjaan c. Lateness d. Rata-rata lamanya waktu suatu job akan terlambat (due-date) e. Makespan (waktu yang dibutuhkan oleh job terakhir untuk keluar dari sistem) f. Total flow time merupakan jumlahan dari flow time (waktu yang dibutuhkan oleh job j untuk keluar dari sistem) Sedangkan dalam Heizer & Render (2008), beberapa kriteria yang digunakan untuk mengevaluasi kinerja penjadwalan antara lain : a. Meminimalkan waktu penyelesaian. Kriteria ini dievaluasi dengan mnentukan waktu penyelesaian rata-rata untuk setiap pekerjaan. b. Memaksimalkan utlisasi. Kriteria ini dievaluasi dngan menghitung persentase waktu suatu fasilitas digunakan. ISSN : 2302-7088 t i′1 = t i′1 + t ij′ b. Untuk j = m sampai 2 hitung t i′2 = t i′2 + t ij′ { 3. Hitung U = j t1 j < t 2 j } dan V = {j t 1j ≥ t2 j } 4. Urutkan job dalam U dengan urutan nondecreasing dari t i′1 5. Urutkan job dalam V dengan urutan nonincreasing dari t i′2 6. Sequence yang optimal diperoleh sebagai jadwal S didapat dengan menggabungkan job yang telah diurutkan dalam himpunan U diikuti dengan urutan job yang telah diurutkan dalam himpunan V dengan makespan yang minimum. 7. Kembali ke langkah 2 hingga i = n . Algoritma RA (Rapid Acess) Algoritma RA dikembangkan oleh Dannenbring yang berusaha menggabungkan keuntungan dari Slope index Palmer dan prosedur CDS. Dalam Sahu (2009), dijelaskan langkah-langkah dari algoritma heuristik RA : 1. Set variabel i = 0. 2. Set variable i = i + 1 , CI - 16 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Untuk j = 1 w j1 = m − ( j − 1) , t i′1 = ∑ j =1 w j1t ij m sampai m-1 hitung w j2 = j dan t i′2 = Dengan pembobotnya sebagai berikut : ∑ m j =1 w j 2 t ij q(σα , j ) Iσ didefinisikan ISSN : 2302-7088 : completion time dari job α pada α mesin ke-j, jika job ditambahkan ke σ : total idle time dari semua mesin, setelah penjadwalan job dalam σ : total flowtime (atau jumlahan completion time) dari job dalam σ W1 = {w j1 j = 1,2,...m} = {m, m − 1,...2,1} Fσ { V = {j t ′ ≥ t ′ } Secara garis besar, langkah-langkah dari algoritma ini adalah sebagai berikut (Rajendran, 1995): 1. Dapatkan jadwal awal dengan menggunakan algoritma CDS. Dapatkan jadwal utama S dari iterasi job yang dilakukan dengan cara penukaran job berpasangan dari jadwal awal dengan tujuan utama mendapatkan makespan minimum. 2. Hitung D[r ] dan D[′r ] dari jadwal utama W2 = {w j 2 j = 1,2,...m} = {1,2,..., m − 1, m} U = j t1′ j < t 2′ j 3. Hitung 1j } dan 2j 4. Urutkan job dalam U dengan urutan nondecreasing dari t i′1 5. Urutkan job dalam V dengan urutan nonincreasing dari t i′2 6. Sequance yang optimal diperoleh sebagai jadwal S didapatkan dengan menggabungkan job yang telah diurutkan dalam himpunan U diikuti dengan urutan job yang telah diurutkan dalam himpunan V dengan makespan yang minimum. 7. Kembali ke langkah 2 hingga i = n . Pengembangan Algoritma Heuristic CDS dengan Multiple Objective Pengembangan algoritma heuristic CDS dengan multiple objective dikemukakan oleh Chandrasekharan Rajendran. Dalam algortima ini, digunakan tiga fungsi tujuan, yaitu meminimumkan makespan, total flow time, dan total idle-time mesin. Makespan dari jadwal parsial σα dirumuskan dengan M = q(σα , m ) Total flow time dari job-job dalam σα dirumuskan dengan Fσα = Fσ + q(σα, m) Sedangkan total idle time dari mesin-mesin, hasil dari jadwal parsial σα dirumuskan dengan m I σα = I σ + ∑ [max (q (σα , j − 1) − q (σ , j ));0] j =2 dengan : σ q(σ , j ) : Himpunan (set) jadwal dari total n job : completion time dari jadwal partial σ pada mesin ke-j CI - 17 S, dengan rumus: D[r ] = ∑i =1 t i [r ] −∑i =1 t i [r +1] m m (1) D[′r ] = ∑i=1{m − i +1}ti[r ] −∑i=1{m − i +1}ti[r +1] m m (2) D[r ] merupakan hasil pengurangan flow time job di posisi ke-r dengan flow time job di posisi ke r+1. 3. Bentuk ranked list untuk D[r ] ≥ 0 . 4. Jika ranked list null maka STOP. Jika ranked list tidak null, tukar posisikan job di jadwal S berdasarkan job yang berada di ranked list, maka akan didapatkan jadwal baru S ′ . 5. Urutkan job yang berada dalam ranked list dengan urutan D[r ] yang menurun. Jika ada dua atau lebih job dengan nilai D[r ] yang sama di ranked list, maka job diurutkan berdasarkan nilai D[′r ] yang menurun. 6. Misalkan, dari jadwal S, job pertama di ranked list adalah job [q], posisi job ke-q ditukarkan dengan posisi job ke-q+1, dan sebaliknya. Terbentuk jadwal baru, yang dinotasikan dengan S’. 7. Bandingkan relativitas kenaikan pada nilai multiple objectives jadwal S ′ terhadap jadwal S. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember M '− min( M ' , M ) F '− min( F ' , F ) + min( M ' , M ) min( F ' , F ) I '− min( I ' , I ) + (3) min( I ' , I ) Rs ' = M − min( M ' , M ) F − min( F ' , F ) + min( M ' , M ) min( F ' , F ) I − min( I ' , I ) + (4) min( I ' , I ) Rs = 8. Jika Rs ' < R s , maka set S = S ′ , F = F’, M = M’, I = I’, dan ulangi langkah 2. Jika tidak, lanjutkan ke langkah 9. 9. Job [q] dihapus dari ranked list. Setelah penghapusan, jika ranked list tidak null maka ulangi langkah 6. Jika ranked list null maka lanjutkan ke langkah 10. 10. Jadwal S merupakan solusi dari permasalahan. STOP. METODE PENELITIAN Langkah-langkah yang dilakukan untuk mendapatkan penyelesaian dari masalah penjadwalan flowshop dengan multiple objective terboboti adalah sebagai berikut : 1. Melakukan penelusuran, penelahaan 2. 3. 4. 5. literatur, serta diskusi yang intensif, yang membahas tentang penjadwalan flowshop yang berhubungan antara lain dengan algoritma heuristik CDS, pengembangan algoritma CDS dengan multiple objectives, serta algoritma heuristik RA. Menyusun pengembangan algoritma Rajendran dengan multiple objectives terboboti. Menyusun pengembangan algoritma RA dengan multiple objectives terboboti. Mengimplementasikan kedua algoritma tersebut (algoritma CDS dengan multiple objectives terboboti dan algoritma RA dengan multiple objectives terboboti) ke dalam program bahasa JAVA. Membandingkan keefektifan algoritma dengan menggunakan data sekunder. CI - 18 ISSN : 2302-7088 HASIL DAN PEMBAHASAN Pengembangan Algoritma Rajendran dengan Mutiple Objective Terboboti Pengembangan algoritma heuristik CDS dengan multiple objective dikemukakan oleh Chandrasekharan Rajendran (Rajendran, 995). Pada dasarnya, relativitas yang harus dihitung pada langkah 7 pada algoritma ini, bisa ditulis dengan : Rs = + G1 − min(G1 ' , G1 ) G2 − min(G2 ' , G2 ) + min(G1 ' , G1 ) min(G2 ' , G2 ) G3 − min(G3 ' , G3 ) min(G3 ' , G3 ) (5) Dengan Gi adalah tujuan yang dikehendaki. Dalam algoritma Rajendran, digunakan tiga tujuan, yaitu meminimumkan makespan, total flow time, dan total idle-time mesin. Secara umum, jika digunakan n tujuan dan ditambahkan bobot dalam fungsi obyektifnya, rumus relativitasnya menjadi : Rs = w1 G1 − min(G1 ' , G1 ) G − min(G2 ' , G2 ) + w2 2 min(G1 ' , G1 ) min(G2 ' , G2 ) Gn − min(Gn ' , Gn ) min(Gn ' , Gn ) + ... + wn (6) Modifikasi ini menghasilkan perubahan mulai pada langkah ke-7 dari algoritma Rajendran sebagai berikut : 7. Bandingkan relativitas kenaikan pada nilai multiple objectives jadwal S ′ terhadap jadwal S. Rs ' = w1 G1 '− min(G1 ' , G1 ) G '− min(G2 ' , G2 ) + w2 2 min(G1 ' , G1 ) min(G2 ' , G2 ) + ... + wn Gn '− min(Gn ' , Gn ) min(Gn ' , Gn ) Rs = w1 (7) G1 − min(G1 ' , G1 ) G − min(G2 ' , G2 ) + w2 2 min(G1 ' , G1 ) min(G2 ' , G2 ) + ... + wn Gn − min(Gn ' , Gn ) min(Gn ' , Gn ) Dengan 0 ≤ wi ≤ 1 , dan w1 + w2 + ... + wn = 1 (8) Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 8. Jika Rs ' < Rs , maka set S = S ′ , G1 = G1 ' , G2 = G2 ' , ... Gn = Gn ' , dan ulangi langkah 2. Jika tidak, lanjutkan ke langkah 9. 9. Job [q] dihapus dari ranked list. Setelah penghapusan, jika ranked list tidak null maka ulangi langkah 6. Jika ranked list null maka lanjutkan ke langkah 10. 10. Jadwal S merupakan solusi dari permasalahan. STOP. Pengembangan Algoritma RA dengan Mutiple Objective Terboboti Dalam penelitian ini dikembangkan algoritma baru, dengan melakukan modifikasi algoritma yang dikembangkan oleh Rajendran (1995). Jika pada algoritma Rajendran, jadwal awal diperoleh dari algoritma CDS. Maka dalam penelitian ini digunakan algoritma RA. Modifikasi algoritma ini dapat dituliskan sebagai berikut : 1. Dapatkan jadwal awal dengan menggunakan algoritma RA. Dapatkan jadwal utama S dari iterasi job yang dilakukan dengan cara penukaran job berpasangan dari jadwal awal dengan tujuan utama mendapatkan makespan minimum. 2. Hitung D[r ] dan D[′r ] dari jadwal utama S, dengan rumus: D[r ] = ∑i =1 t i [r ] −∑i =1 t i [r +1] m m job diurutkan berdasarkan nilai D[′r ] yang menurun. 6. Misalkan, dari jadwal S, job pertama di ranked list adalah job [q], posisi job ke-q ditukarkan dengan posisi job keq+1, dan sebaliknya. Terbentuk jadwal baru, yang dinotasikan dengan S’. 7. Bandingkan relativitas kenaikan pada nilai multiple objectives jadwal S ′ terhadap jadwal S. Rs ' = w1 G1 '− min(G1 ' , G1 ) G '− min(G 2 ' , G 2 ) + w2 2 min(G1 ' , G1 ) min(G 2 ' , G 2 ) + ... + wn Rs = w1 G n '− min(G n ' , G n ) min(G n ' , G n ) (11) G1 − min(G1 ' , G1 ) G − min(G 2 ' , G 2 ) + w2 2 min(G1 ' , G1 ) min(G 2 ' , G 2 ) + ... + wn G n − min(G n ' , G n ) min(G n ' , G n ) (12) Dengan 0 ≤ wi ≤ 1 , dan w1 + w2 + ... + wn = 1 8. Jika Rs ' < Rs , maka set S = S ′ , G1 = G1 ' , G2 = G2 ' , ... Gn = Gn ' , dan ulangi langkah 2. Jika tidak, lanjutkan ke langkah 9. 9. Job [q] dihapus dari ranked list. Setelah penghapusan, jika ranked list tidak null maka ulangi langkah 6. Jika ranked list null maka lanjutkan ke langkah 10. 10. Jadwal S merupakan solusi dari permasalahan. STOP. (9) D[′r ] = ∑i =1{m − i + 1}ti [r ] −∑i =1{m − i + 1}ti [r +1] m ISSN : 2302-7088 m (10) D[r ] merupakan hasil pengurangan flow time job di posisi ke-r dengan flow time job di posisi ke r+1. 3. Bentuk ranked list untuk D[r ] ≥ 0 . 4. Jika ranked list null maka STOP. Jika ranked list tidak null, tukar posisikan job di jadwal S berdasarkan job yang berada di ranked list, maka didapat jadwal baru S ′ . 5. Urutkan job yang berada dalam ranked list dengan urutan D[r ] yang menurun. Jika ada dua atau lebih job dengan nilai D[r ] yang sama di ranked list, maka CI - 19 Perbandingan Hasil Penjadwalan dan Analisis Untuk tujuan perbandingan, dalam penelitian ini digunakan 6 data, yang diambil dari beberapa sumber, antara lain : a. Data 5 job 3 mesin dari Rajendran (1995) b. Data 5 job 5 mesin dari Ravindran (2005) c. Data 10 job 5 mesin dari Kattan (2003) d. Data 10 job 10 mesin dari Sahu (2009) e. Data 10 job 8 mesin dari Sahu (2009). Dengan keenam data ini, akan dibuat jadwal dengan menggunakan enam algoritma, antara lain : 1. CDS Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 2. RA 3. Pengembangan CDS dengan Mutiple Objective (Rajendran atau CDS MO) 4. Pengembangan RA dengan Mutiple Objective (RA MO) 5. Pengembangan CDS dengan Mutiple Objective Terboboti (CDS MOT) 6. Pengembangan RA dengan Mutiple Objective Terboboti (RA MOT) Bobot yang digunakan pada algoritma CDS dengan Mutiple Objective Terboboti, dan RA dengan Mutiple Objective Terboboti 0 ≤ wi ≤ 1 , dan mempunyai syarat w1 + w2 + ... + wn = 1 . Dalam penelitian ini, bobot yang digunakan wi = 0, 0.1, 0.2, 0.3, 0,4, 0,5 ... , 1. Sebagai ukuran efektivitas, dalam penelitian ini akan digunakan makespan, total flow time, dan total idle time. Data 5 job 3 mesin dari Rajendran, 1995 Dengan menggunakan data pada tabel 1, dan menggunakan keenam algoritma diperoleh hasil penjadwalan seperti pada tabel 2, dengan M = makespan, F = total flow time, dan I = total idle time. Algoritma CDS dan RA bertujuan sama, yaitu mendapatkan jadwal dengan makespan minimum. Pada data 2, dengan menggunakan algoritma CDS dan RA, diperoleh makespan 51. Meskipun kedua algoritma menghasilkan makespan yang sama, tetapi RA menghasilkan jadwal dengan total flow time dan total idle-time mesin yang lebih kecil. Tabel 1. Data (5×3) dari Rajendran (1995) M1 M2 M3 J1 5 10 9 J2 2 3 7 J3 7 9 3 J4 3 2 18 J5 4 3 9 ISSN : 2302-7088 2-5-3-4-1 52 153 22 Jika menggunakan algoritma CDS dengan Mutiple Objective dan RA dengan Mutiple Objective diperoleh jadwal yang sama, sehingga menghasilkan makespan, total flow time dan total idle-time yang sama, yaitu 52, 153, dan 22.. Jika menggunakan algoritma CDS dengan Mutiple Objective Terboboti dan RA dengan Mutiple Objective Terboboti juga diperoleh jadwal yang sama. Ada dua alternatif jadwal yang diberikan. Satu jadwal sama dengan jadwal yang dihasilkan oleh algoritma CDS dengan Mutiple Objective dan RA dengan Mutiple Objective, dan jadwal yang lain mempunyai nilai makespan yang lebh kecil (51). Jika dibandingkan dengan total flow time dan total idle-time yang nilainya lebih besar (yaitu 165 dan 38), penurunan nilai makespan ini menjadi tidak signifikan. Sehingga jadwal terbaik untuk kedua algoritma ini sama dengan apabila tidak dilakukan pembobotan. Data 5 job 5 mesin dari Ravindran (2005) Dari data Ravindran (2005) seperti pada tabel 3, dan dengan menggunakan keenam algoritma diperoleh hasil penjadwalan seperti pada tabel 4. Tabel 3. Data (5×5) dari Ravindran (2005) M1 M2 M3 M4 M5 J1 10 11 20 22 5 J2 3 21 19 13 12 J3 45 30 9 15 17 J4 1 40 32 24 28 J5 35 4 26 16 25 Algoritma CDS dan RA menghaslkan makespan yang sama dengan jadwal dengan urutan yang berbeda. Jika dibandingkan jadwal yang dihasilkan keduanya, RA menghasilkan jadwal yang relatif lebih baik daripada CDS. Meskipun total flowtime-nya lebih besar (790) tetapi jadwal ini menghasilkan total idle time yang jauh lebih kecil (88). Dengan menggunakan keenam algoritma, jadwal terbaik dihasilkan dari algoritma CDS dengan Mutiple Objective dan dengan Mutiple Objective Terboboti. Tabel 2. Hasil Penjadwalan Data (5×3) Algoritma Jadwal M F I CDS 2-4-5-1-3 51 180 56 RA 2-5-4-1-3 51 171 46 CDS MO 2-5-3-4-1 52 153 22 RA MO 2-5-3-4-1 52 153 22 51 165 38 2-5-4-3-1 CDS MOT 2-5-3-4-1 52 153 22 RA MOT 2-5-4-3-1 51 165 38 Tabel 4. Hasil penjadwalan Data (5×5) Algoritma Jadwal M F I CDS 4-2-5-3-1 184 787 176 RA 4-3-5-1-2 184 790 88 CI - 20 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember CDS MO RA MO CDS MOT RA MOT 2-5-4-3-1 4-3-5-1-2 4-2-5-3-1 2-5-4-3-1 2-5-1-4-3 4-3-5-1-2 4-3-1-5-2 4-1-3-5-2 4-1-2-3-5 1-4-3-2-5 188 184 184 188 200 184 187 188 189 199 715 790 787 715 677 790 776 770 752 748 68 88 176 68 56 88 99 128 184 129 Data 10 job 5 mesin dari Kattan (2003) Dengan menggunakan data dari Kattan (2003) (tabel 5), dan menggunakan keenam algoritma diperoleh hasil penjadwalan seperti pada tabel 6. Dibandingkan dengan CDS, RA menghasilkan jadwal yang jauh lebih baik. Jika CDS menghasilkan makespan, total flow time dan total idle time berturut-turut (170, 1278, 245), maka RA menghasilkan (164,1175, 131). Jika dibandingkan dengan RA, algoritma CDS dengan multiple objectives dan algoritma RA dengan multiple objectives memberikan hasil yang lebih baik, yaitu lebih kecilnya nilai total flow time dan total idle time, masingmasing menghasilkan (164, 1166, 111) dan (164, 1164, 110). Tabel 5. Data (10×5) mesin dari Kattan (2003) M1 M2 M3 M4 M5 J1 5 12 15 4 13 J2 10 8 6 9 4 J3 13 17 5 8 10 J4 21 13 18 14 17 J5 15 6 9 4 13 14 10 3 7 22 J6 12 5 6 9 14 J7 13 7 4 8 3 J8 10 14 13 20 5 J9 6 19 14 13 18 J10 ISSN : 2302-7088 3-5-9-2-8 7-1-6-10-43-5-9-8-2 7-1-6-10-49-5-2-3-9 7-1-6-10-45-9-3-8-2 7-1-6-10-4RA MOT 5-9-8-3-2 7-1-6-10-48-5-9-3-2 7-1-6-10-49-5-8-2-3 164 1166 111 161 1160 117 163 1165 111 164 1164 110 165 1157 102 165 1156 110 Dengan menggunakan bobot, diperoleh, hasil yang lebih baik lagi. Dengan menggunakan bobot w1, w2, w3 berturut-turut (0, 0, 1), diperoleh makespan, total flow time dan total idle time (165, 1157, 102). Meskipun makespan-nya lebih besar 1 unit, total flow time, dan total idle time yang terendah dibandingkan jadwal yang lain. Data 10 job 10 mesin dari Sahu (2009) Jika keenam algoritma diterapkan pada data 10 job 10 mesin dari Sahu (2009) (tabel 7), diperoleh hasil seperti pada tabel 8. Dibandingkan dengan RA, algoritma CDS menghasilkan jadwal yang sedikit lebih baik. Jika jadwal RA menghasilkan makespan, total flow time dan total idle time berturut-turut (97, 766, 154), maka CDS menghasilkan makespan, total flow time dan total idle time (95, 765, 154). Tabel 7. Data (10×10) dari Sahu (2009) M1 M2 M3 M4 M5 M6 M7 M8 M9 M10 J1 J2 J3 J4 J5 J6 J7 J8 J9 J10 Tabel 6. Hasil Penjadwalan Data (10×5) Algoritma Jadwal M F I CDS 1-10-7-6-4170 1278 245 5-3-9-2-8 RA 7-1-6-10-4164 1175 131 9-3-5-2-8 CDS MO 7-1-6-10-4164 1166 111 3-5-9-8-2 RA MO 7-1-6-10-4164 1164 110 4-9-8-3-2 CDS MOT 7-1-6-10-4- 163 1167 115 5 2 1 7 6 3 7 5 7 4 2 6 2 5 6 7 2 1 8 3 3 4 2 6 1 5 4 7 6 5 5 2 1 3 8 2 6 1 9 8 7 6 3 2 6 2 5 7 1 3 9 2 7 3 4 1 5 3 8 1 7 5 2 2 3 5 1 6 2 3 8 2 5 4 9 3 2 6 1 8 2 6 4 2 6 2 5 2 6 3 7 1 4 2 4 6 2 2 6 7 Dibandingkan algoritma CDS, algoritma CDS dengan Mutiple Objective memberikan hasil yang leibh baik. Jika CDS menghasilkan (95, 765, 154), maka CDS dengan Mutiple Objective menghasilkan (93, 755, 137). Ketiga CI - 21 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember tujuan mempunyai nilai yang lebih kecil. Jika digunakan bobot, menghasilkan yang lebih baik lagi, yaitu (93, 732, 126). Bobot yang digunakan w1, w2, w3 berturut-turut (0, 0, 1) Kesimpulan yang sama juga diperoleh jika algoritma RA dibandingkan dengan algoritma RA dengan Mutiple Objective. Pada algoritma RA dengan multiple objective terboboti, diperoleh nilai idle yang terkecil, yaitu senilai 119 unit. Tetapi dua tujuan yang lain yaitu makespan dan total flow time lebih besar dibandingkan dengan hasil algoritma CDS dengan Mutiple Objective terboboti. Tabel 8. Hasil Penjadwalan Data (10×10) Algoritma Jadwal M F CDS 3-1-10-5-995 765 6-8-2-7-4 RA 3-10-1-5-997 766 8-6-2-7-4 CDS MO 3-1-5-10-993 755 6-8-4-2-6 RA MO 3-1-10-5-896 749 9-4-2-6-7 3-1-6-5-10- 93 732 9-2-4-7-8 3-1-5-10-9- 93 748 2-6-8-4-7 3-1-5-10-9- 93 751 4-6-8-2-7 CDS MOT 3-1-5-10-9- 93 755 6-8-4-2-7 3-1-5-10-4- 95 745 9-2-6-8-7 3-1-5-10-4- 96 750 9-6-8-2-7 3-1-10-5-8- 95 756 9-6-4-2-7 3-1-10-5-8- 95 755 9-6-2-4-7 3-1-10-5-8- 95 752 9-4-6-2-7 3-1-10-5-8- 96 749 RA MOT 9-4-2-6-7 3-1-10-5-8- 96 748 6-9-2-4-7 3-1-10-5-8- 96 749 6-9-4-2-7 3-1-4-10-5- 98 741 8-6-9-2-7 I 154 154 137 130 126 139 127 137 125 126 140 144 132 130 141 137 ISSN : 2302-7088 Jika keenam algoritma diterapkan pada data 10 job 8 mesin dari Sahu (2009) (tabel 9), diperoleh hasil seperti pada tabel 10. Tabel 9. Data (10×8) dari Sahu (2009) J1 J2 J3 J4 J5 J6 J7 J8 J9 J10 M1 M2 M3 M4 M5 M6 M7 M8 6 3 8 4 9 3 5 2 1 6 5 9 1 6 8 2 9 8 4 3 1 5 6 3 2 4 4 9 6 5 7 7 4 1 9 3 2 1 2 5 9 2 3 5 2 7 4 6 5 2 3 5 9 6 5 2 8 3 4 7 4 6 5 7 9 3 6 4 3 1 2 1 9 7 6 5 6 8 9 9 Tabel 10. Hasil Penjadwalan Data (10×8) Algoritma Jadwal CDS 6-9-4-3-8-75-10-1-2 RA 6-9-4-10-83-7-5-2-1 CDS MO 6-9-4-3-8-71-5-2-10 RA MO 6-9-10-4-87-3-5-1-2 6-9-10-4-38-7-1-5-2 6-9-4-3-8-71-10-5-2 CDS 6-9-4-3-8-7MOT 5-10-1-2 6-9-4-3-8-71-5-10-2 6-9-4-3-8-71-5-2-10 6-9-4-10-87-1-3-5-2 6-9-10-4-87-3-1-5-2 6-9-10-4-8RA MOT 7-3-5-1-2 6-9-10-4-87-1-3-5-2 6-9-10-4-87-3-1-2-5 M F I 90 658 77 92 665 93 93 645 70 91 650 76 89 648 68 90 650 75 90 658 77 91 650 72 93 645 70 90 650 83 91 649 78 91 650 76 92 648 79 96 646 81 119 Dibandingkan dengan RA, algoritma CDS menghasilkan jadwal yang lebih baik. Jika jadwal RA menghasilkan makespan, total flow time dan total idle time berturut-turut (92, 665, 93), maka CDS menghasilkan makespan, total Data 10 job 8 mesin dari Sahu (2009) CI - 22 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember flow time dan total idle time (90, 658, 77). Dengan menggunakan CDS multiple objective, terjadi peningkatan nilai makespan, tetapi total flow time dan total idle timenya menurun, yaitu (93, 645, 70). Jika digunakan CDS multiple objective terboboti, dengan bobot w1, w2, w3 berturut-turut (1, 0, 0), diperoleh jadwal yang lebih baik lagi, yaitu (89, 648, 68). KESIMPULAN Dari memodifikasi algpritma yang telah dikembangkan oleh Rajendran (1995), dengan memberi bobot pada fungsi relativitasnya, dan mengubah jadwal awal dengan menggunakan algoritma RA, serta melakukan perbandingan dengan menggunakan data sekunder dapat diambil kesimpulan antara lain : 1. Dari beberapa data yang digunakan, algoritma RA yang merupakan modifikasi dari dengan menggabungkan keuntungan dari Palmer’s slope index dan CDS, tidak selalu menghasilkan jadwal yang lebih baik algoritma CDS. 2. Dengan Bobot yang ditambahkan pada fungsi relativitas, akan bisa menghasilkan jadwal yang lebih baik lagi. Dalam penelitian ini ditunjukkan dengan semakin kecilnya nilai makespan, total flow time, dan total idle time. Hal ini terjadi pada data 3 (10×5), data 4 (10×10), dan data 5 (10×8). Jika data yang digunakan berukuran kecil (jumlah job × banyaknya mesin), maka penambahan bobot kurang mempengaruhi solusi yang diperoleh. Hal ini ditunjukan pada data 1 (5×3) dan data 2 (5×5). CI - 23 ISSN : 2302-7088 DAFTAR PUSTAKA [1] Rajendran, Chandrasekharan. Heuristic for Scheduling in Flowshop with Multiple Objectives, European Journal of Operational Research, Vol.82, p 540-555, 1995. [2] Sahu, Atul Kumar, Efficient Heuristics for Scheduling Tasks on A Flow Shop Environment to Optimize Makespan, Thesis, Departemen of Mechanical Engineering, National Institute of Technology, Rourkela, 2009. [3] Heizer, Jay & Barry Render. Operations Management.. Upper Saddle River, New Jersey. Pearson Education, Inc, 2008. [4] Champbell, H.G., Dudek, R.A, and Smith, M.L. A Heuristic Algorithm for the n-job, m-machine sequencing problem, Managemen Science 16, p. B630-B637, 1970. [5] Hong, T. P., T. T., Wang, S. L., Wang. A Fuzzy CDS-based Scheduling Algorithm for More Than Two Machine Centers, Journal of Advanced Computational Intelligence, Vol.5, No.4., 2001. [6] Ravindran, D., Haq, A. Noorul, Selvakuar, S.J., Sivaraman, R.. Flow Shop Scheduling With Multiple Objective of Minimizing Makespan and Total Flow Time, Int J Adv Manuf Technol, Vol. 25, p 1007-1012, 2005. [7] Kattan, Ibrahim, Mikolajczak, Boleslaw, Kattan, Khalid, Alqassar, Bassam. Minimizing Cycle Time and Group Scheduling, Using Petri Nets A Study of Heuristic Methods, Journal of Intelligent Manufacturing, Vol. 14, p 107-121, 2003. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 PENGELOMPOKAN DATA KATEGORI DENGAN MISSING VALUE MENGGUNAKAN ALGORITMA K-NEAREST NEIGHBOUR IMPUTATION DAN K-MODES Lailil Muflikhah*, Aditya Hari Bawono** *Program Teknologi Informasi dan Ilmu Komputer, Universitas Brawijaya ** Program Studi Ilmu Komputer, Universitas Brawijaya *[email protected], **[email protected] Abstrak Salah satu solusi untuk mempermudah pencarian adalah dengan melakukan pengelompokan dan salah satu metoda yang cukup terkenal adalah k-Means clustering, dimana bentuk data yang dikelompokkan berjenis numerik. Namun pada dunia nyata, data dapat berjenis kategori dan juga tak selalu lengkap berisikan nilai-nilai. Oleh karena itu, dalam paper ini dikenalkan dua metode untuk mengatasi hal tersebut, yakni kNearest Neighbour Imputation (k-NN Imputation) sebagai cara untuk mengatasi data yang mengandung missing value dan k-Modes sebagai cara untuk melakukan pengelompokan data berkategori. Uji coba dilakukan dengan memberikan tiga dataset: mushroom, balance scale dan car evaluation dengan berbagai jumlah prosentase data ber-missing value, yakni 5%, 10% dan 15%. Dari hasil uji coba didapatkan adanya penurunan performa F-measure dari ketiga dataset tersebut tetapi tidak mengandung missing value. Kata kunci : k-Means, k-Modes, k-NN Imputation, missing value Abstract One solution to facilitate the search is by grouping and k-Means clustering is a wellknown clustering method, in which the form of segmented in numeric data type. However, in the real world, the data can be diversified category and also they do not always contain the completed values. Therefore, this paper introduced two methods to overcome this problem, the k-Nearest Neighbour Imputation (k-NN Imputation) is used to solve data containing missing value and k-Modes as a way to perform clustering of categorical data. An experiment test is done by giving three datasets: mushroom, balance scale and car evaluation with high-percentage amount of data missing value, such as 5%, 10% and 15%. The test result is obtained a decrease in F-measure performance of the three datasets but does not contain the missing value. Keywords: k-Means, k-Modes, k-NN Imputation, missing value PENDAHULUAN Dalam penelitian sebelumnya, beberapa algoritma yang digunakan untuk melakukan pengelompokan, diantaranya adalah k-means [1] beserta variasi-variasinya. K-means adalah algoritma yang efisien untuk melakukan pengelompokan. Namun, penggunaannya cenderung terbatas pada data numerik dikarenakan algoritma k-means menghitung rata-rata cluster. [2] mengajukan suatu metode campuran numerik dan simbolik untuk mengembangkan algoritma k- CI - 24 means untuk melakukan pengelompokan pada atribut kategori. Namun terjadi lamanya perhitungan apabila atribut kategori memiliki banyak kategori. Pada penelitian selanjutnya, [3] mengajukan sebuah algoritma k-modes yang merupakan pengembangan dari algoritma k-means dengan maksud mengatasi masalah pengklasteran pada data kategori. Pada penelitian tersebut oleh Huang digunakan beberapa dataset lengkap, tanpa adanya missing value seperti dataset soybean dan nursery. Namun, dalam kejadian nyata, data tidak selalu lengkap, seringkali terdapat missing Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember value[4]. Sedangkan, pengelompokan tidak dapat dilakukan apabila terdapat missing value, dikarenakan dapat menimbulkan perkiraan dan mempengaruhi kualitas algoritma[5]. Pada umumnya, penanganan missing value adalah menemukan pendekatan yang dapat mengisi dengan nilai yang mungkin. Beberapa metode yang digunakan untuk menangani missing value adalah mean imputation, case deletion, dan k-NN imputation. Pada penelitian yang dilakukan Acuna [6], menunjukkan, k-NN imputation memiliki tingkat kesalahan yang paling rendah dari metodemetode tersebut, sehingga digunakan dalam penelitian ini. TINJAUAN PUSTAKA Data Menurut Lee dan Santana [7] data dan informasi memiliki pengertian yang berbeda. Data dikatakan sebagai bahan mentah dari informasi. Data merupakan kumpulan kejadian nyata yang dapat dijamin kebenarannya. Data dapat dikelompokkan ke dalam dua jenis, yaitu data kategori dan data numerik. Data kategori adalah data yang mengambil suatu himpunan nilai tertentu. Namun, data numerik adalah data yang berbentuk angka. Data numerik kebanyakan didefinisikan sebagai kuantitatif, dan dapat pula berupa “kontinyu”, juga berupa “diskrit”. Missing Value Missing value merupakan hal yang biasa terdapat pada dataset. Missing value pada dataset didefinisikan sebagai kekosongan nilai dari variabel tertentu pada dataset. Sebagian besar algoritma data mining tidak dapat bekerja secara langsung dengan dataset yang tidak lengkap. Oleh karena itu diperlukan suatu metode penanganan untuk missing value pada dataset tersebut.[8] Pada umumnya metode untuk menangani missing value dapat dibagi dalam tiga kategori, yaitu Case/Pairwise Deletion, Parameter Estimation dan Teknik Imputasi. Pada metode teknik Imputasi, missing value digantikan dengan nilai perkiraan yang didasarkan pada informasi yang terdapat pada dataset. Beberapa metode yang termasuk teknik imputasi diantaranya adalah Mode Imputation dan K-Nearest Neighbor Imputation.[9] ISSN : 2302-7088 K-Nearest Neighbor (KNN) adalah pendekatan untuk mencari kasus dengan menghitung kedekatan antara kasus baru dengan kasus lama, yaitu berdasarkan pada pencocokan bobot dari sejumlah fitur yang ada.[10] Menurut Olivas [11], k-Nearest Neighbor Imputation termasuk dalam Machine Learning Solutions dalam teknik imputasi. Metode ini menangani missing value pada suatu data dengan melakukan imputasi dengan mempertimbangkan nilai yang diberikan oleh record yang paling mirip. Pengelompokan (Clustering) Menurut Anderberg [12], membagi himpunan obyek ke dalam klaster yang homogen adalah operasi yang mendasar dalam data mining. Pengklasteran adalah suatu pendekatan yang banyak digunakan untuk mengimplementasi operasi tersebut. Metode pengklasteran membagi himpunan obyek ke dalam suatu klaster dimana obyek-obyek dikelompokkan yang sama adalah mirip maupun sama satu dengan lainnya dibanding obyek-obyek di kelompok lainnya berdasarkan konsep maupun sifat yang dibawa obyek tersebut, sebagaimana terlihat pada Gambar 1. Gambar 1. Ilustrasi pengelompokan Menurut Zaiane [13], pada Gambar 1 dapat dengan mudah diidentifikasikan empat kelompok di mana data dibagi, kriteria jarak adalah similarity atau kesamaan jika dua atau lebih benda milik klaster yang sama jika mereka dekat menurut jarak tertentu (dalam kasus ini jarak geometris). Hal ini disebut pengelompokan berdasarkan jarak. Algoritma K-Modes Menurut Huang [13], algoritma k-means memiliki kelemahan dimana penggunaan yang terbatas untuk data numerik. Huang melakukan modifikasi pada algoritma k-means. Adapun algoritma k-Modes secara keseluruhan sebagaimana berikut: 1. Pilih k awal, satu per kelompok K-Nearest Neighbor Imputation (KNNI) CI - 25 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 2. Alokasikan obyek ke kelompok. Gunakan Euclidean Distance seperti pada persamaan 2.2. Update modus per kelompok. 3. Setelah setiap obyek dialokasikan ke dalam kelompok, lakukan tes ulang terhadap dissimilarity obyek terhadap modus saat ini. Jika sebuah obyek ditemukan lebih dekat dengan suatu klaster yang lain daripada klaster sekarang, lakukan alokasi ulang obyek dan update modus setiap kelompok. 4. Ulangi langkah 3 hingga tidak ada obyek berganti kelompok setelah pengetesan penuh terhadap seluruh record dalam dataset. ISSN : 2302-7088 tersebut. Kemudian ditentukan nilai data dengan frekuensi terbanyak. Accuracy Metode evaluasi yang digunakan dalam penelitian ini adalah performance metric error rate digunakan untuk mengevaluasi nilai atribut yang bertipe kualitatif dan F-measure yang ditentukan berdasarkan nilai precission dan recall. Menurut Tan.,dkk. [14], Error rate dapat dihitung dengan persamaan 1. €/'0!1 U356& =& !0!1 Error rate= (1) €/'0!1 Œ47!0 U356& =& Gambar 2. Gambaran umum sistem Sedangkan accuracy adalah kebalikan dari error rate. Accuracy dapat dihitung dengan persamaan 2. Accuracy= − •3343 3!75 (2) F-Measure F-measure merupakan gabungan antara recall dan precision yang didefinisikan dengan persamaan 3 [15]: z 35;!00 z 235;&=&4 − 5!=/35 = 35;!00R235;&=&4 (3) METODOLOGI Adapun perancangan perangkat lunak yang digunakan meliputi tiga proses utama sebagaimana terlihat pada Gambar 2, yakni 1. Proses request data 2. Proses penanganan missing value dengan metoda k-NN Imputation (KNNI) 3. Proses pengelompokkan dengan k-Modes Pada proses request data merupakan pemilihan dataset yang digunakan untuk dalam uji coba. Sedangkan untuk penanganan missing value ditunjukkan dalam Gambar 3. Pada tahap awal dilakukan pemilihan terhadap data uji yang memiliki missing value dan yang lengkap. Proses selanjutnya dilakukan penghitungan nilai jarak eucledian beserta pengurutan terhadap nilai jarak Gambar 3. Flow chart proses penanganan missing value dengan k-NN Imputation CI - 26 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember HASIL DAN PEMBAHASAN 1.2 76 0.3 MV 5% MV 10% Accuracy 0.25 0.2 MV 15% 0.15 MV 20% MV 30% 0.1 58 0.05 MV 40% MV 50% 1 11 21 31 41 51 61 71 81 91 0 Jumlah Tetangga (k) 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 MV 5% MV 10% MV 15% MV 20% MV 30% MV 40% 1 13 25 37 49 61 73 85 97 Accuracy Gambar 4. Grafik hubungan k dengan tingkat accuracy pada dataset balance scale MV 50% Jumlah Tetangga (k) Gambar 5. Grafik hubungan k dengan tingkat Accuracy pada dataset Car Evaluation MV 5% 1 MV 10% 0.8 MV 15% 0.6 MV 20% 0.4 MV 30% 0.2 MV 40% 0 MV 50% 1 11 21 31 41 51 61 71 81 91 Accuracy Dataset yang akan digunakan pada penelitian ini diperoleh dari UCI machine learning repository, yakni mushroom, balance scale, dan car evaluation.[16] Dengan melakukan penghilangan data sebagai evaluasi uji coba dari metoda yang digunakan. Sifat yang dimiliki dataset pada penelitian kali ini berbeda satu dengan lainnya. Hasil dari uji coba ketiga dataset tersebut dengan menerapkan metoda K-NN Imputation pada jumlah tetangga (k) = 1 hingga k = 100 dan menggunakan prosentase jumlah missing value yang bervariasi terlihat pada Gambar 4, Gambar 5 dan Gambar 6. 0.35 ISSN : 2302-7088 Jumlah Tetangga (k) Gambar 6. Grafik hubungan k dengan tingkat Accuracy pada dataset Mushroom Analisa pengaruh jumlah missing value Accuracy tertinggi dimiliki oleh dataset balance scale yang ditunjukkan pada Gambar 4 dengan 5% missing value di k = 77 dengan nilai 0.20932 dan accuracy terendah dimiliki oleh dataset balance scale 20% pada k = 50 dengan nilai 0.040. Pada dataset balance scale 5% terlihat bahwa accuracy yang dimiliki lebih baik jika dibandingkan dengan dataset balance scale 10% hingga 50%. Hal ini menunjukkan bahwa accuracy metode KNNI missing value dipengaruhi jumlah missing value pada dataset balance scale. Sedangkan perbandingan jumlah missing value pada dataset car evaluation ditunjukkan pada Gambar 5. Accuracy tertinggi dan terendah dimiliki oleh dataset car 5% pada k = 25 dengan nilai 0.2975 dan k = 71 dengan nilai 0.13095. Pada dataset car evaluation 5%, accuracy cenderung lebih baik daripada dataset car evaluation 10% dan 15%. Perbandingan accuracy perbandingan jumlah missing value pada dataset mushroom ditunjukkan Gambar 6. Pada dataset mushroom 5%, 10%, dan 15% semuanya memiliki accuracy 1 dimana semua nilai imputasi adalah cocok dengan nilai aslinya. Accuracy terendah dimiliki oleh dataset mushroom 5% dengan nilai 0.6 pada k = 98, namun pada dataset mushroom 5% nilai accuracy 1 cenderung lebih menurun perlahan jika dibandingkan dengan dataset mushroom 5% dan lainnya. Accuracy ditentukan jumlah missing value telah ditunjukkan oleh hasil pengujian metode KNNI. Hal ini disebabkan pada dataset yang memiliki missing value yang lebih banyak lebih mungkin terjadi kesalahan daripada dataset yang memiliki missing value lebih sedikit. Sebab lain adalah makin banyak missing value pada dataset mengakibatkan semakin sedikit jumlah tetangga yang dimasukkan pada perhitungan, jumlah CI - 27 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember tetangga yang memungkinkan adalah banyaknya data yang lengkap pada dataset. Analisa pengaruh rasio missing value Contoh dataset balance scale dengan tiga buah missing value yang berbeda tempat akan ditunjukkan oleh Tabel 1, Tabel 2, dan Tabel 3. Tabel 1 Contoh bagian dataset balance scale 1 No Att1 Att2 Att3 Att4 1 1 1 1 1 … … … … … 72 3 1 3 5 73 1 3 5 74 5 3 1 75 1 1 1 … … … … … 625 5 5 5 5 Tabel 4 Hasil dataset balance scale 1, accuracy = 0.66667 Nilai Posisi KNNI Nilai nyata (73, 0) 5 4 (74, 1) 1 1 (75, 2) 4 4 Tabel 5 Hasil dataset balance scale 2, accuracy = 0.3333 Nilai Posisi KNNI Nilai nyata (73, 0) 5 4 (74, 0) 5 5 (75, 0) 4 1 Tabel 6 Hasil dataset balance scale 3 accuracy = 0 Nilai Posisi KNNI Nilai nyata (74, 0) 4 5 (74, 1) 4 1 (74, 2) 2 3 Tabel 2 Contoh bagian dataset balance scale 2 No Att1 Att2 Att3 Att4 1 1 1 1 1 … … … … … 72 3 1 3 5 73 1 3 5 74 1 3 1 75 1 4 1 … … … … … 625 5 5 5 5 Tabel 3 Contoh bagian dataset balance scale 3 No Att1 Att2 Att3 Att4 1 1 1 1 1 … … … … … 72 3 1 3 5 73 4 1 3 5 74 5 75 1 1 4 1 … … … … … 625 5 5 5 5 Pada k = 15 diujikan pada metoda KNNI dan dapatkan nilai hasil beserta akurasinya seperti pada Tabel 4, Tabel 5, dan Tabel 6. Tabel 7 Contoh potongan dataset mushroom 1 N At … At Att Att Att Att … o t1 t9 10 11 12 13 1 x … k e e s s … … … … … … … … … … 14 x … t e s f w … 15 x … e s s w … 16 s … t e s w … ISSN : 2302-7088 Att 22 u … u g u Dari Tabel 4, Tabel 5, dan Tabel 6 dapat diambil kesimpulan bahwa accuracy dipengaruhi oleh peletakan missing value. Pada Tabel 1, dataset diletakkan pada baris dan kolom yang berbeda, hal ini membuat rentang nilai perhitungan jarak terhadap tetangga sebanyak k menjadi lebih luas yang berakibat pada hasil yang baik. Berbeda dengan dataset pada Tabel 3 dimana dalam satu baris terdapat tiga missing value dan hanya satu kolom untuk perhitungan jarak. Pada Tabel 1 rentang nilai jarak berkisar antara √G •]•CCj √sedangkan pada Tabel 3.3 hanya berkisar antara antara √G •]•CCj √ yang dapat mengakibatkan kemungkinan masuknya nilai tetangga sebanyak k yang tidak diinginkan. Jika dilakukan analisa terhadap dataset mushroom yang memiliki panjang kolom 22, maka hasil percobaan akan ditunjukkan oleh Tabel 7, Tabel 8 dan Tabel 9. 17 18 … 30 0 CI - 28 f x .. x … … … … e e … p e e … e s s … e s … s w w … s … … … … g g … g Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Tabel 8 Contoh potongan dataset mushroom 2 N At … At Att Att Att Att … o t1 t9 10 11 12 13 1 x … k e e s s … … … … … … … … … … 14 x … t e s f w … 15 x … e s s w … 16 s … t s s w … 17 f … e s s w … 18 x … e e s s w … … .. … … … … … … … 30 x … p e e s s … 0 Att 22 u … u g u g g … g Tabel 9 Contoh potongan dataset mushroom 3 No Att … Att Att1 Att1 Att1 Att1 1 9 0 1 2 3 1 x … k e e s S … … … … … … … … 14 x … t W 15 x … e e s s W 16 s … t e s s W 17 f … e e s s W 18 x … e e s s W … .. … … … … … … 30 x … p e e s S 0 Dengan k=15,didapatkan hasil dan nilai akurasinya seperti pada Tabel 10, Tabel 11, dan Tabel 12. Tabel 10 Hasil dataset mushroom 1,accuracy = 1 Posisi Nilai KNNI Nilai nyata (15, 10) e e (16, 11) s s (17, 12) s s Tabel 11 Hasil dataset mushroom 2,accuracy = 1 Nilai Posisi KNNI Nilai nyata (15, 10) e e (16, 10) e e (17, 10) e e Tabel 12 Hasil dataset mushroom 3,accuracy = 0.6667 Nilai Posisi Nilai KNNI nyata (14, 10) e E (14, 11) s S (14, 12) s F ISSN : 2302-7088 Pada dataset mushroom yang terdapat jumlah kolom yang lebih banyak daripada dataset balance scale dan car evaluation, accuracy yang dihasilkan lebih baik. Dengan jumlah kolom sebanyak 22, dataset mushroom mampu menampung variasi jarak dengan rentang G 1& 88! √ dengan variasi jarak yang sedemikian hingga, maka kemiripan dan ketidakmiripan suatu record dengan record yang lain akan tampak lebih jelas dan lebih signifikan. Jika dilihat dari rasio jumlah kolom yang terdapat missing value, walaupun jumlah hilangnya sama (yaitu tiga), namun pada dataset balance scale kehilangan tiga data dalam satu record adalah kehilangan 75% data untuk perhitungan dari record tersebut, sedangkan pada dataset mushroom hanya kehilangan 13.6%. Perbedaan yang amat signifikan inilah yang alasan perbedaan tingkat accuracy pada dataset dengan jumlah kolom yang berbeda. Analisa jumlah tetangga (k) Untuk dataset yang memiliki banyak outlier, k terbaik adalah pada k yang cenderung besar nilainya, demikian sebaliknya untuk dataset yang memiliki lebih sedikit outlier. Hal ini dibuktikan dengan rata-rata accuracy pada dataset balance scale dan car evaluation yang memiliki lebih banya outlier daripada dataset mushroom. Pada dataset balance scale, rata-rata accuracy terbaik untuk setiap banyak prosentase missing value adalah 0.11099 pada k = 77. Hal ini disebabkan pada k = 77 bernilai tinggi pada dataset balance scale 5% missing value demikian pula dengan prosentasi missing value yang lain pada dataset balance scale. Sebaliknya, pada k = 10 dataset balance scale memiliki rata-rata accuracy terendah 0.0799. Hal ini dikarenakan pada k = 10, sistem mengambil 10 tetangga yang kebanyakan memiliki nilai yang tidak sesuai dengan nilai yang sebenarnya. Pada dataset car evaluation, rata-rata accuracy terbaik pada setiap prosentase missing value adalah 0.2160 pada k = 90 dan rata-rata accuracy terkecil pada k = 10 dengan nilai 0.1744. Pada dataset mushroom, rata-rata accuracy terbaik untuk setiap banyak prosentase missing value adalah 0.9294 pada k = 29 dan rata-rata accuracy terkecil sebesar 0.6478 pada k = 100. Analisa banyak kelas dalam dataset terhadap nilai precision, recall, dan fmeasure CI - 29 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Pada dataset balance scale dengan kelas sebanyak tiga, kisaran f-measure antara 0.4270.4642. Untuk dataset car evaluation dengan kelas sebanyak empat, kisaran f-measure antara 0,1227-0.2275. Sedangkan pada dataset mushroom dengan dua kelas, kisaran f-measure antara 0.799-0.958. Dari hasil pengujian disimpulkan banyaknya kelas pada data asli mempengaruhi performa pengelompokkan, makin sedikit kelas, maka semakin baik performa pengklasteran.. Analisa jumlah cluster k terhadap fmeasure Pada k-modes, terdapat centroid awal yang acak, Kualitas pengklasteran k-modes amat dipengaruhi oleh centroid awal. Jika centroid awal cocok dengan kelas pada dataset yang bersangkutan, maka nilai f-measure akan bernilai lebih baik daripada yang tidak cocok. Dari data pengujian dapat ditarik kesimpulan bahwa missing value berpengaruh pada baiknya penilaian pengelompokkan. Hal tersebut disebabkan oleh semakin buruk kualitas dataset dengan semakin banyak outlier, maka hasil pengelompokan cenderung tidak relevan. Dari hasil pengujian didapatkan penurunan kualitas pengelompokkan K-Modes pada dataset yang mengandung rmissing value sebesar 3% pada dataset balance scale, 26.24% pada dataset car evaluation, dan 6.4% pada dataset mushroom. Jika dihitung ratarata penurunan kualitas pengelompokan K-Modes maka dihasilkan 11.8% penurunan untuk pengelompokkan pada dataset yang mengandung missing value. KESIMPULAN Kualitas pengklasteran K-Modes dipengaruhi oleh banyaknya missing value yang salah digantikan oleh metode KNNI. Makin banyak missing value pada dataset, semakin buruk pula performa pengklasteran. Nilai accuracy metode KNNI dipengaruhi oleh rasio, jumlah missing value, dan dataset yang bersangkutan. Rasio missing value sebesar 75% yang berada pada attribute yang sama akan memperburuk perhitungan. Sedangkan nilai ratarata accuracy tertinggi pada dataset balance pada k = 77 dengan nilai 0.11099 dan accuracy terburuk pada k = 10 dengan nilai 0.0799. Pada dataset car evaluation, rata-rata accuracy terbaik untuk setiap banyak prosentase missing value adalah 0.2160 pada k = 90 dan rata-rata accuracy terkecil pada k = 10 dengan nilai 0.1744. Pada ISSN : 2302-7088 dataset mushroom, rata-rata accuracy terbaik untuk setiap banyak prosentase missing value adalah 0.9294 pada k = 29 dan rata-rata accuracy terkecil sebesar 0.6478 pada k = 100. Pada pengklasteran dengan metode k-Modes, terdapat kelemahan yang mendasar pada langkah penentuan centroid awal yang dilakukan secara acak. Pemilihan centroid awal secara acak akan mengakibatkan hasil yang acak pula. Meskipun dengan dataset yang bermissing value dan dengan tingkat accuracy yang beraneka ragam, 11.8% adalah rata-rata hasil perbedaan kualitas f-measure proses dataset bermissing value dengan yang tidak bermissing value oleh kombinasi metode KModes dan KNNI. DAFTAR PUSTAKA [1] MacQueen, J. B. (1967). Some Methods for Classification and Analysis of Multivariate Observations, In Proceedings of the 5th Berkeley Symposium on Mathematical Statistics and Probability, pp. 281-297.1967 [2] Ralambondrainy, H. A Conceptual Version of the k-Means Algorithm, Pattern Recognition Letters, Volume:16, pp.11471157. 1995. [3] Z. Huang. Extensions to the k-means algorithm for clustering large data sets with categorical values. Data Mining and Knowledge Discovery. Volume: 2, pp.283304. 1998 [4] Zhang, S., Qin, Z., X. Ling, C., Sheng, S., “Missing is useful”: Missing values in costsensitive decision trees. IEEE Transactions on Knowledge and Data Engineering, Volume: 17, pp. 1689-1693. 2005 [5] Qin, Y., Zhang, S., Zhu, X., Zhang, J., Zhang C., Semi-parametric Optimization for Missing Data Imputation. Applied Intelligence, Volume 27(1): 79-88. 2007 [6] Acuna, Edgar dan Rodriguez,Caroline. The Treatment of Missing Values and its Effect in the Classifier Accuracy. University of Puerto Rico, Mayaguez. 2003. [7] Lee, Finn dan Santana, Juan. Data Mining : Meramalkan Bisnis Perusahaan. PT. Elex Media Komputindo, Jakarta. 2010. [8] Gheyas, Iffat A. dan Smith, Leslie S. A Novel Nonparametric Multiple Imputation Algorithm for Estimating Missing Data. Proceedings of the World Congress on Engineering, Volume II WCE, London, U.K. 2009 CI - 30 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember [9] Little, R. J. and Rubin, D.B. Statistical Analysis with Missing Data Second Edition. John Wiley and Sons, New York. 2002 [10] Luthfi, E.T dan Kusrini. Algoritma Data Mining. Andi Offset, Yogyakarta.2009 [11] Olivas, Emilio Soria. Handbook of Research on Machine Learning Application and Trends : Algorithms, Methods, and Techniques. IGI Global, United States of America. 2010 [12] Anderberg, M. R.. Cluster Analysis for Applications. New York : Academic Press Inc1.973 [13] Zaiane, Osmar R. Principles of Knowledge Discovery in Databases. University of Alberta. 1999 [14] Tan, Pang-Ning, Michael Steinbach dan Vipin Kumar. Introducing to data mining. New York. 2004. [15] Yang, Yiming dan Liu, Xin. A Reexaminationof Text Categorization Methods. In Proceedings of ACM SIGIR Conference on Research and development in Information Retrieval (SIGIR), pp 42-49. 1999. http://www.cs.cmu.edu/~yiming/publication s.html tanggal akses: 21 Februari 2011 [16] UCI Machine Learning Repository, http: //www .ics. uci. Edu /mlearn/MLRepository.html, Diakses tanggal 22 Maret 2011 CI - 31 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 SISTEM PEROLEHAN CITRA BERBASIS ISI MENGGUNAKAN GRAY LEVEL DIFFERENCE METHOD BERDASARKAN CIRI TEKSTUR PADA POLA BATIK Nansy Lovitasari*, Fitri Damayanti** *Program Studi Teknik Informatika, Fakultas Teknik **Program Studi Manajemen Informatika, Fakultas Teknik Universitas Trunojoyo E-mail : *[email protected], **[email protected] Abstrak Batik adalah kerajinan yang memiliki nilai seni tinggi dan telah menjadi bagian dari budaya Indonesia sejak lama. Batik di Indonesia mempunyai beragam jenis tekstur batik, warna batik, dan pola batik yang mencerminkan asal usul daerah dari batik tersebut. Saat ini pencarian citra berbasis teks sudah tidak efektif lagi karena adanya penilaian subjektif dari pengguna dalam merepresentasikan suatu citra. Karena itu diperlukan suatu sistem yang dapat menangani pencarian citra menggunakan query berupa citra atau disebut Sistem Perolehan Citra berbasis Isi (SPCI) atau Content Based Image Retrieval (CBIR). Penelitian ini menggunakan ciri tekstur sebagai proses pencarian kemiripan dari delapan kelas citra batik yang berbeda yaitu: Cirebon, Bali, Bangkalan, Pamekasan, Sumenep, Yogyakarta, Solo, dan Pekalongan sebagai objek perolehan citra berbasis isi. Sistem dibangun dengan proses utamanya yaitu ekstraksi fitur tekstur dengan menggunakan metode Gray Level Difference Method (GLDM) menggunakan empat arah utama. GLDM menghitung perbedaan mutlak antara sepasang derajat keabuan yang terpisah oleh jarak dan arah tertentu. Hasil ekstraksi fitur dilakukan pengukuran jarak kemiripan menggunakan metode Euclidean Distance. Dari uji coba aplikasi menggunakan pengukuran kemiripan Euclidean Distance dengan nilai threshold=7 diperoleh akurasi presisi sebesar 61% pada data pelatihan 168 dan data uji coba 32 dengan 10 citra yang ditampilkan. Kata Kunci : Tekstur, Sistem Perolehan Citra berbasis Isi, Gray Level Difference Method, Euclidean Distance. Abstract Batik is a craft that has high artistic value and has become part of the culture of Indonesia for a long time. Batik in Indonesia has a wide range of batik texture, color batik and batik patterns. Current text-based image search is no longer effective because of the subjective assessment of the user in representing an image. What is needed a system that can handle image search using the query form or image of the so-called Content-based Image Acquisition System or Content Based Image Retrieval. This study using texture features as similarity search process of batik images of eight different classes, namely: Cirebon, Bali, Jakarta, Pamekasan, Sumenep, Yogyakarta, Solo, and Pekalongan as content-based image acquisition objects. The system is built with the main process is the extraction of texture features using the Gray Level Difference Method using the four cardinal directions. The results of feature extraction will be measured using the method of Euclidean distance similarity Distance. Of a pilot application using Euclidean Distance similarity measurement threshold = 7 with the value obtained by 61% precision accuracy on 168 training data and trial data 32 by the number of displayed image 10. Keywords: Texture, Content-based Image Acquisition System, Gray Level Difference Method, Euclidean Distance. CI - 32 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Pamekasan, Sumenep, Yogyakarta, Pekalongan, Solo, Cirebon, dan Bali. Citra query dan citra basis data yang digunakan berupa citra statis sebanyak 200 citra dengan format *bmp dan berukuran 200x200 pixel. PENDAHULUAN Sistem pencarian citra yang ada sekarang ini pada umumnya menggunakan metode tradisional dalam menyimpan dan mengelola citra [1]. Metode tradisional yang biasa digunakan dalam pencarian citra sudah tidak mungkin lagi digunakan, misalnya pencarian citra dengan kata kunci (teks) karena nama dari sebuah file tidak dapat mempresentasikan isinya. Sebagai contoh bila ingin mencari citra kuda, dimana citra kuda itu mempunyai banyak informasi antara lain mungkin yang akan dihasilkan adalah makanan kuda, atau area pacuan kuda, atau informasi lain yang ada unsur kuda dan yang pasti suatu citra itu bisa berbicara seribu kata. Selain itu adanya persepsi manusia yang berbeda- beda terhadap suatu citra dapat mengakibatkan hasil pencarian citra tidak sesuai dengan yang diinginkan. Untuk menghindari pencarian citra dengan kata kunci, maka digunakan metode lain sebagai pengganti atau ditambahkan pada sistem kata kunci yaitu sistem perolehan citra berbasis isi (SPCI) atau Content Based Image Retrieval (CBIR) yang mencari citra hanya berdasarkan informasi yang ada pada citra. Informasi dari citra yang didapatkan merupakan ciri dari citra, pada level primitif dapat berupa warna, bentuk, tekstur [2]. CBIR merupakan teknologi pencarian citra dengan membandingkan citra yang ada pada contoh citra dengan yang ada pada basis data citra (Query By Example). CBIR dilakukan dengan membandingkan nilai jarak citra query dengan citra pada basis data (image distance measure). Pengukuran nilai jarak citra dapat dikelompokkan dengan tiga kelas utama yaitu pertama kemiripan warna, kedua kemiripan pada bentuk dan yang ketiga kemiripan pada tekstur [3]. Penelitian ini menentukan fitur tekstur batik dalam SPCI dengan mendapatkan atribut-atribut dari metode statistical Gray Level Difference Method (GLDM), yaitu Contrast, Angular Second Moment (ASM), Entropy, Inverse Different Moment (IDM), Mean dan menghitung kemiripan antara citra query dengan citra yang ada dalam basis data dengan menggunakan metode Euclidean Distance. Data citra yang digunakan untuk objek penelitian adalah beberapa citra batik dari delapan kelas, yaitu: Bangkalan, ISSN : 2302-7088 METODE Gray Level Difference Method (GLDM) Pada Gray Level Difference Method, peristiwa dari perbedaan mutlak dihitung antara sepasang derajat keabuan yang terpisah oleh jarak tertentu dengan arah tertentu. Maka akan dihasilkan sebuah kemungkinan dari kumpulan variable distribusi. Misal I(m, n) sebagai fungsi intensitas gambar. Untuk setiap pergeseran δ=(Δm, Δn), I`(m, n)=| I(m, n)I(m+ Δm, n+ Δn)|, untuk Δm dan Δn bernilai integer. Misal g(·|δ) sebagai estimasi ”probability density function” dari I`(m, n), g(i|δ)=#(I`(m, n)=i). Jika terdapat derajat keabuan m, ”probability density function” adalah vektor berdimensi m yang mana komponen ke-i adalah probabilitas bahwa I`(m, n) akan memiliki nilai i. Pada citra digital fungsi intensitas I(m, n) adalah fungsi diskrit, oleh karena itu g(·|δ) dihitung sebagai banyaknya nilai I`(m, n) yang terjadi. Jika pergeseran menggunakan empat arah utama (Ө=0°,45°,90°,135°) dengan jarak 1 (δ=1) [4]. Terdapat beberapa ciri tekstural yang dapat diekstraksi darai Gray Level Difference Method diantaranya adalah: Contrast, Angular Second Moment, Entropy, Inverse Difference Moment, dan Mean [4]. a. Contrast Contrast menunjukkan ukuran penyebaran (momen inersia) elemen-elemen matriks citra. Contrast menentukan kecerahan pada citra. Semakin besar nilai contrast maka akan terlihat tingkat kecerahannya. ƒ $ = ∑[& " U′ 8 &|’, “ ]…………. (1) b. Angular Second Moment (ASM) Angular Second Moment menunjukkan ukuran sifat homogenitas citra. Nilai ASM besar memiliki variasi bentuk yang homogen atau tidak bervariasi. ” = ∑[U′ 8 &|’, “ ] …………... (2) c. Entropy Entropy menyatakan ukuran ketidakteraturan bentuk atau pola. Nilai entropy besar memiliki tingkat keteracakan homogen (teratur) dan bernilai kecil jika struktur citra tidak teratur CI - 33 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ˆ$Œ = − ∑[U′ 8 &|’, “ " 048 {U′ (8(&|’, “ }] …(3) Desain Sistem d. Invers Difference Moment (IDM) Invers Difference Moment menunjukkan kehomogenan citra yang berderajat keabuan sejenis. Citra homogen akan memiliki nilai Inverse Difference Moment (IDM) yang besar. —‡ = ∑[U′ #8(&|’, “ %/ (& + ] …. (4) e. Mean Menunjukkan ukuran dispersi dan menentukan tekstur permukaan dari suatu citra. Semakin besar nilai mean maka ukuran dispersi besar dan menghasilkan permukaan tekstur kasar. ˆ”$ = ∑[& " U′ (8(&|’, “ ] ………. (5) dengan : I(m, n) = fungsi intensitas gambar CON = Contrast ASM = Angular Second Moment ENT = Entropy IDM = Invers Difference Moment MEAN = Mean i = selisih antara sepasang derajat keabuan δ = jarak pergeseran P’ = probabilitas Ө = arah pergeseran g(i|δ,Ө) = estimasi probability density function Euclidean Distance Tahap terakhir dalam sistem temu kembali adalah pencarian kemiripan antara citra query dengan fitur dari citra yang sudah disimpan pada basis data. Dalam program aplikasi pencarian citra berdasarkan tekstur, similarity measure yang digunakan adalah Euclidean Distance. Pencarian dari suatu sistem pencarian citra secara signifikan. Euclidean Distance merupakan teknik yang paling sederhana untuk menghitung jarak di antara dua vektor. Misalkan diberikan dua buah feature vector p dan q, maka jarak di antara dua feature vector p dan q ditentukan sebagai berikut [1]. P = ( p1, p2, ...., pn) Q = (q1, q2, ..., qn) 6 = ˜(2 − ~ + (2 − ~ ISSN : 2302-7088 + ⋯ + (2 − ~ = ˜∑&+ (2& − ~& ……………. (6) dengan d = ukuran jarak antara query citra P dan citra Q yang ada di dalam database. p = feature vector pada image P q = feature vector pada image Q CI - 34 Dalam penelitian ini dibangun sistem perolehan citra berbasis isi dengan ekstraksi fitur tekstur menggunakan metode Gray Level Difference Method dengan proses pencocokan menggunakan metode Euclidean Distance. Sistem ini menggunakan model QBE (Query By Example) yaitu pengguna memberi masukan berupa citra kemudian sistem akan mencari citra- citra lain yang mirip dengan citra query. Proses pertama untuk mendapatkan feature vector suatu citra adalah konfersi citra true color ke grayscale, setelah itu dilakukan proses pengambilan nilai pixel dilanjutkan dengan proses kuantisasi pada citra grayscale. Dari hasil proses kuantisasi dilakukan proses ekstraksi fitur tekstur dengan menghitung empat arah GLDM (00, 450, 900 dan 1350) dan lima fitur GLDM (Contrast, Angular Second Moment (ASM), Entropy, Inverse Difference Moment (IDM), dan Mean). Bobot arah dan fitur inilah yang disebut hasil dari proses ekstraksi fitur. Prosesproses diatas dilakukan baik pada citra query maupun pada proses pembuatan Feature Vector citra basis data. Kemudian dilakukan proses pencocokan (matching) antara citra query dengan Feature vector citra basis data menggunakan metode pencarian nilai jarak yaitu Euclidean Distance. Proses ini bertujuan untuk mencari citra yang mempunyai fitur yang mirip dengan citra query. Sebagai hasil dari sistem maka pada dialog aplikasi menampilkan 10, 20 dan 30 citra terurut mulai dari yang paling mirip sampai yang tidak mirip. Blok diagram dari sistem dapat dilihat pada Gambar 1. Garis besar sistem dibagi menjadi dua yakni proses pembuatan Feature Vector citra basis data dan proses pencocokan / pencarian citra. Hasil akhir dari dari pencarian citra tersebut adalah menampilkan 10, 20 dan 30 citra yang memiliki tingkat kecocokan paling tinggi yang terdapat dalam basis data. Berikut perincian proses pembuatan Feature Vector citra basis data: a. Citra masukan berupa citra statis dengan format .bmp b. Citra masukan diubah dari warna RGB ke grayscale Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 HASIL DAN PEMBAHASAN Pada uji coba sistem ini data yang digunakan pada citra query dan proses pembuatan Feture Vector pada basis data berupa citra dengan format *bmp sebanyak 200 citra yang terdiri dari 8 kelas citra yaitu: Bangkalan, Pamekasan, Sumenep, Yogyakarta, Pekalongan, Solo, Cirebon, dan Bali. Skenario uji coba merupakan perlakuan yang dilakukan untuk melakukan uji coba citra query terhadap citra basis data untuk mengetahui tingkat pengenalan citra query. Skenario uji coba yang dilakukan seperti ditunjukkan pada Tabel 1. Tabel 1 Skenario Uji Coba Jumlah citra yang ditampilkan 10 Citra Skenario Uji Coba 1 .Gambar 1. Desain sistem CBIR secara umum 2 c. Pengambilan nilai piksel grayscale kemudian dilakukan proses kuantisasi untuk menyederhanakan nilai piksel citra. d. Kemudian dilakukan proses ekstraksi fitur tekstur dengan menggunakan Gray Level Difference Method e. Hasil ekstraksi fitur tekstur disimpan dalam basis data berbasis file di dalam folder CBIR. Untuk proses pencocokan atau pencarian citra dilakukan proses sebagai berikut : a. Citra masukan berupa citra statis dengan format *bmp. b. Citra masukan diubah dari warna RGB ke grayscale c. Pengambilan nilai piksel grayscale kemudian dilakukan proses kuantisasi untuk menyederhanakan nilai piksel citra. d. Kemudian dilakukan proses ekstraksi fitur tekstur dengan menggunakan Gray Level Difference Method. e. Hasil ekstraksi fitur tekstur masukan citra kemudian dilakukan pencocokan dengan fitur tekstur yang terdapat dalam basis data dengan menggunakan Euclidean Distance f. Menampilkan citra yang mirip dengan citra masukan. CI - 35 3 4 5 20 Citra 6 7 8 9 10 30 Citra 11 12 13 14 15 Total Data Pelatihan 120 (15 x 8) Total data uji coba 80 (10 136 (17 x 8) 152 (19 x 8) 168 (21 x 8) 184 (23 x 8) 120 (15 x 8) 64 (8 x 8) 48 (6 x 8) 32 (4 x 8) 16 (2 x 8) 80 (10 x 8) 136 (17 x 8) 152 (19 x 8) 168 (21 x 8) 184 (23 x 8) 120 (15 x 8) 136 (17 x 8) 152 (19 x 8) 168 (21 x 8) 184 (23 x 8) x 8) 64 (8 x 8) 48 (6 x 8) 32 (4 x 8) 16 (2 x 8) 80 (10 x 8) 64 (8 x 8) 48 (6 x 8) 32 (4 x 8) 16 (2 x 8) Sebagai contoh, Gambar 2 merupakan uji coba pada skenario 5 dengan data pelatihan 184 (23 x 8) dan data uji coba 16 (2 x 8) dengan citra query merupakan bagian dari delapan kelas citra yang tersedia di basis data. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 Pada Tabel 2 menunjukkan hasil rata-rata nilai recall dan precision dengan nilai threshold=7 dengan 10 citra yang ditampilkan. Citra query: Tabel 2 Hasil rata-rata tingkat Pengenalan dengan jumlah citra yang ditampilkan 10 Gambar 2 Pekalongan_25.bmp Pada Gambar 3 menampilkan 10 citra dalam basis data yang mirip dengan citra query Pekalongan_25.bmp pada skenario 4, sehingga hasil yang diperoleh dari nilai Recall 0,11 dan Precision 0,5. \ Pada Tabel 3 menunjukkan hasil rata-rata nilai recall dan precision dengan nilai threshold=7 dengan 20 citra yang ditampilkan. Tabel 3 Hasil rata-rata tingkat Pengenalan dengan jumlah citra yang ditampilkan 20 Gambar 3 Percobaan citra query Pekalongan_25.bmp Pada Gambar 4 menampilkan 20 citra dalam basis data yang mirip dengan citra query Cirebon_23.bmp pada skenario 9, sehingga hasil yang diperoleh dari nilai Recall 0,14 dan Precision 0,7. Pada Tabel 4 menunjukkan hasil rata-rata nilai recall dan precision dengan nilai threshold=7 dengan 30 citra yang ditampilkan. Tabel 4 Hasil rata-rata tingkat Pengenalan dengan jumlah citra yang ditampilkan 30 Gambar 4 Percobaan citra query Cirebon_23.bmp Setelah dilakukan uji coba terhadap sistem perolehan citra berbasis isi, Tabel 2, Tabel 3 dan Tabel 4 merupakan hasil rata- rata nilai recall dan precision berdasarkan tekstur dengan ukuran citra 200x200 piksel dan jumlah citra yang ditampilkan 10, 20, 30 dengan nilai threshold=7. Tabel 5 merupakan hasil rata-rata tingkat pengenalan dengan nilai threshold = 5 dan threshold =7 pada skenario 15. CI - 36 Tabel 5 Hasil rata-rata tingkat Pengenalan dengan nilai threshold = 5 dan threshold = 7 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Pada Tabel 5 merupakan tingkat pengenalan dan hasil analisis dengan nilai threshold = 5 pada skenario 15 dengan jumlah data pelatihan 184 citra (23x8), data uji coba 16 citra (2x8) dan jumlah citra yang ditampilkan 30 memiliki nilai recall 0,16 dan nilai precision 0,53. Sedangkan tingkat pengenalan dan hasil analisis dengan nilai threshold =7 memiliki nilai recall 0,17 dan nilai precision 0,54. Pada proses perhitungan kemiripan antara citra query dan citra basis data digunakan nilai threshold =7 karena memiliki tingkat kecerahan yang lebih besar dan tingkat keteraturan yang tinggi pada citra Pekalongan_25. Sehingga tingkat pengenalan citra lebih baik dengan menggunakan nilai threshold= 7. SIMPULAN Pada sistem pengenalan citra berdasarkan tekstur berbasis Gray Level Difference Method didapatkan beberapa ciri tekstur yaitu Contrast, Angular Second Moment (ASM), Entropy, Inverse Different Moment (IDM), dan Mean. Pengukuran nilai kemiripan Euclidean Distance dengan nilai threshold = 7 dapat digunakan untuk mengenali citra dengan nilai precision terbaik sebesar 61%. Tingkat pengenalan dengan nilai threshold = 5 CI - 37 ISSN : 2302-7088 memiliki nilai precision lebih kecil. Jumlah citra yang ditampilkan sangat berpengaruh saat proses pengenalan citra terhadap precisionnya. Semakin banyak jumlah citra yang ditampilkan maka nilai precision semakin kecil dan nilai recall semakin besar. Jumlah data pelatihan terbaik pada jumlah data pelatihan 168 citra dan jumlah data uji coba 32 citra dengan10 jumlah citra yang ditampilkan. DAFTAR PUSTAKA [1] Isa, S. M. Aplikasi Image Retrieval Berdasarkan Tekstur dengan Menggunakan Transformasi Haar Wavelet. Seminar Nasional Sistem dan Informatika. SNSI : 06-039. 221-226. 2007. [2] Bagus, B. Image Database Menggunakan Sistem Content Based Image Retrieval dengan Ekstraksi Fitur Terstruktur. Tugas Akhir. Surabaya: Institut Teknologi Sepuluh Nopember. 2007. [3] Ramadijanti, N. Content Based Image Retrieval Berdasarkan Ciri Tekstur Menggunakan Wavelet. Seminar Nasional Aplikasi Teknologi Informasi. ISSN: 1907-5022. 49-54. 2006. [4] Zahab, N. M. Analisis Tekstur Parket Kayu dengan Menggunakan Metode Statistikal Gray Level Difference Method. Tugas Akhir. Depok : Universitas Gunadarma. 2009. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember CI-38 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 PENGENALAN POLA KARAKTER TULISAN TANGAN MENGGUNAKAN METODE DISCRETE COSINE TRANSFORM (DCT) DAN LEARNING VECTOR QUANTIZATION (LVQ) *Ummu Zazilah, **Cucun Very Angkoso Program Studi Teknik Informatika, Fakultas Teknik Universitas Trunojoyo * E-mail: [email protected], ** [email protected] Abstrak Pengenalan tulisan tangan merupakan salah satu cabang dari pengenalan pola. Penelitian ini membahas sistem pengenalan tulisan tangan offline yang menggunakan pencirian lokal dari karakter-karakter tulisan. Salah satu faktor penentu dalam pengenalan tulisan tangan adalah model atau bentuk tulisan tangan dari penulis yang mampu dikenali. Citra masukan dalam penelitian ini berasal dari 10 responden, tiap responden menuliskan 26 karakter huruf abjad kapital. Dari 10 pola tulisan yang ada akan diuji tingkat kebenarannya dengan data pelatihan yang sebelumnya telah diproses dan disimpan dalam database. Pada penelitian ini proses ekstraksi ciri menggunakan Discrete Cosine Transform untuk menentukan karakteristik dari huruf, setelah itu diklasifikasi menggunakan metode Learning Vector Quantizatian untuk mengukur kemiripan antara data pelatihan dan data uji coba. Hasil penelitian dengan menggunakan ekstraksi ciri DCT dan klasifikasi LVQ diperoleh akurasi pengenalan dengan prosentase keberhasilan tertinggi 86%. Kata kunci: DCT, LVQ, error minimum, Pengenalan tulisan tangan. Abstract Handwriting recognition is one topics in the domain of pattern recognition research. This study discusses the offline handwriting recognition system using local characterization of handwritten characters. We are using 10 respondents which each respondents is writing the entire 26-character alphabet but only its capital letters. Feature extraction are being used in this study is Discrete Cosine Transform. The Learning Vector Quantization then used to measure the similarity of the objects. The results of DCT feature extraction with LVQ classification obtained the accuracy percentage of success 86%. Key words: DCT, LVQ, minimum error, Handwriting recognition menjadi langkah penting untuk mencapai akurasi pengenalan yang tinggi. Sebagai contoh, Discrete Cosine Transform (DCT) dapat digunakan untuk mengekstraksi ciri dari kata – kata tulisan tangan. Disajikan suatu teknik untuk pengakuan kata – kata tulisan tangan dimana DCT digunakan untuk mengekstraksi ciri dari kata itu. Ciri – ciri ini kemudian menggunakan jaringan syaraf tiruan dalam tahap klasifikasi [2]. Pada penelitian sebelumnya, pengenalan karakter tulisan tangan Arab, membandingkan efektivitas metode DCT dan DWT untuk menangkap ciri diskriminatif karakter tulisan tangan Arab. Koefisien dari kedua metode telah digunakan untuk klasifikasi didasarkan PENDAHULUAN Pengenalan karakter tulisan tangan offline otomatis adalah kemampuan komputer untuk membedakan karakter dan kata-kata, dapat dibagi menjadi pengenalan karakter cetak dan tulisan tangan. Karakter yang dicetak memiliki satu gaya dan ukuran untuk font tertentu. Namun, karakter tulisan tangan memiliki gaya dan ukuran yang bervariasi baik bagi penulis yang sama atau penulis yang berbeda [1]. Hal ini menunjukkan betapa dibutuhkan sistem yang mampu mengenali berbagai gaya penulisan dari masing – masing orang. Dalam sebuah sistem pengenalan, pemilihan metode ekstraksi ciri yang dapat CI-39 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 pada persamaan (1) diabaikan maka persamaan (1) akan menjadi persamaan (4) : N−1 π (2x + 1)u C(u) = cos 2N (4) y=0 pada implementasi jaringan syaraf tiruan. Hasilnya telah dianalisis dan telah menunjukkan bahwa ekstraksi ciri berbasis DCT menghasilkan pengenalan yang tinggi yaitu 91.87% [1]. Tujuan dari sistem ini mampu melakukan pengenalan karakter pada kata tulisan tangan menggunakan ekstraksi ciri Discrete Cosine Transform (DCT) dan Learning Vector Quantization (LVQ) yang diharapkan dapat melakukan pengenalan pola tulisan tangan dengan tingkat akurasi pengenalan yang tinggi. Batasan masalah dalam sistem ini adalah Sistem yang digunakan adalah offline. Kedua, data masukan dalam sistem ini adalah file gambar berekstensi .bmp tulisan tangan. Ketiga, sistem hanya dirancang untuk mengenali huruf abjad kapital tulisan tangan dan batasan masalah yang keempat pada sistem adalah Citra yang digunakan adalah hitam dan putih, dan citra diam (still image). ∑ Discrete Cosine Transform 2D (DCT – 2D) DCT – 2D merupakan pengembangan dari DCT – 1D, maka transformasi diskrit dapat dinyatakan dalam bentuk persamaan (5) : N−1 M−1 g(x, y,u, v) = 2 M.N π(2x +1)u π(2y +1)v cos 2M 2N ∑∑ f (x, y)cos α(u)α(v) x=0 y=0 (5) u = 0, 1, 2,......,N −1 dan v = 0, 1, 2,......,N −1. Invers DCT 2 Dimana Dimensi dapat persamaan (6). f ( x, y) = 2 M.N α(u)α(v) dituliskan N−1 M−1 ∑∑ C(u, v)cos x=0 y=0 dalam bentuk π(2x+ 1)u π(2y+ 1)v 2N cos 2M (6) Dimana : M= Ukuran dimensi dari baris sebuah citra N= Ukuran dimensi dari kolom sebuah citra x= nilai pixel lebar citra y= nilai pixel tinggi citra u= nilai koefisien lebar citra v= nilai koefisien tinggi citra Discrete Cosine Transform (DCT) Discrete Cosine Transform (DCT) adalah metode sebuah transformasi citra yang mengubah fungsi dari domain spasial ke domain frekwensi. [3] 1D – Discrete Cosine Transform (DCT – 1 D) Definisi secara umum 1D-DCT dapat dituliskan dalam persamaan (1): N−1 π(2x+1)u C(u) =α(u) f (x) cos 2N (1) ∑ x=0 Proses pengambilan nilai koefisien DCT secara zigzag dapat dilihat pada gambar 1. Dimana untuk. u = 1, 2, 3,......,N − 1 . Untuk invers DCT – 1D dapat ditulis dalam persaman (2) : N−1 π(2x +1)u α(u) C(u) cos f (x) = 2N x=0 ∑ Gambar 1. Proses pengambilan nilai koefisien DCT dengan zigzag (2) Seperti yang telah dijelaskan diatas bahwa DCT merupakan proses perubahan signal/citra dari ruang/domain spasial ke ruang/domain frekuensi, sehingga transformasi ini menghasilkan sebuah matriks frekuensi dari citra yang dimasukkan. Pada Gambar (2) Frekuensi rendah yang dihasilkan umumnya terkumpul di sudut kiri atas (hal ini di lambangkan dengan nilai DCT yang tinggi) sedangkan semakin ke bawah frekuensi yang dihasilkan semakin tinggi dilambangkan dengan nilai DCT yang semakin rendah [1]. Dimana untuk u = 1, 2, 3,......,N − 1 Baik untuk persamaan 1 dan 2, α (u) dapat dituliskan dalam bentuk persamaan (3) : α (u ) = 1 N untuk u=0 2 N untuk (3) u<>0 Dari persamaan 1, 2, dan 3 jelas bahwa untuk nilai u = 0, maka akan didapatkan nilai rata – rata sampel. Jika nilai f (x) dan α (u) CI-40 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 Learning Vector Quantization (LVQ) prepocessing Bobot LVQ prepocessing Ekstrasi ciri (DCT) Ekstrasi ciri (DCT) pengenalan Pelatihan LVQ Tulisan tangan dikenali Gambar 2. Desain sistem 1. Citra masukan berasal dari file berekstensi *.bmp, satu citra training terdiri dari satu kata (tulisan tangan huruf abjad dari A-Z) 2. Citra masukan diproses awal yaitu proses konversi true color menjadi grayscale, kemudian konversi grayscale menjadi biner, dan cropping untuk memecah kata menjadi per karakter (per huruf) serta dinormalisasi ukuran menjadi 32 x 32. 3. Citra hasil normalisasi yang berupa citra biner menjadi masukan dalam proses ekstraksi ciri dengan menggunakan metode DCT untuk menghasilkan koefisien. 4. Citra hasil ekstraksi ciri tersebut dilatih dengan LVQ untuk menghasilkan bobot yang digunakan untuk proses pengenalan citra. 5. Hasil bobot LVQ disimpan dalam media penyimpanan (database atau file). 1. Inisialisasi bobot (W), maksimum epoh (max epoh), error minimum yang diharapkan (eps), learning rate (α). Bobot diinisialisasi secara random sedangkan max epoh dan learning rate digunakan untuk menentukan batas ambang komputasi. 2. Input : x (m,n) Target : T(1,n) Input adalah matik input dari citra tulisan sedangkan target adalah kelas bobot training. 3. Melakukan proses sebagai berikut: Selama (epoh, max epoh) atau (α>eps) a. Epoh = epoh+1 b. Kerjakan untuk i=1 sampai n i. Tentukan j sedemikian rupa sehingga || x – Wj || minimum (sebut sebagai Cj ) ii. Perbaiki Wj dengan ketentuan Jika T = Cj maka : Untuk proses pengujian pada gambar 2: 1. Citra masukan berasal dari file berekstensi *.bmp, satu citra training terdiri dari satu kata (tulisan tangan) 2. Citra masukan diproses awal yaitu proses konversi true color menjadi grayscale, kemudian konversi grayscale menjadi biner, dan cropping untuk memecah kata menjadi per karakter (per huruf) serta di normalisasi ukuran menjadikan 32 x 32. 3. Citra hasil normalisasi yang berupa citra biner menjadi masukan dalam proses ekstraksi ciri dengan menggunakan metode DCT untuk menghasilkan koefisien. 4. Dilakukan proses pengenalan citra karakter tulisan tangan menggunakan metode Euclidean Distance dengan bobot LVQ yang telah ada sebelumnya. W (baru) =W (lama) + α(x – W (lama)) j j j Jika T ≠ Cj maka : W (baru) =W (lama) - α(x – W (lama) ) j j j c. Kurangi nilai Citra input testing Citra input training Learning Vector Quantization (LVQ) adalah suatu metode untuk melakukan pembelajaran pada lapisan kompetitif yang terawasi. Suatu lapisan kompetitif akan secara otomatis belajar untuk mengklasifikasikan vector – vector input. Kelas – kelas yang didapatkan sebagai hasil dari lapisan kompetitif ini hanya tergantung pada jarak antara vector – vector input, jika dua vector input mendekati sama maka lapisan kompetitif akan meletakkan kedua vector tersebut ke dalam vector yang sama [4]. Secara garis besar algoritma Learning Vector Quantization (LVQ) sebagai berikut [4]: α RANCANGAN SISTEM Pada kedua proses tersebut terdapat awal proses yang sama yaitu adalah pemrosesan awal citra dan ekstraksi ciri. Hasil akhir dari metode LVQ adalah bobot pelatihan yang disimpan ke dalam database/file. Hasil akhir dari pengenalan citra adalah citra karakter tulisan tangan yang berhasil dikenali. Berikut perincian proses pelatihan pada gambar 2 : CI-41 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Hasil dari pengenalan citra adalah sebuah output mengenai kata tulisan tangan. Tabel 2. Hasil uji coba pada skenario 1 dan skenario 2 dengan perbedaan nilai error minimum (eps) HASIL DAN PEMBAHASAN Nilai eps 0.001 0.01 0.1 Pada program ini diujikan kepada 10 responden. Tiap responden menuliskan 1 pola tulisan tangan sebanyak 26 huruf karakter huruf abjad. Dalam tulisan tangan memiliki perbedaan pada setiap kali penulisannya. Dari 10 pola tulisan yang ada akan diuji tingkat kebenarannya dengan data pelatihan yang sebelumnya telah diproses dan disimpan dalam database. Citra pengenalan tulisan tangan ini membutuhkan citra tulisan tangan huruf abjad berukuran 32x32. Jumlah data masukannya sebanyak 260 data. Dari data yang diperoleh dari 10 responden akan menjadi data training dan data testing dengan keterangan sebagai berikut : Jumlah data skenario 1 Data set image2 (26 x 5) = 130 image Nilai alpha 0.05 0.01 0.1 Tingkat akurasi Skenario 1 Skenario 2 70 % 80.76923 % 67.69231 % 81.53846% 70.76923 % 80.76923 % Nilai alpha skenario 2 Data set image1 = Data testing Data set image2 = Data testing Data set image2 = Data training Hasil kinerja sistem pada skenario pertama Hasil kinerja sistem pada skenario kedua Dalam penelitian ini telah dilakukan uji coba kinerja sistem pada skenario 1 dan skenario 2 dengan menggunakan validasi 130 data training dan 130 data testing. Dalam uji coba ini menggunakan nilai 35 koefisien DCT dan perbedaan nilai max epoh, eps , alpha dan rumus update alpha. Hasil percobaan dapat dilihat pada tabel dibawah ini : Tabel 1. Hasil uji coba pada skenario 1 dan skenario 2 dengan perbedaan nilai max epoh 70 % 70 % 70 % Tingkat akurasi Skenario 2 80.76923 % 80 % 80 % Tabel 4. Hasil uji coba pada skenario 1 dan skenario 2 dengan perbedaan rumus update alpha Data Dataset setimage1 image1 = (26 x 5) = 130 Data training image Skenario 1 Skenario 1 70 % 70 % 70 % Tabel 3 Hasil uji coba pada skenario 1 dan skenario 2 dengan perbedaan nilai alpha Gambar 3. Desain skenario uji coba Nilai max epoh 10000 5000 1000 ISSN : 2302-7088 Tingkat akurasi Skenario 2 80.76923 % 80.76923 % 80 % CI-42 Alpha=0.1*alpha Alpha=0.5*alpha Tingkat akurasi Skenario 1 Skenario 2 70 % 80.76923 % 73.84615 % 86.15385% Pada Tabel 1 menunjukkan tabel hasil pengujian skenario 1 dan skenario 2 dengan dengan menggunakan validasi 130 data training dan 130 data testing dengan nilai error minimum (eps) = 0.001, learning rate (alpha) = 0.05 dan nilai max epoh yang berbeda pada setiap uji coba. Pada skenario 1 menghasilkan nilai akurasi yang sama pada setiap uji coba sebesar 70%, sedangkan pada skenario 2 menghasilkan nilai akurasi yang berbeda pada setiap uji coba, dimana nilai akurasi tertinggi terletak pada uji coba dengan nilai max epoh = 10000 dengan nilai akurasi 80.77%, hal ini dapat disimpulkan bahwa semakin besar nilai max epoh semakin bagus nilai akurasi keberhasilannya. Pada Tabel 2 menunjukkan hasil uji coba kinerja sistem pada skenario 1 dan skenario 2 dengan menggunakan validasi 130 data training dan 130 data testing dengan nilai max epoh = 10000, alpha = 0.05 dan nilai error minimum (eps) yang berbeda pada setiap uji coba. Pada skenario 1 menghasilkan nilai akurasi yang sama pada setiap uji coba sebesar 70%, sedangkan pada skenario 2 menghasilkan nilai akurasi yang berbeda pada setiap uji coba, dimana nilai akurasi tertinggi terletak pada uji coba dengan nilai eps = 0.001 dengan nilai akurasi 80.77%, hal ini dapat disimpulkan Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember bahwa semakin kecil nilai eps semakin bagus nilai akurasi keberhasilannya Pada tabel 3 menunjukkan hasil uji coba kinerja sistem pada skenario 1 dan skenario 2 dengan menggunakan validasi 130 data training dan 130 data testing dengan nilai max epoh = 10000, eps = 0.001 dan nilai alpha yang berbeda pada setiap uji coba. Pada skenario 1 menghasilkan nilai akurasi yang berbeda pada setiap uji coba, dimana nilai akurasi tertinggi terletak pada uji coba dengan nilai alpha = 0.1dengan nilai akurasi 70.77%, sedangkan pada skenario 2 menghasilkan nilai akurasi yang berbeda pada setiap uji coba, dimana nilai akurasi tertinggi terletak pada uji coba dengan nilai alpha = 0.01 dengan nilai akurasi 81.54%, hal ini dapat disimpulkan bahwa nilai alpha = 0.1 tepat untuk uji coba pada skenario 1 dan dengan nilai alpha = 0.01 tepat untuk uji coba pada skenario 2. Pada tabel 4 menunjukkan hasil uji coba kinerja sistem pada skenario 1 dan skenario 2 dengan menggunakan validasi 130 data training dan 130 data testing dengan nilai max epoh = 10000, eps = 0.001, alpha = 0.05 dan rumus update alpha yang berbeda pada setiap uji coba. Pada skenario 1 menghasilkan nilai akurasi yang berbeda pada setiap uji coba, dimana nilai akurasi tertinggi terletak pada uji coba dengan rumus update alpha = 0.5*alpha dengan nilai akurasi 73.84%, sedangkan pada skenario 2 menghasilkan nilai akurasi yang berbeda pada setiap uji coba, dimana nilai akurasi tertinggi terletak pada uji coba dengan rumus update alpha = 0.5*alpha dengan nilai akurasi 86.15%, hal ini dapat disimpulkan bahwa rumus update alpha = 0.5*alpha tepat untuk uji coba pada skenario 1dan skenario 2. ISSN : 2302-7088 KESIMPULAN Setelah menyelesaikan perancangan dan pembuatan sistem pada aplikasi pengenalan pola karakter pada kata tulisan tangan menggunakan metode Discrete Cosine Transform dan Learning Vector Quantization (LVQ) serta melakukan uji coba dan evaluasi, maka dapat ditarik kesimpulan bahwa dapat dilihat dari hasil persentase pengujian yang memiliki tingkat akurasi yang berbeda, dimana dalam skenario pertama mempunyai nilai akurasi tinggi dengan nilai max epoh = 10000, error minimum (eps) = 0.001 , learning rate (alpha) = 0.05 dan rumus update alpha = 0.5* alpha, menghasilkan nilai akurasi sebesar 80.7%. Sedangkan dalam skenario kedua nilai akurasi tinggi diperoleh dengan inputan nilai max epoh = 10000, error minimum (eps) = 0.001 , learning rate (alpha) = 0.05 dan rumus update alpha = 0.5*alpha, menghasilkan nilai akurasi sebesar 86%. DAFTAR PUSTAKA [1] Lawgali.A ., Bouridane. A., Angelova. M., Ghassemlooy. Z., Handwritten Arabic Character Recognition: Which Feature Extraction Method?. International Journal of Advanced Science and Technology. Vol 34. 2011. [2] Alkhateeb. J. H., Jinchang. R., Jianmin. J., Ipson. S. S., dan El-Abed. H., WordBased handwritten Arabic scripts recognition using dct features and neral network classifier. In International MultiConference on system, signal and devices. 1-5. 2008 [3] Purnomo, M. H. dan Muntasa, A., Pengolahan Citra Digital dan Ekstraksi Fitur. Yogyakarta : Graha ilmu. 2010. [4] Kusumadewi, S. Artificial Intelligence (Teknik dan Aplikasinya). Yogyakarta : Graha ilmu. 2003. CI-43 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 PENGEMBANGAN PROTOTIPE PENGENALAN AKTIFITAS FISIK DENGAN SENSOR ACCELEROMETER BERBASIS INTEGRASI DEMPSTER-SHAFER DAN K-NEAREST NEIGHBOURS Waskitho Wibisono Jurusan Teknik Informatika Institut Teknologi Sepuluh Nopember (ITS), Surabaya E-mail: [email protected] Abstrak Sistem yang context-aware adalah sistem yang dirancang untuk mampu beradaptasi dengan lingkungannya, dimana adaptasi dari system ini umumnya dilakukan dengan informasi context dari penggunanya. Aktivitas fisik yang dilakukan oleh user, adalah salah satu bentuk context yang penting dan umum digunakan untuk membangun sistem context-aware tersebut. Dalam paper ini, prototipe aplikasi untuk identifikasi aktifitas fisik user berbasis sensor accelerometer tunggal dikembangkan menggunakan penggabungan metode Dempster-Shafer dan K-Nearest Neighbour (KNN). Ujicoba dilakukan dengan menggunakan data yang didapat dengan dari sebuah sensor 3-Axis Accelerometer pada SunSPOT device, yang dipasang pada paha pengguna. Ujicoba pengenalan aktivitas dilakukan untuk tiga aktifitas fisik yang umum dilakukan user. Hasil ujicoba menunjukkan akurasi pengenalan yang tinggi terhadap tiga aktivitas fisik user, dari data yang didapat dari sensor accelerometer tersebut. Kata kunci: Sistem Context-Aware, Accelerometer. Pengenalan Aktivitas, Dempster-Shafer, Abstract Context-aware systems are systems that capable of adapting to their environments and provide relevant information and/or services with minimum user intervention. Commonly, a context-aware system will adapt based on context of the its user. Physical user activities usually become the most important context used for system adaptation. In this paper, a prototype of application used to identify physical user activity based on accelerometer data is proposed. The prototype is developed based on integration of Dempster-Shafer theory and K-Nearest Neighbor (KNN). Experiments were conducted using data captured using 3-Axis Accelerometer of a SunSPOT device, placed at user’s thigh. The activity recognition testing was performed, for three different common physical activities of a user. The result of experiments shows high accuracy for the physical user activities, using data from the accelerometer. Keywords: Context-Aware Accelerometer. System, Activity Recognition, Dempster-Shafer, Dey et al. [4] memberikan definisi yang populer tentang context sebagai semua informasi yang dapat digunakan untuk mengenali aktivitas dari pengguna. Sebuah sistem yang tanggap terhadap perubahan context dari penggunanya, diharapkan agar dapat meningkatkan usability dari sistem tersebut terhadap kebutuhan user [5]. Aktivitas fisik yang sedang dilakukan user adalah salah satu bentuk context yang penting dan umum digunakan untuk membangun context-aware system. Untuk mendeteksi PENDAHULUAN Perkembangan dan kemajuan dari komputasi bergerak dan teknologi perangkat bergerak telah memunculkan ide untuk membangun sistem yang context-aware [1, 2]. Sistem ini dirancang untuk mampu beradaptasi dengan lingkungannya, serta memberikan informasi atau layanan yang relevan berbasis context tanpa memerlukan intervensi user secara eksplisit [3, 4]. CI-44 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 himpunan hipotesis (Θ = •ℎr , . . , ℎ } dari › kejadian yang akan dikenali dan bersifat mutually exclusive dan disebut sebagai frame of discernment (FOD)[15]. Jika 2Θ merupakan himpunan power set dari Θ, maka mass assignment (yang juga dikenal sebagai mass function • didefinisikan sebagai fungsi •: 2Θ → [0,1] dimana • ∅ = 0 dan ∑ ¡⊆Θ •#ℎ % = 1. Nilai mass dari sebuah hypothesis ( ℎ , yakni • ℎ , merepresentasikan derajat dukungan proposisi hL . Nilai dari mass yang dialokasikan untuk • ¤ , yaitu mass yang dialokasikan untuk frame of discernment, merepresentasikan derajat ketidaktahuan atau uncertainty akan hipotesis yang tepat. Membangun fungsi untuk mendapatkan nilai mass dari terhadap kemungkinakemungkinan hipotesis, adalah sebuah tahapan yang sangat krusial untuk dilakukan untuk mengadopsi teori DS. Namun demikian, hingga saat ini hal ini masih merukan isu utama dalam penerapan teori DS dalam memecahkan problem-problem klasifikasi [14, 16]. Untuk mengatasi masalah tersebut, dalam paper ini, penulis mengadopsi metode yang di ajukan pertama kali [7] yang kemudian digunakan di [8]. Detail dari metode ini kami diskusikan dalam bagian berikut ini. aktivitas fisik tersebut, sensor yang umum digunakan adalah accelerometer [6]. Sensor ini adalah salah satu sensor yang murah yang sering dipakai untuk mengenali aktivitas dari pengguna. Data yang dihasilkan dengan oleh sensor ini umumnya dapat dipakai untuk mengukur pergerakan dan orientasi dari sebuah alat relatif terhadap gaya gravitasi. Dalam paper ini, akan dipaparkan metode untuk mengenali aktifitas user berbasis data dari sensor accelerometer dengen menggunakan teori Dempster-Shafer (DS) yang diintegrasikan dengan metode klasfikasi K-Neirest Neighbor (KNN) [7, 8]. Teori DS umumnya dipakai dalam permasalahan data fusion untuk pengenalan situasi karena memiliki memberikan banyak kelebihan yaitu [9]: • Memungkinkan representasi dari imprecision dan uncertainty dengen mengenalkan konsep tentang belief dan plausibility [10]; • Memberikan kemampuan untuk menggunakan partial knowledge dari preposisi dengan kemampuan untuk merepresentasikan konjungsi dari beberapa hipotesis tentang kasus yang akan dikenali, selain juga untuk hipotesis tunggal [11, 12]. • Memberikan metode yang effektif untuk mengkombinasikan informasi dari berbagai sumber data yang berbeda-beda [13]. Selain keunggulan seperti yang ditulis diatas, problem dasar dalam mengaplikasikan teori DS untuk pengenalan aktifitas adalah perlu dibangunnya metode yang sesuai untuk berfungsi sebagai mass function [14]. Fungsi ini menghasilkan nilai mass yang merepresentasikan derajat dukungan kepada sebuah hipotesis apabila sebuah evidence didapatkan. Dalam paper ini kami mengadopsi metode yang di ajukan pertama kali oleh Denoux dan kemudian digunakan oleh Yahdani et.al [7, 8] untuk mendapatkan nilai mass. Penjelasan tentang teori DS dan integrasinya dengan metode KNN dijelaskan dalam sub bagian berikut. Mass Function berbasis Integrasi KNN dan Dempster-Shafer (KNN-DS) Metode klasifikasi berbasis KNN adalah metode yang umum digunakan dalam permasalah klasifikasi. Namun demikian, kelemahan yang umum dari metode ini adalah penggunaan mekanisme voting mayoritas. Metode ini tidak mengakomodir perbedaan jarak dari elemen-elemen data ¥¦¦, yang didapatkan dari penghitungan jarak, dari sebuah input data yang akan dikenali, terhadap data-data yan ada dalam training dataset. Namun pada kenyataannya, jarak dari elemenelemen KNN yang terpilih sering kali berbedabeda [7, 8] sehingga metode berbasis voting mayoritas kurang efektif. Sebagai contoh, misalnya saja, ¤ = •§r , … , § } adalah himpunan dari aktifitas yang akan dideteksi. Untuk membangun mass function berbasis KNN-DS, sebuah dataset pelatihan harus dipersiapkan untuk semua aktifitas yang dinyatakan dalam ¤. Setiap data TEORI DEMPSTER-SHAFER (DS) Teori Dempster-Shafer (DS) dikenalkan oleh Glen Shafer [15]. Dalam teori ini, sebuah CI-45 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember dalam dataset tersebut haruslah memiliki label s̅ ∈ •1, . . n} yang merepresentasikan aktifitas yang terkait. Ide dasar dari KNN adalah untuk mengklasifikasikan input data berdasarkan dari himpunan dari tetangga terdekat yang didapatkan dari dataset training. Sebagai contoh misalnya, sebuah himpunan nilai mass ingin didapatkan dari sebuah input context data ¬ - , kemudian sebuah himpunan tetangga terdekat yang didapatkan dan dinyatakan sebagai ®¯ t . Elemen-elemen dari KNN yang dipilih tersebut dapat dihitung dengan menggunakan perhitungan dengan rumus jarak tertentu (misalnya euclidian), antara input context data dan dataset training. Secara umum, jumlah tetangga diatur sebelum proses komputasi. Sebagai contoh, misalnya ¥ merepresentasikan jumlah dari tetangga terdekat. Untuk setiap ¬ ± ∈ ®¯ - , dimana ± = 1, . . , ¥ dimana labelnya adalah sebagai ² adalah sebuah evidence yang meningkatkan tingkat kepercayaan (belief) bahwa input context ¬ - , tersebut termasuk kedalam aktifitas §³ ∈ ¤. Namun demikian, informasi ini tidak menjamin secara mutlak akan kebenaran dugaan tersebut. Kondisi ini dapat direpresentasikan dengan mengalokasikan sebagian dari nilai belief kepada §³ ∈ ¤, sedangkan sisanya dapat dialokasikan ke FOD yaitu ¤ = •§r , … , § }. Dalam metode ini, nilai mass dihitung dengan fungsi yang bersifat monotonically decreasing terhadap jarak antara context data sebagai input dan elemen dari KNN yang didapatkan, ¬ x ∈ Φµ t dimana x= 1, . . , K. Alasan yang melandasi konsep diatas adalah : semakin besar jarak antara input data dan elemen dari K-tetangga terdekat yanga didapatkan akan mengindikasikan belief yang semakin berkurang bahwa input data tersebut adalah aktifitas yang terkait dengan label yang diasosiakan oleh elemen data KNN yang terkait[7]. Kondisi ini dapat direpresentasikan oleh mass function yang memenuhi ketentuan sebagai berikut [7, 8]. • #f§³ m, -, ±% = ·¸±¹tº • ¤, -, ± = 1 »,¼ − • #f§³ m, -, ±% ISSN : 2302-7088 • ½, -, ± = 0 ∀½ (3) ∈ ¤\ À¤, f§³ mÁ Dimana o , adalah jarak antara input context data dan ¬ - dengan ¬ ± ∈ ®¯ - , dan Ã>0 adalah koefisien normalisasi. Koefisien · pada 0 < · < 1, yang mengindikasikan bahwa meskipun jarak yang didapatkan adalah nol, hal ini belum bisa menjamin secara 100% bahwa input data tersebut ¬ - memiliki aktivitas yang sama dengan yang di dataset training. Dalam prakteknya, nilai à dan · dapat ditentukan secara heuritsik seperti yang ditunjukkan oleh Deneoux [7]. Semisal kita mendapatkan ®¯,Å - sebagai himpunan KNN yang termasuk kedalam aktifitas §³ , kombinasi dari nilai mass yang didapatkan dari ®¯,Å - dapat dihitung sebagai berikut: • ,³ #f§³ m, -% = • ,³ ¤, - = 1− Æ ÇÈ Â ÉÊË,Ì Æ ÇÈ Â ÉÊË,Ì #1 − ·¸±¹tº 1 − ·¸±¹tº »,¼ »,¼ % (4) (5) Jika ®¯,Å - = ∅, maka keseluruhan nilai mass dialokasikan kepada FOD, yaitu m¯ #¤ , -% = 1, dan • ,³ #f§³ m, -% = 0. Pada langkah selanjutnya, nilai-nilai mass untuk keseluruhan aktifitas yang telah didapatkan dikombinasikan untuk mendapatkan nilai-nilai mass gabungan. Dengan › sebagai jumlah dari aktifitas yang akan dideteksi, koefisien normalisasi G dihitung seperti dalam persamaan berikut. Ï = s • ,³ #f§³ m, -% Æ • , #Θ, -% ³+r г + Æ • ,³ ¤ , ³+r (6) Kemudian nilai mass secara untuk setiap aktifitas secara keseluruhan dapat dihitung menggunakan persamaan berikut: (1) • #f§³ m, -% = (2) CI-46 (7) Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ¡ È,Ñ #f Ñ m, ¡ È,Ó % ∏ÓÔÑ Õ Perhitungan untuk nilai mass aktivitas ”BERJALAN” didapat dari ± 2,5 sebagai berikut: Θ, 0.650308497 * mr,× Θ 0.652001586 0.424002172 m1,3 •s× } 1 F m1,3 Θ 0.575997828 Nilai mass yang dialokasikan kepada FOD (¤ , merepresentasikan derajat ketidak tahuan (ignorance) dalam mengenali aktifitas. Kondisi yang merepresentasikan total ignorance terjadi bila, • Θ, t 1. Nilai tersebut didapatkan dengan persamaan sebagai berikut : • ¤ ,- ∏³+r • ,³ ¤ , - Karena ®r,M 0 , dimana tidak ada tetangga terdekat (nearest neighbours) ¬r - ∈ ®r - yang berkorespondensi dengan situasi ”DUDUK” (sM ) maka kita dapat memberikan nilai •r,M •Θ} 1 dan •r,M •§M } 0. Dengan nilai-nilai tersebut kita dapat mendapatkan angka koefisien Ï (Eq. 6) sebagai faktor normalisasi dengan perhitungan sebagai berikut: (8) Ï Contoh Perhitungan Ï # 0.725284093 * 0.424002172 * 1 H 0.5759978282 * 0.274715907 * 1 H 0 * 0.424002172 * 0.274715907 H 0.424002172 * 0.274715907 * 1 % 0.582237937 Misalnya dalam sebuah proses pengenalan aktivitas fisik seorang user dari sebuat input context ¬r - dan 5 nearest neighbours (NN) •¬ ± |± 1, . . ,5}, dengan masing Φ masing jaraknya (o , ) seperti ditunjukkan dalam Tabel 1. Tabel tersebut juga menunjukkan aktivitas yang terkait dari setiap NN yang diperoleh dimana §r=Berdiri, §M=Duduk dan §×=Berjalan. Untuk menghitung mass assignment, koefisient γ didapatkan dengan menggunakan metode heuristik[7] dimana rata-rata dari jarak dari NN yang didapatkan (γ r ISSN : 2302-7088 Nilai mass akhir yang merupakan kombinasi dari nilai awal mass yang didapat dari perhitungan sebelumnya didapatkan sebagai berikut (Eq. 7) • 1 s1 0.424002172 * 1 / 0.582237937 tr ØÙ ∑Ùr o-,± Ú ) dan koefisien α di set pada nilai 0.95. Dalam tabel berikut, jarak dari tiap-tiap tetangga, dan perhitungan awal nilai mass dengan Û 5 and à 1/0.455356693) ditunjukkan. Tabel 1. Contoh Jarak pada KNN dan Kalkulasi Awal Mass 0.725284093 * • 1 s3 0.528172438 0.575997828 * 0.274715907 * 1 /0.582237937 0.271771651 o , 0.450088321 §³ §r ·¸±¹tº 0.353552417 1 F ·¸±¹tº 0.646447583 0.455088324 §× 0.349691503 0.650308497 0.457010096 §r •1 Θ 0.348218786 0.651781214 0.582237937=0.200055911 0.457298363 §r 0.347998414 0.652001586 0.457298363 §× 0.347998414 0.652001586 »,¼ »,¼ •1 §2 (0.274715907×0.424002172)/ 0 Dari perhitungan diatas, didapatkan nilainilai mass untuk aktivitas BERDIRI= 0.528172438, BERJALAN=0.271771651 dan DUDUK=0 dan nilai mass untuk FOD(Θ) yang merepresentasikan ketidaktahuan (ignorance) adalah 0.200055911. Perhitungan nilai awal mass untuk aktivitas ”BERDIRI”, dilakukan dengan menggunakan ± 1,3,4 sebagai berikut mr,r Θ 0.646447583×0.651781214× 0.652001586=0.274715907 mr,r •sr } 1 F mr,r Θ 0.725284093 CI-47 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 seperti ini, setiap window sampling merepresentasikan data selama 3.2 detik masa observasi. Mean dari data-data yang didapatkan dari setiap sumbu accelerometer digunakan sebagai context data. Ploting dari data accelerometer pada ketiga sumbu untuk ketiga aktifitas fisik yang digunakan dalam ujicoba dapat dilihat pada gambar-gambar berikut. UJICOBA PENGENALAN AKTIVITAS DENGAN DATA SENSOR ACCELEROMETER Ujicoba dengan data riil dari sensor accelerometer dilakukan dengan memasang perangkat SunSPOT [6] yang didalamnya terdapat sensor accelerometer seperti yang ditunjukkan pada Gambar 1 berikut. Orientasi dari setiap sumbu dalam sensor tersebut seperti yang ditunjukkan dalam gambar tersebu dimana simbol (+) pada setiap sumbu mengindikasikan bahwa ketika akselerasi bertambah pada arah sumbu tersebut [6]. Gambar 1 Sumbu X,Y and Z dari Sensor Accelerometer pada Sun SPOT device Dalam ujicoba yang dilakukan, SunSPOT diletakkan pada lokasi paha bawah dari user yang terlibat dalam ujicoba. Dalam ujicoba tersebut, tiga aktivitas fisik yang umum dilakukan yaitu : ”BERJALAN”, ”BERDIRI” dan ”DUDUK” akan dikenali.. Ujicoba dilakukan dengan data menggunakan data yang diambil dari 3-axis accelerometer sensor yang terdapat pada SunSPOT device (lihat Gambar 1). Dalam ujicoba yang kami lakukan, SunSPOT device diletakkan pada paha kanan dari dua orang user seperti dalam Gambar 4 di halaman 6. Pengambilan Dataset Training Gambar 2 Visualisasi Data 3-Axis Accelerometer Sensor , Untuk Tiga Aktifitas Fisik Umum Seorang User Dalam ujicoba, dilakukan perekaman data untuk tiga aktivitas fisik yaitu, berjalan, berdiri dan duduk. Untuk menghasilkan context data, dilakukan sampling terhadap sensor 3-axis accelerometer pada frekuensi 40Hz, dengan panjang window sampling sebanyak 128 elemen data. Dalam pengaturan Implementasi Implementasi yang dibuat terdiri dari dua komponen utama. Dalam komponen pertama CI-48 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember adalah implementasi untuk membuat komponen akuisi data sedang komponen kedua adalah modul untuk pengenalan aktivitas. Dalam paper ini, modul akuisisi data dikembangkan dengan menggunakan freerange SunSPOT (FR-SP) [17] yang dipasang pada paha kanan user (Gambar 4). Dalam setiap FR-SD, terdapat sensor 3axis accelerometer (LIS3L02AQ) yang dapat digunakan untuk mengukur pergerakan dan orientasi dari sensor yang dipasang [18]. Setiap SunSPOT devices menjalakan Java virtual machine (VM) yang disebut "Squawk" dan dapat diprogram dengan menggunakan library yang didapatkan dari SunSPOT SDK [17]. Untuk menjembatani komunikasi antara workstation user dan FR-SP, sebuah SunSPOT base station device (BS-SD) dipasang dalam laptop yang digunakan dalam ujicoba dengan berbasis koneksi USB. BS-SD berfungsi sebagai gateway radio antara FR-SP dan workstation. Komposisi umum dari FR-SP, BS-SD dan workstation seperti ditunjukkan dalam gambar berikut. Gambar 4. Pemasangan SunSPOT Device Pada Paha Kanan User Dalam Ujicoba. Prototipe implementasi untuk pengenalan aktivitas fisik user dikembangkan dengan barbasis bahasa pemrograman Java seperti yang ditunjukkan dalam Gambar 5 dibawah. Dalam prototipe awal yang dibangun dan dilaporkan didalam paper, data training dikumpulkan dari pengamatan untuk aktifitasaktifitas yang diuji selama sekitar 15 menit. (300 data). Pengujian kemudian dilakukan dengan pengambilan sample data uji sebanyak 30 data. Masing masing data terdiri dari data sensor accelerometer dari setiap sumbu (x,y,z), untuk masing-masing aktivitas. Dari ujicoba yang telah dilakukan untuk tiga aktivitas sederhana pada skenario ujicoba diatas dengan 30 data uji, didapatkan akurasi yang tinggi, dimana seluruh data uji untuk tiga aktifitas tersebut dapat dikenali semuanya dengan akurasi 100%. 802.15.4 Radio Free Range SunSPOT USB ISSN : 2302-7088 SunSPOT Base Station Free Range SunSPOT Gambar 3. Konfigurasi Umum SunSPOT Ujicoba Dalam ujicoba yang dilakukan, dua orang user diinstruksikan untuk melakukan tiga aktivitas yang diujikan dalam paper ini yaitu ”BERDIRI”, ”BERJALAN” dan ”DUDUK”. Setelah dataset training didapatkan. Ujicoba selanjutnya dilakukan dengan meminta untuk kedua user untuk melakukan aktifitas serupa dan dilakukan pengenalan dari data-data baru dari sensor accelerometer di kesempatan tersebut. Gambar 5. Prototipe Program KESIMPULAN Dalam paper ini sebuah model pengenalan aktifitas dengan basis sensor accelerometer telah berhasil dikembangkan. Model tersebut kemudian diimplementasikan dalam sebuah prototipe berbasis bahasa Java. Ujicoba CI-49 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember dilakukan dengan data-data yang didapatkan dengan akuisisi data langsung terhadap tiga aktifitas fisik yang umum dilakukan seseorang yaitu : Berdiri, Duduk dan Berjalan. Aktifitas fisik user yang akan dikenali direkam dengan dengan menggunakan accelerometer tunggal pada sensor SunSPOT, yang dipasang pada posisi paha kanan user tersebut. Hasil ujicoba yang dilakukan menunjukkan hasil yang tinggi untuk mengenali tiga aktifitas fisik tersebut. Pengembangan kedepan yang kami rencanakan adalah menggunakan prototipe ini untuk mengenali aktifitas fisik user yang lebih banyak dan komplek lainnya misalnya bersepeda, menari, atau kondisi lainnya misalnya terjatuh (fall detection). Untuk itu penggunaan, sensor yang lebih banyak dan dipasang pada beberapa lokasi pada tubuh user diperlukan. ISSN : 2302-7088 Transaction on Systems, Man and Cybernetics, vol. 25, pp. 804-813, 1995. [8] A. Yazdani, et al., "Classification of EEG Signals Using Dempster Shafer Theory and a K-Nearest Neighbor Classifier," in Proceedings of the 4th International IEEE EMBS Conference on Neural Engineering, Antalya, Turkey, 2009, pp. 327-330. [9] G. L. Rogova and V. Nimier, "Reliability in Information Fusion : Literature Survey," in Proceeding of the 7th International Conference on Information Fusion, Stockholm, Sweden, 2004, pp. 1158-1165. [10] I. Bloch, "Some aspects of DempsterShafer evidence theory for classification of multi-modality medical images taking partial volume effect into account," Pattern Recognition Letters, vol. 17, pp. 905 919 1996. [11] S. L. H´egarat-Mascle, et al., "Application of Dempster–Shafer Evidence Theory to Unsupervised Classification in Multisource Remote Sensing," IEEE Transactions on Geoscience and Remote Sensing, vol. 35, pp. 1028-1037, 1997. [12] D. Preuveneers and Y. Berbers, "Quality Extensions and Uncertainty Handling for Context Ontologies," in In: Workshop on Context and Ontologies: Theory, Practice and Applications, Riva del Garda, Italy, 2006, pp. 62-64. [13] E. Cortes-Rello and F. Golshani, "Uncertain reasoning using the Dempster-Shafer method: an application in forecasting and marketing management," Expert Systems, vol. 7, pp. 9-18, 1990. [14] X. Guan, et al., "Study on Algorithms of Determining Basic Probability Assignment Function in DempsterShafer Evidence Theory " in International Conference on Machine Learning and Cybernetics, Kunming, China, 2008, pp. 121 - 126. [15] G. Shafer, A Mathematical Theory of Evidence,: Princeton University Press, 1976. [16] A. O. Boudraa, et al., "DempsterShafer’s Basic Probability Assignment DAFTAR PUSTAKA [1] M. Satyanarayaman, "Pervasive Computing : Vision Challenges," IEEE Personal Communications, vol. 8, pp. 10-17, August 2001. [2] M. Weiser, "The Computer of the 21st Century," IEEE Personal Communications, vol. 8, pp. 10-17, 1998. [3] M. Baldauf, et al., "A Survey on ContextAware Systems," Int. Journal Ad Hoc and Ubiqitous Computing, vol. 2, pp. 263-277, 2007. [4] A. K. Dey, et al., "A Context-based Infrastructure for Smart Environments," in Proceedings of the 1st International Workshop on Managing Interactions in Smart Environments (MANSE '99), Dublin, Ireland, 1999, pp. 114-128. [5] A. Ranganathan and R. H. Campbell, "A Middleware for Context-Aware. Agents in Ubiquitous Computing Environments," in Proceedings of the ACM/IFIP/USENIX International Middleware Conference, Rio De Janeiro, Brazil, 2003, pp. 143-161. [6] R. Goldman. (2010, 3/4/2011). Using the SPOT Accelerometer. Available: http://www.sunspotworld.com/docs/AppNo tes/AccelerometerAppNote.pdf [7] T. Denoeux, "A k-Nearest Neighbor Classification Rule Based on Dempster-Shafer Theory," IEEE CI-50 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember [17] Based on Fuzzy Membership Functions," Electronic Letters on Computer Vision and Image Analysis vol. 4, pp. 1-9, 2004. SunLabs. (2008, 5/9/2011). Sun™ Small Programmable Object Technology (Sun SPOT) Theory of Operation. [18] CI-51 ISSN : 2302-7088 R. Goldman. (2007, 3/9/2010). Using the LIS3L02AQ Accelerometer. Available: http://www.sunspotworld.com/docs/A ppNotes/AccelerometerAppNote.pdf Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 IMPLEMENTASI SUPPORT VECTOR MACHINES UNTUK PENCARIAN INFORMASI BUKU DI PERPUSTAKAAN DAERAH BANDUNG PROVINSI JAWA BARAT Nelly Indriani Widiastuti, Riki Hidayat Teknik Informatika UNIKOM, Jl. Dipati Ukur no. 102-116 Bandung E-Mail: [email protected], [email protected] Abstrak Badan Perpustakaan dan Kearsipan Daerah (BAPUSIPDA) adalah lembaga perpustakaan daerah ditingkat Provinsi Jawa Barat. Untuk memperoleh informasi buku yang diperlukan, pengunjung perpustakaan harus mengetahui identitas buku tersebut. Berdasarkan permasalahan tersebut perlu dikembangkan sistem pencarian informasi buku yang dapat menemukan informasi buku sesuai dengan kebutuhan pengunjung secara dinamis. Sistem tidak hanya terpaku kepada identitas buku seperti judul, pengarang, penerbit, dan lain-lain, melainkan gambaran kebutuhan pengunjung terhadap buku. Selain itu, pengunjung juga dapat menentukan relevan atau tidaknya informasi buku sebagai feedback untuk sistem agar sistem bisa menemukan informasi buku yang lebih relevan menurut pengunjung. Sistem ini dibangun dengan mengimplementasikan metode vector space model dan support vector machines. Hasil penelitian dapat disimpulkan bahwa sistem pencarian informasi buku mempermudah pengunjung untuk mencari informasi buku yang dibutuhkan. dapat Kata kunci : sistem pencarian informasi buku, vector space model, support vector machines Abstract Badan Perpustakaan dan Kearsipan Daerah (BAPUSIPDA) is the local library level, West Java Province. To obtain the necessary information books, library patrons visitors have to know the identity of the book. Based on these problems, books information retrieval systems must be developed that can find information about the books that fit the needs of visitors dynamically. System, not only identity of the book such as title, author, publisher, etc., but the picture of the needs of visitors to the book. In addition, visitors can also determine whether or not the information relevant to the user as a feedback to the system so that the system can find the book more relevant information by visitors. The system is built by implementing methods of vector space model and support vector machines. The research concluded that information retrieval systems to facilitate visitor books to find the information needed books. Keyword : books Information Retrieval System, vector space model, support vector machines perpustakaan daerah tersebut sudah mencapai kurang lebih 180.000 eksemplar per tanggal 18 April 2012. Meskipun demikian dari sekian banyaknya jumlah buku yang ada di perpustakaan tersebut tetap masih belum bisa memenuhi kebutuhan masyarakat. Untuk memperoleh buku yang diperlukan seseorang dapat datang langsung ke perpustakaan. Tetapi berdasarkan hasil wawancara terhadap beberapa pengunjung perpustakaan dapat disimpulkan bahwa untuk PENDAHULUAN Perpustakaan adalah salah satu tempat untuk memperoleh ilmu dengan cara yang sangat murah. Pengunjung hanya perlu mendaftarkan diri untuk dapat meminjam beberapa buku dengan nyaris tanpa biaya. Badan Perpustakaan dan Kearsipan Daerah (BAPUSIPDA) adalah perpustakaan daerah Bandung JawaBarat. Saat ini jumlah buku di CI-52 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember mencari informasi buku yang diinginkan, hanya sedikit pengunjung yang sudah mengetahui identitas buku (judul, pengarang, subjek, dan lain-lain). Kebanyakan pengunjung justru tidak mengetahui informasi yang cukup tentang identitas buku yang akan dicari melainkan hanya mengetahui gambaran akan kebutuhannya mengenai informasi yang dibutuhkan terhadap buku. Sistem pencarian yang ada di perpustakaan tidak dapat memecahkan solusi untuk permasalahan yang sudah dipaparkan sebelumnya karena masukan terhadap sistem masih sangat spesifik yaitu judul dan penulis buku tersebut. Berdasarkan uraian masalah tersebut perlu dikembangkan sistem pencarian informasi buku yang dapat menemukan informasi buku sesuai dengan gambaran kebutuhan pengunjung yang dinamis. ISSN : 2302-7088 dengan kegiatan pengguna menentukan query yang sesuai dengan informasi yang diinginkan. Logical view adalah representasi dokumen dalam bentuk koleksi keseluruhan kata-kata yang dikandungnya. Efektifitas dengan logical view dimana sistem harus dapat mereduksi kata yang disimpan dan mentransformasi logical view dari full text menjadi bentuk indeks. Hal ini dilakukan dengan meng-eliminasi stoplist (kata-kata yang terlalu umum seperti kata sandang, kata sambung, kata ganti, dll) dan melakukan proses stemming (pengubahan bentuk imbuhan ke bentuk dasar). Lebih jauh lagi adalah penggunaan metode-metode kompresi teks. Information Retrieval System (IRS) Information Retrieval (IR) atau pencarian informasi dapat didefinisikan sebagai upaya untuk menemukan materi atau dokumen yang sifatnya tidak terstruktur (misalnya teks) yang memenuhi kebutuhan informasi dari jumlah data yang sangat besar dalam sebuah sistem. Salah satu pengertian IR menurut Bill Frakes dan Ricardo Yates[1] adalah "sub bidang dari ilmu komputer yang mempelajari tentang pengumpulan data dan temu kembali dokumen". Dalam perkembangan selanjutnya IR dikembangkan menjadi automated IR systems yang menangani temu kembali data secara otomatis dalam jumlah data yang besar. Tujuan dari sistem IR adalah memenuhi kebutuhan informasi pengguna dengan me-retrieve semua dokumen yang mungkin relevan, pada waktu yang sama me-retrieve sesedikit mungkin dokumen yang tidak relevan. Sistem IR yang baik memungkinkan pengguna menentukan secara cepat dan akurat apakah isi dari dokumen yang diterima memenuhi kebutuhannya. Agar representasi dokumen lebih baik, dokumen-dokumen dengan topik atau isi yang mirip dikelompokkan bersamasama [2]. Keefektifan dari temu kembali informasi yang diinginkan tergantung pada dua hal mendasar yaitu perilaku pengguna dan logical view. Perilaku pengguna berhubungan Gambar 1. Arsitektur IRS[3] Proses yang ada didalam IRS dapat dilihat pada Gambar 1. Secara umum proses IRS adalah preprocessing, indexing, searching dan ranking. Vector Space Model (VSM) VSM adalah model sistem temu balik informasi yang mengibaratkan masingmasing query dan dokumen sebagai sebuah vektor n-dimensi. Tiap dimensi pada vektor tersebut diwakili oleh satu term. Term yang digunakan biasanya berpatokan kepada term yang ada pada query, sehingga term yang ada pada dokumen tetapi tidak ada pada query biasanya diabaikan. Secara umum prosedur VSM dibagi menjadi tiga tahap [4]. 1. Document indexing yaitu kumpulan term yang telah diekstrak dari teks dokumen. 2. Weighting yaitu pembobotan dari term yang sudah di-indeks untuk meningkatkan kualitas pencarian. CI-53 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 3. Ranking document berdasarkan tingkat kemiripan antara query dengan dokumen. ISSN : 2302-7088 ini, SVM berusaha untuk menemukan hyperplane (pemisah/classifier) yang optimal yang bisa memisahkan dua set data dari dua kelas yang berbeda. Dalam hal ini fungsi pemisah yang dicari adalah fungsi linier. Fungsi ini bisa didefinisikan sebagai g(x) := sgn(f(x)) dengan f(x) = wT x + b. Teknik SVM berusaha menemukan fungsi hyperplane terbaik diantara fungsi yang tidak terbatas jumlahnya untuk memisahkan dua macam obyek. Hyperplane terbaik adalah hyperplane yang terletak di tengah-tengah antara dua set obyek dari dua kelas. Mencari hyperplane terbaik ekuivalen dengan memaksimalkan margin atau jarak antara dua set objek dari kelas yang berbeda. Untuk menentukan hyperplane-pendukung (supporting hyperplane) dari kelas +1 (wx1 + b = +1) digunakan rumus (1) dan rumus (2) untuk menentukan hyperplane-pendukung dari kelas -1(wx2 + b = -1) wx1 + b = +1 (1) (2) wx2 + b = -1 Margin antara dua kelas dapat dihitung dengan mencari jarak antara kedua hyperplane-pendukung dari kedua kelas. Rumus (3) digunakan untuk menghitung margin. (wx1 + b = +1) - (wx2 + b = -1) (3) = w(x1 – x2 ) = 2 < = " −" ‖<‖ = ‖<‖ Gambar 2. Vector Space Model[5] Contoh dari model ruang vektor tiga dimensi untuk dua dokumen D1 dan D2, satu query pengguna Q1, dan tiga term T1, T2 dan T3 diperlihatkan pada gambar 2. Support Vector Machines (SVM) Rancangan dasar dari sistem IR dapat ditingkatkan untuk menaikkan presisi dan recall serta memperbaiki matriks termdocument. Isu pertama sering diselesaikan menggunakan mekanisme relevance feedback. Beberapa term ditambahkan ke dalam query awal agar dapat menemukan dokumen yang lebih relevan. Relevance feedback dapat dikerjakan secara manual maupun otomatis. Pada pendekatan manual, pengguna mengidentifikasi dokumen yang relevan dan term baru dipilih secara manual atau otomatis. Pada pendekatan otomatis, dokumen relevan diidentifikasi menggunakan dokumen yang berada di rangking paling atas, kemudian term-term baru dipilih secara otomatis. Takashi Onoda, dkk dalam penelitiannya yang berjudul Relevance Feedback Document Retrieval using Support Vector Machines, telah berhasil melakukan peningkatan kualitas pencarian dengan memodifikasi vektor query. Support Vector Machines (SVM) adalah suatu teknik yang relatif baru (1992) untuk melakukan prediksi, baik dalam kasus klasifikasi maupun regresi, yang sangat populer belakangan ini. SVM berada dalam satu kelas dengan Artificial Neural Network (ANN) dalam hal fungsi dan kondisi permasalahan yang bisa diselesaikan. Keduanya masuk dalam kelas supervised learning. SVM selalu mencapai solusi yang sama untuk setiap running. Dalam teknik Gambar 3 memperlihatkan bagaimana SVM bekerja untuk menemukan suatu fungsi pemisah dengan margin yang maksimal. Dengan memperbesar margin bisa meningkatkan probabilitas pengelompokkan suatu data secara benar. ANALISA KEBUTUHAN DATA Sistem yang dikembangkan adalah sistem pencarian hanya jika data pencarian tersedia. Data pencarian adalah identitas buku, dalam penelitian ini data yang dibutuhkan berupa judul, pengarang dan deskripsi. CI-54 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 ditampilkan dari hasil pencarian, setelah itu sistem akan mengklasifikasikan seluruh data buku yang terdapat dalam database kedalam kategori relevan dan tidak relevan. Data buku yang ditampilkan adalah data buku yang masuk dalam kategori relevan. Proses pengolahan data, khusus digunakan oleh operator untuk melakukan proses pengolahan (tambah, ubah, lihat detail, cari, dan hapus) data buku, pengolahan (tambah dan ubah) data golongan, dan melakukan optimisasi pada sistem pencarian. Gambar 4. Berikut ini adalah gambaran dari aktivitas sistem pencarian informasi buku : Gambar 3. Mencari Fungsi Pemisah Optimal yang dapat Memisahkan Data Secara Linear[6] Pengunjung Berdasarkan hasil analisa beberapa golongan buku, maka diperoleh karakteristik teks dari data buku yang perlu diperhatikan adalah sebagai berikut : a. Bahasa Terdapat beragam bahasa yang digunakan dalam buku yang ada di perpustakaan. Pada penelitian ini data buku yang digunakan merupakan data buku dengan teks berbahasa Indonesia dan bahasa Inggris. b. Deskripsi Buku Untuk mendapatkan deskripsi buku, dapat dilihat dari cover belakang buku. Alternatif lain yang bisa dijadikan deskripsi buku yaitu kata pengantar atau daftar isi dari data buku. c. Jenis Kata Terdapat beragam jenis kata yang ada data buku, yaitu : 1) kata sesuai EYD, 2) kata yang biasa digunakan sehari-hari, 3) kata berimbuhan, 4) kata dasar Sistem Masukkan Query Mencari dan Memberi Peringkat Data Buku Berdasarkan Ukuran Kemiripan Cek Data Buku yang Relevan Menampilkan Maksimal 10 Informasi Buku dengan Ukuran Kemiripan Tertinggi Mengklasifikasi Seluruh Data Buku Berdasarkan Hasil Cek Pengunjung Menampilkan Informasi Buku Hasil Klasifikasi Gambar 4. Aktivitas Pencarian Informasi Buku Analisa Keyword Keyword yang dimaksud dalam penelitian ini adalah data buku yang merupakan gabungan dari judul, pengarang dan deskripsi buku yang sudah mengalami proses tokenizing, filtering dan stemming. Metode stemming yang digunakan dalam penelitian ini adalah Nazief & Adriani. Setiap data buku mempunyai keyword-nya masingmasing yang akan digunakan sebagai poros data untuk proses pencarian informasi buku. Gambar 5. adalah gambaran proses pembuatan keyword. Setelah keyword diperoleh, selanjutnya adalah tahapan yang ada dalam VSM yaitu 1. Memberikan bobot pada keyword. Pembobotan adalah proses merubah ANALISA PROSES Sistem dibagi menjadi dua proses penting, yaitu proses pencarian dan proses pengolahan data. Proses pencarian dapat digunakan oleh pengunjung untuk melakukan proses pencarian informasi buku dan lihat deskripsi dari buku itu sendiri. Proses pencarian dalam penelitian ini adalah proses pencarian dinamis, dimana pengguna juga dapat menentukan sesuai atau tidak nya query dengan informasi buku yang CI-55 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 2. 3. 4. 5. keyword dan query menjadi bentuk vektor. Normalisasi Mengukur kemiripan yang dilakukan suatu perhitungan untuk mendapatkan ukuran kemiripan antara dokumen dengan query. Ukuran ini hasil pengukuran kemiripan digunakan untuk perankingan dokumen sesuai dengan kemiripan relevansinya terhadap query. Terakhir, sejumlah maksimal 10 dokumen, ditampilkan kepada pengunjung[7]. Operator relavan. Maka, satu set input-output data dalam pelatihan bisa dilihat di tabel 1. Tahap selanjutnya yaitu melakukan kernelisasi menggunakan fungsi polynomial kernel pangkat 2 yang didefinisikan sebagai K(xi , xi ) = (xi + xi’+12 ). Tabel 1. Data Latih x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 x11 x12 x13 x14 x15 y Si stem Masukan Data Buku ISSN : 2302-7088 Cek Isi Data [Ada Fi el d Kosong] [T i dak Ada Fi el d Kosong] Si mpan Data Buku D1 0,208 0,564 0,564 0,564 0 0 0 0 0 0 0 0 0 0 0 1 D2 0 0 0 0 0,408 0,408 0,408 0,408 0,408 0,408 0 0 0 0 0 1 D3 0,163 0 0 0 0 0 0 0 0 0 0,441 0,441 0,441 0,441 0,441 -1 Analisa Klasifikasi T okenisasi dan Hapus Stopword Takashi Onoda, dkk[9], mengusulkan penggunaan SVM sebagai pengklasifikasian dokumen dengan tahaptahap berikut ini : 1. Inisialisasi Pencarian Hasil pencarian ini diperoleh dari metode VSM dengan cara menampilkan N peringkat teratas dokumen yang memiliki kemiripan terhadap query. 2. Penilaian Dokumen oleh Pengguna Pengguna mengevaluasi N peringkat teratas dokumen dan mengklasifikasi dokumen tersebut ke dalam dokumen relevan atau tidak relevan. Setelah pengguna selesai mengevaluasi, relevan dokumen dan dokumen yang tidak relevan diberi label +1 dan -1. 3. Penentuan Optimal Hyper-plane Optimal hyperplane untuk mengklasifikasikan relevan dan tidak relevan suatu dokumen dihasilkan oleh metode SVM. 4. Diskriminasi Dokumen dan Pencarian Informasi Dokumen yang diperoleh dari langkah 1 dipetakan ke dalam ruang fitur, SVM mengklasifikasikan dokumen-dokumen tersebut sebagai dokumen yang relevan Stemming Si mpan Keyword Menampil kan Pesan Konfi rmasi Gambar 5. Pembuatan Keyword Analisa Pelatihan Pada proses pelatihan SVM bertujuan untuk menemukan vektor α dan konstanta b. Dalam proses pelatihan dibutuhkan satu set input-output data atau dalam kasus ini dibutuhkan dokumen relevan dan dokumen tidak relevan dimana penilaian relevan atau tidaknya suatu dokumen ditentutkan oleh pengguna. Dokumen-dokumen relevan diberi label 1 dan dokumen yang tidak relevan diberi label -1. Sebagai contoh kasus, digunakan dokumen-dokumen yang terdapat dalam contoh kasus VSM dan diasumsikan D1 dan D2 sebagai dokumen relevan menurut pengguna dan D3 sebagai dokumen tidak CI-56 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 5. dan tidak relevan. Kemudian sistem akan memilih dokumen-dokumen berdasarkan jarak optimal hyperplane dan margin area. Menampilkan Hasil Akhir dari Pencarian Dokumen yang didapat, di beri peringkat sesuai dengan jarak antara dokumen dengan fungsi pemisah hyperplane, dimana fungsi pemisah ini ditetapkan oleh SVM. Dokumen yang didapat di tampilkan berdasarkan peringkat. ISSN : 2302-7088 Untuk memperlihatkan hubunganhubungan yang terjadi antara aktor-aktor dengan usecase dalam sistem dapat dilihat pada gambar 6. Operator dalam usecase adalah petugas perpustakaan yang bertugas memperbarui data buku, Proses yang terjadi dalam pencarian informasi dalam sistem ini dapat dilihat pada gambar 7. Pengunjung ANALISA FUNGSIONAL Sistem Cek Query Masukan Query Mendefinisikan analisa kebutuhan fungsional dan operasional sistem dengan mendefinisikan skenario penggunaan aplikasi. Pada aplikasi ini yang akan bertindak sebagai aktor yaitu pengunjung dan operator. Operator berperan mengelola seluruh konten perangkat lunak. Pengunjung berperan dalam melakukan proses pencarian. Analisis yang dilakukan dimodelkan dengan menggunakan UML (Unified Modeling Language). Tahap-tahap pemodelan dalam analisa tersebut antara lain identifikasi aktor, use case diagram, skenario usecase, activity diagram, sequence diagram dan class diagram. Dalam jurnal yang ditampilan hanya usecase dan activity diagram. [tidak kosong] [kosong] Melakukan Proses Tokenization dan Filtering Menampilkan Pesan Kesalahan Melakukan Proses Stemming Hitung Bobot Query Baca Bobot Keyword [Data Buku] Hitung Similiarity Menampilkan Pesan Data T idak Ditemukan [Tidak Ditemukan] [Ditemukan] Menampilkan Informasi Buku Sistem Gambar 7. Pencarian Data Buku Pencarian Data Buku Lebih Lanjut Pencarian Berdasarkan Judul Buku Aktivitas pencarian data buku lebih lanjut pada gambar 8. Merupakan aktivitas Penyajian Deskripsi Tambah Data Buku <<include>> <<include>> <<include>> <<extend>> Ubah Data Buku <<include>> Hapus Data Buku <<include>> Login Pencarian Data Buku Pengunjung Operator <<include>> Tambah Data Golongan <<include>> <<include>> Ubah Data Golongan Optimisasi Sistem Pencarian Gambar 6. Use Case Diagram Sistem Pencarian Informasi Buku CI-57 pengunjung untuk menemukan informasi buku yang lebih relevan dengan cara memilih beberapa informasi buku hasil dari proses pencarian data buku yang relevan berdasarkan penilaian pengunjung. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Pengunjung Men checklist Beberapa Data Buku Relevan IMPLEMENTASI DAN PENGUJIAN Sistem Membaca Data Buku Relevan dan tidak Relevan [Data Buku] [Semua Relevan atau Tidak Relevan] ISSN : 2302-7088 [Beberapa Relevan] Membuat Data Latih Membuat Model File Menampilkan Pesan Kesalahan Melakukan Tes Pada Setiap Data Buku Menampilkan Hasil Klasifikasi Perangkat keras yang digunakan pada saat mengimplementasikan perangkat lunak dari Sistem Pencarian Informasi Buku di Perpustakaan Daerah Provinsi Jawa Barat adalah sebagai berikut : 1. Processor Intel(R) Core i3 2.1 GHz, 2. RAM 3GB, 3. VGA ATI Radeon HD 530v, 4. Hard Disk 320GB, 5. Monitor 14”, dan 6. Modem berkecepatan 153Kbps. Menghapus Hasil Tes Menghapus Data Lati h Menghapus Model Fi le Gambar 8. Pencarian Lebih Lanjut Aktivitas Optimisasi pada gambar 9. merupakan aktivitas operator untuk menghitung bobot dan normalisasi data buku serta membuat data tes untuk setiap data buku. Tahapan-tahapan aktivitas yang dilakukan pada saat optimisasi adalah : Operator File-file yang berhasil diimplementasikan terdiri dari file-file tabel yang dibuat denganSQL, file kelas metode dan file antarmuka. Pengujian perangkat lunak Sistem Pencarian Informasi Buku di Perpustakaan ini menggunakan dua data uji yaitu data buku dan data golongan. Pengujian dilakukan dengan metode Black Box untuk menguji fungsi-fungsi yang dapat dilihat pengguna. Metode Whitebox untuk menguji proses yang ada dalam metode SVM. Dari hasil pengujian proses klasifikasi yang dilakukan, maka didapat kesimpulan bahwa seluruh node yang ada pada setiap independent path telah dikerjakan , serta tidak terjadi pengulangan tak terhingga. Selain pengujian fungsional, respon pengguna juga diperlukan untuk mengetahui kepuasan pengguna terhadap sistem. Hasil dari pengujian beta dapat disimpulkan bahwa sistem pencarian informasi buku yang telah dibangun dapat membantu pengguna khususnya pengunjung perpustakaan untuk menemukan buku yang dibutuhkan, karena mudah untuk digunakan dan cukup cepat dalam proses pencarian. Sistem Menekan Tombol Optimisasi Cek Jumlah Data Buku [Data Buku] Menampilkan Pesan Kesalahan Perangkat lunak yang digunakan saat mengembangkan Sistem Pencarian Informasi Buku di Perpustakaan Daerah Provinsi Jawa Barat adalah sebagai berikut : 1. Sistem operasi Windows 7 Professional, 2. Bahasa pemrograman PHP 5.3.0, 3. Database MySQL Server 5.0.37, 4. Browser Maxthon 3.4.2.2000, 5. Macromedia Dreamweaver CS5, dan 6. UML Modeler Power Designer 12. [Jumlah = 0] [Jumlah > o] Membuat Index Menghitung Bobot Normalisasi Membuat Data Tes Gambar 9. Optimasi Sistem Pencarian CI-58 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 DAFTAR PUSTAKA [4] Larsen, Jan. 1998. Vector Space Model.http://cogsys.imm.dtu.dk/thor/proj ects/multimedia/textmining/node5.html. Diakses pada tanggal 4 Juni 2012. [1] Frakes, William B and Yates, Ricardo Baeza. Information Retrieval: Data Structures and Algorithms. 2004. [2] Murad, AzmiMA., Martin, Trevor.2007.Word Similarity for Document Grouping using Soft Computing. IJCSNS International Journal of Computer Science and Network Security, Vol.7 No.8, August 2007, pp.20-27. [5] Cios, Krzysztof J. Etc. Data Mining a Knowledge Discovery Approach, Springer. 2007. [3] Onoda T, Murata H , and Yamada S , Relevance feedback with active learning for document retrieval, in Proc. of IJCNN2003, pp. 1757–1762, 2003. [7] D. Harris, S. Behzad, G. C. David. Relevance Feedback using Support Vector Machines. AT&T Research. [6] Santosa. Budi. Tutorial Support Vector Machines. Institut Teknologi Sepuluh Nopember, Surabaya. CI-59 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember CI-007 (wahyu) CI-60 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember CI-008 (wahyu) CI-61 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 CASE-BASED REASONING UNTUK PENDUKUNG DIAGNOSA GANGGUAN PADA ANAK AUTIS Yanuar Nurdiansyah Program Studi Sistem Informasi Universitas Jember E-mail: [email protected] Abstrak Permasalahan anak autis dalam dunia kedokteran dan psikologi menjadi momok bagi orangtua yang mempunyai anak penderita autis. Orangtua kadang tidak tahu kalau anaknya mengalami gangguan autis, sehingga untuk mengetahui gangguan autis seorang anak dibutuhkan suatu sistem cerdas yang menyerupai pakar dalam bentuk penalaran berbasis kasus atau CBR (Case-Based Reasoning). Penelitian ini bertujuan untuk membangun suatu sistem CBR untuk melakukan diagnosa awal gangguan autis pada anak dengan melihat ciri-ciri gejala yang ada pada anak tersebut. Proses diagnosa dilakukan dengan cara memasukkan kasus baru yang berisi gejala-gejala penyakit, kemudian sistem akan melakukan proses similarity antara kasus baru dengan kasus-kasus yang sudah tersimpan di dalam basis-data sistem. Kasus yang diambil adalah kasus dengan nilai similarity yang paling tinggi. Jika suatu kasus tidak berhasil didiagnosa, maka akan dilakukan revisi kasus oleh pakar psikolog. Kasus yang berhasil direvisi akan disimpan ke dalam sistem untuk dijadikan pengetahuan baru (fresh knowlegde) bagi sistem. Hasil penelitian menunjukkan sistem CBR untuk mendiagnosa gangguan autis pada anak ini membantu psikolog atau paramedis hanya dalam melakukan diagnosa awal. CBR memberikan kemudahan dalam melakukan diagnosis serta dapat beradaptasi dengan mudah dan cepat karena pengetahuan dan pembelajaran dibuat dalam bentuk kasus-kasus. Kata Kunci : Penalaran Berbasis Kasus, Gangguan Autis. Abstract Autistic problems in medicine and psychology a scourge for parents who have autistic children. Parents sometimes do not know if her son had autistic disorder, so do not know how to find and how to overcome them, so to know that autism disorders are experienced by a child needs an intelligent system that resembles the expert in the form of CBR (Case-Based Reasoning). This research tries to build CBR system to make early diagnosis of autism disorders in children by looking at the characteristics of the existing symptoms of the child. Diagnostic process is done by entering a new case that contains symptoms to be diagnosed with the disease into the system, then the system will perform the similarity between the new case with the cases is already stored in the data-base system. The case taken is the case with the value of the highest similarity. If a case is not successfully diagnosed, then the case will be revised by an expert psychologist. Revised successful cases will be stored into the system to become the new knowledge for the system. The results showed CBR system to diagnose disorders in children with autism is to help psychologists or paramedical only in conducting initial diagnosis, CBR to facilitate in making a diagnosis and can adapt easily and quickly because knowledge and learning made in the form of cases Key words : Case-Based Reasoning, Autism Disorder. CI-62 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 mendukung diagnosa gangguan pada anak autis berdasarkan pada kasus-kasus yang mirip atau serupa yang telah disimpan di dalam basis data penyimpanan kasus sebelumnya dan menganjurkan solusi sesuai dengan kasus yang mirip yang ditemukan di dalam basis data penyimpanan kasus. Salah satu contoh implementasi CBR dalam bidang psikologi klinis dan kedokteran, yaitu Case-Base Reasoning untuk Pendukung Diagnosa Gangguan pada Anak Autis. Alasan perlu dibuatnya sistem CaseBased Reasoning untuk Pendukung Diagnosa Gangguan pada Anak Autis, yaitu: Pakar ataupun terapis untuk gangguan autis tidaklah terlalu banyak, disamping itu orang tua membutuhkan biaya yang relatif besar untuk berkonsultasi ke pakar serta untuk melakukan terapi pada anak. Pengguna (user-non expert) Sistem Penalaran Komputer Berbasis Kasus untuk Pendukung Diagnosa Gangguan pada Anak Autis ini dapat mengetahui gejala-gejala awal pada anak autis yang telah teridentifikasi serta mengetahui cara terapi yang sesuai untuk anak, sehingga diharapkan dapat mengurangi gejala-gejala yang ada. Autis merupakan gangguan perkembangan fungsi otak yang mencakup bidang sosial, komunikasi verbal (bahasa) dan non-verbal, imajinasi, fleksibilitas, lingkup minat, kognisi, dan perhatian yang merupakan suatu kelainan dengan ciri perkembangan terlambat atau abnormal dari hubungan sosial dan bahasa [1]. Gejala autis tampak sebelum anak mencapai usia tiga tahun. Pada sebagian anak, gejala gangguan perkembangan ini sudah terlihat sejak lahir. Kelainan perilaku tersebut terlihat dari ketidakmampuan si anak untuk berhubungan dengan orang lain. Seolah-olah mereka hidup dalam dunianya sendiri. Kelainan ini bagi orang awam dalam hal ini orang tua, sangatlah susah untuk diketahui dengan cermat antara anak yang menderita autis atau tidak [2]. PENGANTAR Latar Belakang Seiring dengan perkembangan teknologi komputer dan kebutuhan manusia akan informasi yang cepat dan akurat, para ahli merasa tertantang untuk membuat komputer yang mampu melakukan hal-hal seperti yang dapat dilakukan oleh manusia. Para ahli mencoba untuk menggantikan sistem otak manusia, sehingga diharapkan suatu saat nanti mungkin akan tercipta suatu komputer yang dapat menimbang dan mengambil keputusan sendiri sebagaimana layaknya manusia. Hasil kerja sistem komputer ini telah diakui lebih cepat, teliti, dan akurat dibandingkan dengan hasil kerja manusia. Hal inilah yang mendorong lahirnya teknologi AI (Artificial Intelligence). Bidang kecerdasan buatan mempunyai sub-sub bagian yang sub-sub bagian tersebut menangani masalah-masalah spesifik dan tidak jarang antara sub-sub bagian tersebut berkolaborasi untuk mendapatkan hasil yang optimal. Beberapa sub-sub bagian dari kecerdasan buatan diantaranya adalah sistem pakar (expert system), penalaran berbasis kasus (Case-Based Reasoning), pemrosesan bahasa alami (natural language processing), pengenalan pola (pattern recognition), penglihatan komputer (computer vision), jaringan syaraf tiruan (artificial neural network), robotika, dan lainnya. Case-Based Reasoning merupakan penalaran berbasis kasus yang bertujuan untuk menyelesaikan suatu permasalahan baru dengan cara mengadaptasi solusi-solusi yang terdapat kasus-kasus sebelumnya yang mirip dengan kasus baru. Kasus baru dicocokkan (matched) dengan kasus-kasus yang ada didalam basis data penyimpanan kasus (case base) dan menemukan satu atau lebih kasus yang mirip. Solusi yang dianjurkan melalui pencocokan kasus kemudian digunakan kembali untuk kasus yang serupa. Jika kasus baru tidak ada yang cocok didalam database penyimpanan kasus, maka CBR akan menyimpan kasus baru tersebut (Retain) di dalam basis data pengetahuan. Implementasi CBR dapat digunakan dalam berbagai bidang yaitu psikologi klinis, kedokteran dan lainlain. Implementasi CBR di bidang psikologi klinis dan kedokteran dapat digunakan untuk Permasalahan Permasalahan yang diangkat dalam penelitian adalah bagaimana mendiagnosa awal terhadap gangguan autis pada anak serta saran terapi yang harus diberikan dengan melihat kasus-kasus pasien sebelumnya dengan menggunakan penalaran berbasis kasus (case-based reasoning), juga memberikan sudut pandang lain dalam mengembangkan CI-63 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember sistem untuk mendiagnosa gangguan yang selama ini di dominasi oleh sistem pakar berbasis aturan (rule-based expert system). ISSN : 2302-7088 CBR untuk mendukung diagnosa penyakit jantung yang dikembangkan oleh AbdelBadeeh M. Salem dan teman-temannya [7]. Mereka mengumpulkan 110 kasus untuk 4 jenis penyakit jantung (mitral stenosis, leftsided heart failure, stable angina pectoris dan essential hypertension), dimana setiap kasus mempunyai 207 atribut yang berhubungan dengan demografis dan data klinis. Setelah menghilangkan duplikasi kasus, sistem mempunyai 24 kasus untuk pasien penyakit jantung. Mereka menggunakan analisis statistik untuk menentukan fitur-fitur kasus dan nilai-nilai yang penting. Dua teknik retrieval yang dipakai yaitu induction retrieval dan nearest-neighbor retrieval yang masingmasing memberikan tingkat akurasi sebesar 53,8% untuk induction dan 100% untuk nearest-neighborhood. Ahli jantung telah mengevaluasi keseluruhan kinerja dari sistem tersebut, dimana sistem dapat memberikan diagnosis yang benar untuk 13 kasus baru. Usaha yang paling lama dalam membangun sistem CBR yaitu mengumpulkan kasus-kasus yang akan disimpan dalam case base. Jika dalam pengumpulan kasus terdapat kesulitan maka sistem CBR akan susah diterapkan [7]. Dalam proses pengumpulan kasus peranan seorang pakar sangat diperlukan, ini karena seorang pakar lebih mengetahui permasalahan dan solusi dari suatu kasus. Seorang pakar memiliki pengetahuan umum yang mereka peroleh dari buku-buku kedokteran ditambah lagi dengan pengalamanpengalaman mereka dalam menangani suatu kasus [7]. TINJAUAN PUSTAKA Case-Based Reasoning (CBR) merupakan suatu teknik pemecahan masalah yang mengadopsi solusi masalah-masalah sebelumnya yang mirip dengan masalah baru yang dihadapi untuk mendapatkan solusinya [3]. Kasus-kasus pada masa lalu disimpan dengan menyertakan fitur-fitur yang menggambarkan karakteristik dari kasus tersebut beserta solusinya. Penalaran berbasis kasus (Case-Based Reasoning) dikembangkan dari sistem pembelajaran berbasis kesamaan (similaritybased learning) [4]. CBR, secara sederhana merupakan sebuah sistem yang menggunakan pengalaman lama untuk dapat mengerti dan menyelesaikan masalah baru [5]. Beberapa kesulitan yang dihadapi dalam membangun sistem penalaran berbasis kasus diantaranya menentukan kesamaan kasus baru dengan kasus lama yang ada dalam data base penyimpanan kasus (case base), mencari efisiensi dari kasus-kasus yang sama, dan menyesuaikan solusi kasus lama dengan masalah kasus baru. Kesulitan-kesulitan yang dihadapi di atas menjadi tugas utama dalam pengembangan sistem penalaran berbasis kasus yaitu masalah kemiripan (similarity problem), klasifikasi (classification), dan adaptasi (adaptation). CBR mempunyai beberapa kelebihan yaitu CBR lebih efisien karena menggunakan pengetahuan lama dan mampu mengadaptasi pengetahuan baru, kemampuan untuk mendukung justifikasi dengan mengutamakan dari kasus lampau [4]. CBR tidak seperti sistem pakar yang selalu membangkitkan aturan-aturan setiap akan menyelesaikan masalah. Dalam dunia nyata, ketika terdapat suatu problem orang biasanya melihat kesamaan problem tersebut dengan problem yang pernah ditangani. Jika terdapat kesamaan atau kemiripan maka akan digunakan pengalaman dari problem yang lama untuk menyelesaikan problem yang baru dengan sedikit adaptasi yang cocok dengan kondisi problem yang baru tersebut [6]. Aplikasi CBR di bidang medis telah banyak dikembangkan, diantaranya adalah METODE PENELITIAN Data yang akan dijadikan case base adalah Data-data kasus yang diambil dari Sekolah Khusus Autis Fajar Nugraha, Yogyakarta. Terdapat 27 gejala Autis dengan tiga jenis Nama Penyakit. Kasus yang dimasukan ke dalam case-base sebanyak 27 buah kasus dengan tiga kelas Nama Penyakit, Kriteria berdasarkan jenis autis terbagi atas autis ringan, autis sedang, dan autis berat. Teknik retrieval yang digunakan dalam penelitian ini adalah teknik Nearest Neighbor. Nearest Neighbor adalah pendekatan untuk mencari kasus dengan menghitung kedekatan antara kasus baru dengan kasus lama, yaitu berdasarkan pada pencocokan bobot dari sejumlah fitur yang ada [4]. Ide dasar dari CI-64 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember teknik ini adalah membandingkan setiap atribut-atribut target case dengan atributatribut source case yang ada dalam case-base, kemudian perbandingan tersebut dihitung dengan menggunakan fungsi similarity. Solusi dari source case akan dipromosikan untuk menjadi solusi dari target case jika nilai source case yang dibandingkan sama atau hampir sama dengan nilai target case. Berikut ini fungsi similarity yang digunakan dalam penelitan ini [8]. Hasil diagnosa gangguan pada anak autis ditentukan berdasarkan gejala-gejala yang diderita oleh anak sehingga gejala-gejala penyakit akan dijadikan fitur-fitur yang akan dicari similarity-nya. Fungsi f(Ti , Si) didefinisikan bahwa jika fitur target case ke-i bernilai sama dengan fitur source case ke-i maka fungsi akan bernilai 1, sebaliknya jika tidak sama fungsi akan bernilai 0. Seorang anak hanya mempunyai dua hubungan dengan gajala yaitu memiliki gejala (disimbolkan dengan angka 1) atau tidak memiliki gejala (disimbolkan dengan angka 0). Revisi merupakan bagian dari adaptasi sistem terhadap kasus yang belum berhasil didiagnosa. Revisi kasus dilakukan oleh seorang pakar. Kasus tersebut disimpan untuk menunggu revisi pakar. Pakar akan merevisi nama penyakit berdasarkan gejala-gejala yang ada dalam kasus. n Sim ( S , T ) = ∑ f ( Si , Ti ) * wi i=1 (1) n ∑ ISSN : 2302-7088 wi i=1 Dimana: T adalah kasus baru S adalah kasus yang ada dalam penyimpanan n adalah jumlah atribut dalam masing-masing kasus i adalah jumlah atribut dalam masing-masing kasus f adalah fungsi similarity atribut i antara kasus T dan kasus S wi adalah bobot yang diberikan pada atribut ke-i HASIL DAN PEMBAHASAN Tahap awal dari penggunaan sistem adalah proses pengisian case-base. Data-data kasus yang akan dimasukan ke dalam casebase diambil dari Sekolah Khusus Autis Fajar Nugraha, Yogyakarta. Terdapat 27 gejala Autis dengan tiga jenis Nama Penyakit. Kasus yang dimasukan ke dalam case-base sebanyak 27 buah kasus dengan tiga kelas Nama Penyakit. Setiap gejala Penyakit dapat memiliki bobot. Pembobotan diperlukan untuk menentukan tingkat signifikansi gejala terhadap penyakit. Nilai bobot yang diberikan adalah antara 1 sampai dengan bobot maksimum masing-masing fitur. Pengisian bobot dilakukan pada saat memasukan gejala autis yang dilakukan oleh seorang pakar. Proses diagnosa dapat dilakukan ketika sudah melalui proses pemeriksaan awal. Proses pemeriksaan awal digunakan untuk menentukan apakah anak tergolong anak autis atau tidak. Diagnosa penyakit dilakukan dengan cara memasukan gejala-gejala kasus yang akan didiagnosa. Ketika gejala autis dimasukan, sistem secara otomatis akan mencari kasus-kasus yang memiliki kemiripan berdasarkan gejala penyakit yang telah dimasukkan. Kasus-kasus yang mirip dapat dimasukan ke dalam urutan jika nilai similarity-nya lebih besar atau sama dengan 0.50 (nilai treshold). Nilai Similarity berada Kedekatan biasanya berada pada nilai antara 0 s/d 1. Nilai 0 artinya kedua kasus mutlak tidak mirip, sebaliknya untuk nilai 1 kasus mirip dengan mutlak. Fungsi f(Ti ,Si) didefinisikan sebagai berikut : 1 ; Ti = Si f(Ti , Si) = 0 ; Ti ≠ Si (2) Berdasarkan fungsi similarity di atas, setiap target case (disimbolkan dengan huruf T) akan dicocokkan dengan source case yang ada dalam case base (disimbolkan dengan huruf S) simbol n merupakan jumlah total fitur. Nilai similarity antara target case dengan source case didapat dari fungsi f(Ti,Si) dikali dengan bobot fitur. Pembobotan digunakan untuk memberikan nilai penting suatu gejala terhadap penyakit. Nilai bobot yang diberikan adalah antara 1 sampai dengan bobot maksimum masing-masing fitur. Semakin besar nilai similarity yang diperoleh maka akan semakin besar peluang source case untuk dijadikan solusi bagi target case. Nilai similarity maksimal adalah 1 dan nilai minimalnya adalah 0. CI-65 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember antara 0 sampai 1. Urutan kasus yang mirip akan terus berubah-ubah seiring dengan dimasukannya gejala penyakit baru. Kasus yang tidak berhasil didiagnosa akan diadaptasi oleh sistem dengan cara melakukan revisi kasus. Ada dua kondisi revisi kasus: pertama, kasus yang didiagnosa tidak mempunyai kemiripan sama sekali dengan kasus-kasus yang ada dalam case-base.Kedua, kasus memiliki kemiripan dengan kasus yang ada dalam case-base tetapi memiliki nilai similiarity di bawah 0.50, sehingga derajat kepercayaan terhadap kasus hasil diagnosa tidak terlalu besar. 2. 3. 4. Uji coba sistem dilakukan dengan cara mendiagnosa sebanyak 20 kasus dengan nilai treshold sebesar 0,6. Gambar 1 menunjukkan similarity kasus-kasus yang diuji. Hasil uji coba menunjukan bahwa tingkat akurasi sistem sebesar 90%. Dari 20 kasus terdapat dua kasus yang nilainya di bawah 0,7 yaitu pada kasus nomor 6 dan kasus nomor 12 sehingga sistem menganggap diagnosa tidak terlalu akurat. 5. 6. HASIL UJI COBA KASUS S IM IL A R IT Y 1,2 1 0,8 0,6 0,4 7. 0,2 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 KASUS Gambar 1. Hasil Uji Coba Kasus KESIMPULAN DAN SARAN Berdasarkan hasil pengujian sistem CaseBased Reasoning untuk pendukung diagnosa gangguan pada anak autis dapat ditarik beberapa kesimpulan dan saran. Kesimpulan 1. Nilai similarity berada antara 0 dan 1. Nilai 0 menunjukan bahwa source case tidak ada yang cocok dengan target case. Nilai diantaranya menunjukan ada kemiripan antara source case dengan target case dan nilai 1 menunjukan bahwa ISSN : 2302-7088 source case sama dengan target case. Gejala-gejala penyakit dibuat sebagai fitur dan mempunyai nilai 0 atau 1. Nilai 0 menandakan bahwa gejala tidak dimiliki oleh penyakit dan nilai 1 menandakan bahwa gejala dimiliki oleh penyakit. Pembobotan digunakan untuk memberikan nilai penting suatu gejala terhadap penyakit. Nilai bobot yang diberikan adalah antara 1 sampai dengan bobot maksimum masing-masing fitur. Pada saat proses similarity antara source case dengan target case sistem akan menampilkan kemungkinan kasus-kasus yang mempunyai nilai similarity yang lebih besar atau sama dengan 0.50. Ada dua kondisi revisi kasus: pertama, kasus yang didiagnosa tidak mempunyai kemiripan sama sekali dengan kasuskasus yang ada dalam case-base.Kedua, kasus memiliki kemiripan dengan kasus yang ada dalam case-base tetapi memiliki nilai similiarity dibawah 0.90, sehingga derajat kepercayaan terhadap kasus hasil diagnosa tidak terlalu besar. Kondisi dimana ada lebih dari satu kasus yang memiliki nilai similarity yang sama diatasi dengan menggunakan voting kasus yaitu dengan cara mencari similarity kasus target dengan kelas kasus yang memiliki nilai similarity yang sama. Total dari similarity kelas akan menentukan kelas mana yang akan dipilih. Sistem ini dapat membantu Psikolog maupun orang tua dalam mendiagnosa awal gejala penyakit autis yang diderita oleh anak. Saran 1. Dewasa ini penggunaan fitur-fitur sudah banyak digunakan, seperti menggunakan citra atau gambar sebagai indeks similarity kasus sehingga input yang digunakan untuk mendiagnosa kasus berupa sebuah citra. Similarity dihitung dengan melibatkan fitur-fitur yang dimiliki citra tersebut. Diharapkan nantinya sistem dapat menggunakan citra rekam otak untuk tambahan input dalam mendiagnosa awal gejala penyakit autis. 2. Diharapkan nantinya ada sistem yang dapat memasukan alat-alat tes seperti Autism Diagnostic Interview Revised (ADI-R) Kit, Autism Diagnostic Observation Schedule CI-66 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 3. (ADOS), Autism Social Communications Questionnare (SCQ), Autism Test sehingga dapat membantu psikolog dalam mendiagnosa gejala autis dengan biaya yang lebih murah. ISSN : 2302-7088 [5] Swoboda, W., Zwiebel, F.M., Spitz, R., and Gierl, L. (1994), “A case-based consultation system for postoperative management of liver-transplanted patients”, Proceedings of the 12th MIE Lisbon, IOS Press, Amsterdam, pp. 191195. [6] Qu, Rong, 2002, “Case-Based Reasoning for Course Timetable Problems”, Thesis submitted to the University of Nottingham for the degree of Doctor of Philosofy [7] Salem, Abdel-Badeeh M., Mohamed Roushdy, Rania A HodHod, 2004, “A Case-based expert system for supporting diagnosis of heart diseases”. The International Journal of Artificial Intelligence and Machine Learning, December 2004, Vol.05. [8] Ong L.S., Sheperd B., Tong. L.C., SeowChoen F., Ho Y.H. “The Colorectal Cancer Rec urrence Support (CARES) System” Artificial Intelligence in Medicine, Vol. 11(3), pp 175-188, 1997 DAFTAR PUSTAKA [1] Lumbantobing, S.M., 2001, Anak Dengan Mental Terbelakang, Balai Penerbit Fakultas Kedokteran Universitas Indonesia, Jakarta. [2] Yusuf, E.A., 2003, Autisme: Masa Kanak, http://www.library.usu.ac.id/modules. php diakses tanggal 21 Januari 2008 [3] Riesbeck, C. dan Schank, R., 1989, “Inside case-based reasoning”, Lawrence Erlbaum,NJ. [4] Watson, Ian., 1997, “Applying Case-Based Reasoning: Techniques for Enterprise Systems”, Morgan Kaufmann Publisher Inc., San Franscisco, California. CI-67 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 PENENTUAN LIRIK LAGU BERDASARKAN EMOSI MENGGUNAKAN SISTEM TEMU KEMBALI INFORMASI DENGAN METODE LATENT SEMANTIC INDEXING (LSI) Yuita Arum Sari (1), Achmad Ridok, Marji (2) 1)Teknik Informatika, Institut Teknologi Sepuluh Nopember (ITS), Surabaya 2)Program Teknik Informatika dan Ilmu Komputer, Universitas Brawijaya (UB), Malang E-mail: [email protected], [email protected], [email protected] Abstrak Lirik lagu merupakan salah satu elemen yang paling berpengaruh dalam menentukan emosi. Jika dibandingkan dengan elemen yang bersifat audio, representasi makna yang menggambarkan emosi, tampak lebih kuat dalam lirik lagu. Fokus penelitian ini terletak pada lirik lagu yang sifatnya berupa teks, dan dapat diselesaikan dengan proses text mining. Pada paper ini, sistem temu kembali informasi yang digunakan untuk menentukan lirik lagu adalah Latent Semantic Indexing (LSI). Teknik dalam LSI mengadopsi proses matematis reduksi dimensi Singular Value Decomposition (SVD). Walaupun dimensi data direduksi, proses tersebut tidak mengganggu keterkaitan makna antara lirik lagu pada corpus dan query. Pada masing-masing lirik lagu dalam corpus dan query, diberi label emosi secara otomatis yaitu, label religius, sedih, marah, semangat, takut, dan cinta. Sistem akan menentukan relevansi berdasarkan kecocokan label emosi antara query dan corpus. Sistem dikatakan dapat bekerja dengan baik, ditunjukkan dengan adanya hasil pengujian berupa nilai Mean Average Precision (MAP) pada masing-masing k-rank 300, 200, 100, 50, dan 10 mendekati nilai 1. Kata kunci : Information Retrieval, Latent Semantic Indexing, Singular Value Decomposition, Natural Language Processing, Text Mining Abstract Song lyrics is one of the most influential elements in determining emotion. Compared to audio, lyric can represent meaning of emotion deeper and stronger. This research focuses in song lyrics which use text and text mining can be implemented. In this paper, Latent Semantic Indexing was used as a technique to determine song lyrics. LSI technique adopts Singular Value Decomposition (SVD), which is a mathematics technique to reduce dimension. Although data dimension is reduced, this process does not affect meaning linkage of song lyrics in corpus and query. Each song lyric in corpus and query is labeled automatically with these categories: religious, sad, angry, cheer, fear, and love. This system will determine relevance based on emotion label match between query and corpus. The system run well and it was shown by the result of Mean Average Precision (MAP) in each k-rank 300, 200, 100, 50, and 10 which were almost 1. Keywords : Information Retrieval, Latent Semantic Indexing, Singular Value Decomposition, Natural Language Processing, Text Mining PENDAHULUAN Sistem temu kembali informasi merupakan salah satu teknik pencarian untuk mencari informasi yang relevan antara query dan corpus. [1]. Kasus yang paling sering banyak diteliti dalam proses sistem temu kembali adalah teks [2]. Lirik lagu merupakan salah satu betuk teks yang dapat digunakan sebagai objek dalam penelitian sistem temu kembali berdasarkan emosi. Dalam penentuan emosi, lirik lagu merupakan elemen yang memiliki makna yang paling kuat dalam menggambarkan emosi [3]. Pada sebuah dimensi data yang besar, dibutuhkan reduksi dimensi untuk mengurangi adanya proses CI-68 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember komputasi. Penelitian dilakukan oleh Kleedorfer, Knees, dan Pohle (2008) [3] menggunakan proses reduksi dimensi matriks Nonnegative Matrix Factorization (NMF), dan penelitian Samat, Murad, Abdullah dan Atan (2005) [4] menggunakan metode reduksi matriks Singular Value Decomposition (SVD) untuk proses clustering data. Pada penelitian Peter, Shivapratap, Dyva, dan Soman (2009) [5] melakukan analisis terhadap evaluasi SVD dan NMF untuk proses Latent Semantic Analysis (LSA) dan menyebutkan rata-rata nilai interpolated average precission SVD memiliki nilai lebih tinggi dibanding dengan menggunakan NMF dan Vector Space Model (VSM). Proses temu kembali dengan menggunakan konsep SVD disebut dengan LSI [5]. Pada penelitian ini, digunakan proses temu kembali LSI yang memanfaatkan reduksi dimensi SVD dengan menggunakan obyek lirik lagu berbahasa Indonesia dan mengabaikan bahasa yang sifatnya tidak resmi. Proses pengolahan yang pertama dilakukan adalah menggunakan teknik preprocessing pada text mining yang merupakan salah satu cabang ilmu dari Natural Language Processing (NLP). Dalam proses prepocessing, stemming yang digunakan menggunakan algoritma Nazief-Andriani, karena stemming tersebut mempunyai hasil kebenaran sekitar 93% [6]. Hasil numerik dari proses pembobotan setelah di-prepocessing diolah menggunakan Latent Semantic Indexing (LSI). Hasil dari sistem ini untuk mengetahui akurasi dari LSI dalam proses penentuan lirik lagu berdasarkan emosi. TINJAUAN PUSTAKA 2.1.Lirik Lagu Emosi dalam Menentukan Menurut Kamus Besar Bahasa Indonesia Online (KBBI online) lirik merupakan karya sastra (puisi) yang berisi curahan perasaan pribadi, atau susunan kata sebuah nyanyian, dan lagu merupakan ragam suara yang berirama. Lirik lagu merupakan salah satu komponen yang ada dalam musik, selain audio. Lirik lagu mempunyai makna emosi yang kental, karena jika menggunakan representasi audio saja terkadang kurang bisa mengetahui makna dari lagu tersebut, sehingga lirik digunakan untuk penelitian ini. CI - 69 ISSN : 2302-7088 2.2.Proses Temu Kembali Teks Proses temu kembali teks yang lebih dikenal dengan nama text information retrieval, merupakan sebuah teknik pencarian dengan menggunakan algoritma tertentu untuk mendapatkan hasil pencarian yang relevan berdasarkan kumpulan (corpus) informasi yang besar. Sebagian besar penggunaan sistem temu kembali adalah pada teks. Pengguna memasukkan kata kunci berupa teks, dan kemudian sistem mengolahnya hingga mendapatkan informasi semantik yang diinginkan oleh pengguna [1]. 2.3.Text Mining Teknik text mining merupakan sebuah teknik dimana data yang berupa teks dikumpulkan dan diolah, untuk dapat diidentifikasi dengan pola-pola tertentu . Proses text mining termasuk dalam salah satu bidang Natural Language Processing (NLP), karena di dalam text mining, teks akan diolah sehingga dapat dikomputasi dan dapat menghasilkan informasi yang relevan satu dengan yang lainnya. Pengolahan dalam teks mining tahap awal dikenal dengan nama preprocessing [7]. Teknik yang terdapat dalam preprocessing yaitu case folding, stopword removal, tokenizing, dan stemming. Case foding merupakan proses untuk membuat semua teks menjadi pola yang seragam (uppercase atau lowercase). Stopword removal menghilangkan kata-kata yang dianggap tidak mempunyai kata penting. Tokenizing atau teknik parsing digunakan untuk memecah kalimat menjadi kata-kata. Selanjutnya, katakata tersebut diolah sehingga hanya didapatkan kata-dasar saja. Teknik tersebut dinamakan dengan stemming. Stemming yang digunakan pada penelitian ini adalah algoritma Nazief-Andriani. 2.4.Inverted Index Inverted Index merupakan struktur data berbentuk matriks, yang digunakan untuk mempermudah dalam merepresentasikan banyaknya kata yang muncul dalam dokumen teks [7]. Tabel 1. Contoh penerapan inverted index Token berdiri nila panjat TF(i,j) Lirik1 1 0 0 Lirik2 0 0 0 Lirik3 0 0 1 Lirik4 0 0 0 Lirik5 0 1 0 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember dosa nyamai suci allah tunjuk lebur ribu tang tuk sahabat sehat dunia doa hadap teman malam genggam sejati indah ramadhan 0 0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 0 0 0 0 1 0 1 0 0 1 0 0 1 0 0 0 0 0 0 0 0 0 1 1 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 1 0 0 0 0 0 0 0 1 0 0 1 1 0 1 2 0 1 1 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 1 pada dokumen j, max tfi,j adalah frekuensi maksimum kata i pada dokumen j, D adalah banyaknya dokumen yang diinputkan/ banyaknya dokumen dalam corpus, dan dfi adalah banyaknya dokumen yang mengandung kata i. Pembobotan tersebut digunakan untuk pembobotan pada corpus. Pembobotan pada query dapat ditulis sebagai berikut : Q (4) 7ßà,& ‡ à,& +G.:RG.:∗ 2.5.Pembobotan TF-IDF ternormalisasi Terdapat tiga cara untuk menghitung nilai term frequency (TF), yaitu dengan menghitung frekuensi sebagai bobot, menghitung peluang kemunculan sebagai bobot (TF tanpa ternormalisasi), dan menghitung logaritma dari banyaknya kemunculan term (TF ternormalisasi). Dari ketiga fungsi tersebut , menurut Garcia [8], TF dengan normalisasi menghasilkan nilai pembobotan yang baik, karena dapat mengurangi efek panjang dari dokumen. TF ternormalisasi dihitung sebagai berikut [8] : ß (1) 7ß&,) &,) + ISSN : 2302-7088 yjz 7ßà,& " ABC 6ß& dimana Wi,j adalah bobot kata i pada dokumen j, fi,j adalah frekuensi ternormalisasi, tfi,j adalah frekuensi kata i pada dokumen j, max tfi,j adalah frekuensi maksimum kata i pada dokumen j, D adalah banyaknya dokumen yang diinputkan/ banyaknya dokumen dalam corpus, dan dfi adalah banyaknya dokumen yang mengandung kata i. 2.6.Singular Value Decomposition (SVD) Singular Value Decomposition (SVD) merupakan model matematis yang digunakan untuk reduksi dimensi data. Proses SVD dilakukan dengan mendekomposisi matriks menjadi tiga bagian [5], seperti pada gambar 1. yjz 7ß&,) dimana fi,j adalah frekuensi ternormalisasi, tfi,j adalah frekuensi kata i pada dokumen j, max tfi,j adalah frekuensi maksimum kata i pada dokumen j. Untuk normalisasi frekuensi dalam query diberikan rumus : ß (2) 7ßà,& à,& +G,:R G.:∗ yjz 7ßà,& dimana fi,j adalah frekuensi ternormalisasi, tfi,j adalah frekuensi kata i pada dokumen j, dan max tfi,j adalah frekuensi maksimum kata i pada dokumen j. Sehingga, pembobotan TF-IDF pada kata i dan dokumen j dapat ditulis sebagai berikut : Q (3) 7ß&,) ‡ &,) + yjz 7ß&,) " ABC Gambar 1. Ilustrasi matriks SVD Matriks U dan V adalah matriks othonormal, dimana baris pada matriks U menggambarkan banyaknya baris pada matriks A, sementara kolom pada matriks V menggambarkan banyaknya kolom pada matriks A. k-rank digunakan untuk mereduksi dimensi dari matriks A. Matriks S merupakan matriks simetris yang berisi 6ß& dimana Wi,j adalah bobot kata i pada dokumen j , fi,j adalah frekuensi ternormalisasi, tfi,j adalah frekuensi kata i CI - 70 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember nilai positif di sepanjang diagonal, daerah selain diagonal berisi 0. 2.7.Latent Semantic Indexing (LSI) Penggunaan SVD digunakan dalam LSI. LSI merupakan salah satu bentuk teknik proses temu kembali dengan menggunakan Vector Space Model (VSM), untuk menemukan informasi yang relevan. Keterkaitan makna di dalam LSI sifatnya tersembunyi. Fungsi matematis di dalam LSI mampu menemukan hubungan semantik antar kata [4],[9],[10]. Representasi dari LSI adalah ~á = ~Œ . â . t (5) dimana q’ adalah query vector representasi dari LSI, qT adalah transpose TDM dari pembobotan ternormalisasi TFIDF query, Uk adalah reduksi dimensi k dari matriks U, dan S k−1 adalah inverse dari reduksi dimensi k matriks S 2.8.Vector Space Model (VSM) VSM adalah cara konvensional yang biasa digunakan dalam proses temu kembali informasi. Prosesnya dengan menghitung kemiripan dua buah vektor, yaitu antara vektor dari corpus dan vektor dari query [10],[11]. Penghitungan kemiripan dihitungdengan menggunakan rumus cosine similarity [12]. ∑ ~.6 =&'&0!3&7† = ãBä “ = ‖~‖‖6‖ (6) = ,∑& ∑& ~& " 6 & ~& " ,∑& 6& ISSN : 2302-7088 Dari persamaan 6 nilai q merupakan nilai matriks hasil query SVD. d merupakan nilai dari matriks V, dimana nilai dimensi dari matriks V merupakan hasil input k sesuai dengan nilai reduksi dengan k ≤ min(m x n), dimana m adalah banyaknya kata-kata dan n adalah banyaknya dokumen lirik. 2.9.Tipe Evaluasi Precision, recall, dan F-Measure merupakan kumpulan evaluasi untuk mengetahui keakuratan sistem temu kembali secara unranked retrieval, atau dengan pengembalian dokumen tanpa perangkingan. Tipe evaluasi yang digunakan untuk mengevaluasi sistem temu kembali dengan ranked retrieval pada penelitian ini digunakan Mean Average Precission (MAP). Dalam konteks sistem temu kembali, dokumen yang dikembalikan dengan memasukkan top-k dokumen yang retrieved. Average Precission (AP) hanya mengambil nilai presisi dari dokumen-dokumen yang relevan dan kemudian hasilnya dibagi dengan jumlah dokumen yang dilibatkan [13]. Pengukuran dari MAP merupakan hasil perhitungan rata-rata dokumen relevan yang retrieved dari setiap query yang terlibat di dalam sistem, sedangkan dokumen yang tidak relevan nilainya adalah 0 [14]. Rumus dari Mean Average Precission adalah sebagai berikut [15]: ”U à = ' ∑|à| ∑ +) U35;&=&4 #T) % |à| )+ ' (7) METODE PENELITIAN dimana nilai Q merupakan kumpulan query atau menyatakan banyaknya query yang diinputkan qj € Q {d1,……dmj} dan Rjk adalah nilai precission dari kumpulan file lirik lagu retrieved dan relevan yang telah diranking. Nilai MAP mempunyai rentang nilai 0 sampai 1, dan dalam sebuah system dikatakan baik jika nilai MAP mendekati 1 [15]. Kumpulan lirik lagu bahasa Indonesia didapatkan dari berbagai sumber yang ada di internet dan kemudian ditentukan emosi-emosi apa saja yang terdapat di dalam sebuah lirik lagu. Label emosi yang digunakan diantaranya religius, sedih, marah, semangat, takut, dan cinta. Penelitian dilakukan melalui langkahlangkah sebagai berikut: a. Mengumpulkan lirik lagu berbahasa Indonesia. Kumpulan lirik lagu CI - 71 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember b. c. d. e. f. g. h. i. j. k. ISSN : 2302-7088 sistem, jika data lirik musik yang dikembalikan tidak relevan maka nilai recall dan precission adalah 0. Nilai recall berbanding lurus dengan posisi data yang relevan dibagi dengan jumlah keseluruhan data yang relevan. Nilai recall akan semakin baik jika sistem dapat mengenali kerelevanan sebuah lirik lagu dari seluruh hasil kerelevanan yang seharusnya dikenali. Nilai relevan pada proses pengembalian ditentukan berdasarkan adanya label emosi dalam yang sama pada query maupun corpus. Nilai Mean Average Precission (MAP) pada masing-masing k-rank 300, 200, 100, 50, dan 10. Terlihat bahwa hasil MAP cenderung menurun pada k-rank =100, dengan nilai MAP=0.827 dari nilai MAP=0.831 ketika pada k-rank=200. Sistem menujukkan peningkatan MAP ketika k-rank=50 yaitu dihasilkan MAP=0.870, dan mengalami peningkatan nilai MAP kembali saat nilai k-rank dikecilkan menjadi k-rank=10 dengan MAP=0.899. Dapat disimpulkan bahwa pada k-rank=10 sistem dapat mengembalikan dengan baik kebutuhan informasi yang dibutuhkan. tersebut disebut sebagai corpus. Inputan sistem terdiri atas corpus dan query yang berupa lirik. Preprocessing file corpus dan query. Membentuk struktur data inverted index pada corpus. Membentuk matriks pembobotan TFIDF ternormalisasi pada corpus dan query. Mendekomposisi matriks pembobotan corpus dengan SVD. Reduksi dimensi dari hasil dekomposisi matriks SVD. Menghitung query vector yang merupakan representasi dari LSI. Mencari kemiripan antara corpus dan query dengan cosine similarity. Pengurutan nilai cosine similarity secara descending order. Pengambilan top-n teratas nilai cosine similarity hasil pengurutan. Melakukan evaluasi dari hasil penelitian dengan Mean Average Precission (MAP). Hasil yang relevan antara query dan corpus adalah yang memiliki label emosi yang sama. HASIL PENELITIAN Analisis hasil secara kesuluruhan dapat dikatakan sistem dapat bekerja dengan baik, dibuktikan dengan nilai MAP yang rata-rata mendekati nilai 1, karena hal tersebut menujukkan sistem dapat mendeteksi kemiripan makna antara query dan corpus lirik lagu. Tabel 2 menujukkan hasil dari evaluasi MAP pada masing-masing k-rank 300, 200, 100, 50, dan 10. Data yang digunakan adalah lirik lagu berbahasa Indonesia dengan julah lirik lagu pada corpus 370 lirik dan pada query terdapat 5 lirik. Data interpolated average precission dihasilkan dari penghitungan nilai precission dan recall pada masingmasing lirik lagu yang dikembalikan oleh sistem secara terurut. Nilai recall dari masing-masing average precission semakin naik sesuai dengan hasil relevansi lirik lagu yang dikembalikan Tabel 2.MAP pada masing-masing k-rank k-rank Query 200 100 50 10 Q1 Q2 Q3 300 0.961 0.907 0.911 0.977 0.921 0.902 0.943 0.938 0.904 0.961 0.983 0.920 0.992 0.998 0.988 Q4 Q5 0.672 0.586 0.721 0.633 0.730 0.621 0.807 0.676 0.787 0.728 MAP 0.807 0.831 0.827 0.870 0.899 Hasil nilai Average Precission (AP) dari masing-masing pengujian, tergantung dari nilai k-rank. Hasil penelitian ini menunjukkan bahwa rata-rata akurasi sistem akan baik jika input k—rank yang dimasukkan semakin kecil. Gambar 2 menunjukkan hasil MAP pada masingmasing k-rank, yang mengalami peningkatan ketika k-rank semakin kecil. CI - 72 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 semantik antar kata. Pemilihan k-rank yang optimal tidak dapat ditentukan secara pasti karena banyaknya jumlah kata dan dokumen yang berbeda akan memungkinkan untuk menghasilkan krank optimal yang berbeda pula. SARAN Beberapa saran yang dari hasil penelitian ini diantaranya yaitu banyaknya jumlah kata yang terdapat dalam file lirik lagu berpengaruh dalam proses pembobotan TF-IDF, yang menyebabkan dimensi data tidak dapat diminimalkan, sehingga dibutuhkan pemangkasan frekuensi kata sebelum proses pembobotan dilakukan. Selain itu, penggunaan frasa dalam penentuan makna sangat berpengaruh, misalkan untuk kata “air mata”, sistem ini belum bisa mengenali bahwa “air mata” itu satu buah makna (frasa), akan lebih baik dan menghasilkan presisi yang cukup baik jika penggunaan frasa dilibatkan. Penggunaan frasa dapat diletakkan sebelum menghitung pembobotan dengan menggunakan TF-IDF ternormalisasi. Gambar 2. Grafik hasil MAP pada tiap krank KESIMPULAN Sistem yang digunakan dalam penentuan lirik lagu berdasarkan emosi pada penelitian ini menunjukkan hasil yang cukup baik, dimana nilai MAP yang dihasilkan mendekati nilai 1. Pada penelitian ini digunakan lirik lagu berbahasa Indonesia, dimana dalam proses stemming, sistem ini mengabaikan penggunaan bahasa yang kurang resmi (bahasa gaul), yang mengakibatkan banyaknya kata yang dihasilkan proses tokenizing semakin banyak. Jika dimensi antara jumlah kata dan banyaknya lirik lagu semakin besar maka waktu komputasi yang dihasilkan juga cukup lama. Sehingga, digunakan proses reduksi dimensi SVD yang dapat mengurangi jumlah dimensi. Proses LSI menggunakan SVD juga digunakan untuk mencari keterkaitan makna antar kata yang tersembunyi. Proses matematis dalam SVD mampu menunjukkan hubungan ACKNOWLEDGEMENTS Ucapan terima kasih kepada Drs.Achmad Ridok, M.Kom dan Drs.Marji M.T yang telah membantu dan membimbing penulis dalam melakukan penelitian ini di Universitas Brawijaya Malang. DAFTAR PUSTAKA [8] Fuhr, N. 2002. Information Introduction and Survey. University of Disburg-Essen [9] Manning, Christoper.D, Prabhakar, dan Schutze, H. Introduction to Information Cambridge.England.Cambridge Press RetrievalGermany. Raghavan, 2007. An Retrieval. University [10] Kleedofer,F,dkk.2008. Oh Oh Oh Whoah! Towards Automatic Topic Detection in Song Lyrics.Austria. Studio Smart Agent Tecnologies. [11] Samat,N.Ab, Murad, M.A.A, Abdullah, M.T, dan Atan, R.2009. Malay Document Clustering Algorithm Based on Singular Value Decomposition. Malaysia. Fakultas Ilmu Komputer dan Teknologi CI - 73 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Informasi, Universitas Putra Malaysia. [12] Peter,Rakesh, G, Shivapratap, Dvya G,dan Soman KP. 2009. Evaluation of SVD and NMF Fungsis for Latent Semantic Analysis. India. Amrita University. [13] Asian,Jelita, Wiliams, Hugh E, dan Tahaghoghi S.M.M. .2005. Stemming Indonesian. Australia : School of Computer Science and Information Technology. [14] Feldman,R dan James S. 2007. The Text Mining Handbook. England.Cambridge University Press. [15] Garcia,E.2006.Vector Models Based on Normalized Frequencies : Improving Word Weights with Normalized Frequencies. http://www.miislita.com/wordvector/word-vector-4.html. Diakses tanggal 25 Mei 2011. [16] Sriyasa,W. 2009. Temu Kembali Informasi : Rekonstruksi Inverted Index dan Inplementasi Stopwords. Departemen Ilmu Komputer.IPB [17] Garcia,E.2006. SVD and LSI Tutorial 3: Computing the Full SVD of a Matrix. http://www.miislita.com/informationretrieval-tutorial/svd-lsi-tutorial-3-fullsvd.html. Diakses tanggal 7 Mei 2011. ISSN : 2302-7088 [18] Kontostathis, April. 2007. Essential Dimensions of Latent Semantic Indexing (LSI). Departemen Matematika dan Ilmu Komputer Universitas Ursinus.USA. [19] Parsons,Kathryn, McCormac, A., Butavicius, M, Dennis*,S, dan Ferguson, L. 2009. The Use of Context-Based Information Retrieval Technique. Australia. Defence Science and Technology Organization. [20] Strehl,A,et al.2000.Impact of Similarity Measures on Web-Page Clustering. Proceeding of the Workshop of Artificial Intelligent for Web Search, 17th National Conference on Artificial Intelligence,2000. [21] Blanken,H, Vries,Arjen P.de, Blok, Henk Ernst, dan Feng, Ling ,.2007.Multimedia Retrieval.Springer Berlin Heidelberg New York [22] Manning, Christoper.D, Raghavan, Prabhakar, dan Schutze, H. 2009. An Introduction to Information Retrieval. Cambridge.England.Cambridge University Press CI - 74 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember CI-012 (wahyu) CI - 75 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 EKSTRAKSI KATA KUNCI OTOMATIS UNTUK DOKUMEN BERBAHASA INDONESIA MENGGUNAKAN METODE GENITOR-PLUS EXTRACTOR (GenEx) Gregorius Satia Budhi1, Agustinus Noertjahyana2, Risky Yuniarto Susilo3 1, 2, 3) Teknik Informatika Universitas Kristen Petra Siwalankerto 121-131, Surabaya. E-mail: [email protected], [email protected] Abstrak Ekstraksi Kata Kunci Otomatis adalah sebuah aplikasi yang digunakan untuk menghasilkan sebuah daftar keyphrase / kata kunci secara otomatis. Algoritma utama yang digunakan adalah algortima GenEx yang dibuat oleh Turney, dengan beberapa penyesuaian karena digunakan untuk ekstraksi keyphrase dari artikel berbahasa Indonesia. Penyesuaian dilakukan pada proses stemming pada bagian Extractor dengan menggantinya mengunakan algoritma Porter Stemmer for Bahasa Indonesia yang dibuat oleh Tala. Penyesuaian perlu dilakukan karena kata dalam bahasa Indonesia memiliki tiga macam imbuhan (prefiks, infiks dan suffiks) sementara kata dalam bahasa Inggris hanya memiliki imbuhan dibelakang (suffiks). GenEx adalah algoritma yang memanfaatkan Algortima Genetika (Genitor) untuk membentuk sekelompok parameter yang digunakan saat mengekstrak kata kunci dari sebuah artikel didalam proses Extractor. Hasil pengujian nilai recall dari keyphrase yang di-generate terhadap kata kunci dari author bernilai rata - rata 60%. Sementara hasil pengujian oleh responden menunjukkan bahwa 95% responden menyatakan bila keyphrase yang di-generate dapat mewakili artikelnya. Kedua hasil menunjukkan bahwa aplikasi ini telah berhasil menggenerate kata kunci (keyphrase) yang sesuai dan dapat mewakili artikel yang diproses. Kata kunci: Ekstraksi Kata Kunci Otomatis, Kata kunci, Algoritma GenEx, Porter Stemmer for Bahasa Indonesia, Dokumen Berbahasa Indonesia Abstract Automatic Keyword Extraction is an application used to generate a list of keyphrases / keywords automatically. The main algorithm that is used is GenEx by Turney, with some adjustments because it is used for keyphrase extraction from articles in Indonesian language. Adjustments are made on the process of stemming inside the Extractor part. It is replaced with “Porter Stemmer for Bahasa Indonesia” algorithm by Tala. Adjustments need to be made because the words in the Indonesian language has three kinds of affixes (prefix, infix and suffix) while the English word has only suffixes. GenEx is an algorithm that uses Genetic algorithms (Genitor) to form a group of parameters that are used when extracting keywords from an article in the Extractor. The test results of recall value for keyphrase that are generated by the application divided by the number of keyword author worth the average of 60%. While the results of testing by the respondents indicated that 95% of respondents said if the keyphrase that are generated could represent the article. Both results indicate that the application has been successfully generating the keywords (keyphrases) that are suitable and can represent the processed article. Key words: Automatic Keyphrase Extraction, Keyphrase, GenEx algorithm, Porter Stemmer for Bahasa Indonesia, Indonesian Language Document CI - 76 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember PENDAHULUAN ISSN : 2302-7088 Algoritma genetika Genitor Proses pemberian daftar kata kunci (keywords / keyphrases) pada dokumen cukup sulit, terutama jika hal itu harus dilakukan kemudian oleh orang lain yang bukan pengarang dari dokumen, misal petugas perpustakaan online atau administrator web penyedia file dokumen makalah / paper. Oleh karena itu dibutuhkan suatu proses otomatis yang mampu mengekstraksi kata kunci secara langsung dari sebuah input dokumen. Disini kami menggunakan istilah keyphrase karena biasanya kata kunci diabuat dalama bentuk lebih dari 1 kata (frase). Aplikasi yang dikembangkan pada penelitian ini adalah sebuah software yang dapat secara otomatis menghasilkan daftar kata kunci. Dimana daftar kata kunci tersebut mewakili poin-poin penting dari sebuah dokumen. Algoritma yang digunakan dipenelitian ini adalah algoritma GenEx (Genitor Plus Extractor) yang telah disesuaikan agar tepat untuk ekstraksi kata kunci dari dokumen berbahasa indonesia. Penyesuaian dilakukan pada tahap stemming dari proses Extractor. Metode "Stemming by Truncation" pada proses ini diganti dengan metode "Porter Stemmer for Bahasa Indonesia" yang dibuat oleh F.Z. Tala pada tahun 2003. TINJAUAN PUSTAKA Genitor yang merupakan akronim dari Genetic ImplemenTOR, adalah algoritma genetika steady-state, yang berbeda dengan banyak algoritma genetika lainnya. Algoritma genetika steady-state memperbaharui populasi hanya satu individu di satu waktu, mengakibatkan perubahan populasi yang terus menerus, dengan tidak ada beda generasi. Biasanya individu baru dengan fitnes terbaik menggantikan individu dengan fitnes terrendah [3]. Pseudo-code dari Genitor dapat dilihat pada Gambar 1. GENITOR (P) create population of size P while not (termination condition) select two parents breeds a single offspring by (optional) crossover followed by mutation O evaluate least-fit chromosome by O replace the least-fit member of the population output fittest kromosom Gambar 1. Pseudo-code Genitor [3] Algoritma ekstraksi keyphrase Extractor Extractor akan mengambil sebuah dokumen sebagai input dan menghasilkan daftar keyphrase sebagai output. Extractor mempunyai dua belas parameter yang akan mempengaruhi pemrosesan dokumen teks input [2]. Parameter - parameter tersebut dapat dilihat pada Tabel 1. Tabel 1. Daftar Parameter pada Extractor [2] Text Mining Text Mining dapat didefinisikan sebagai metode atau teknik komputasi pada data berbentuk teks guna menemukan informasi yang relevan, intrinsik dan tidak diketahui sebelumnya. Metode text mining dikelompokkan dalam empat kategori yaitu: clasification, clustering, association analysis dan information extraction [1]. Automatic Keyphrase Extraction Automatic keyphrase extraction adalah sebuah proses untuk menghasilkan daftar keyphrase yang dapat mewakili poin-poin penting dari sebuah teks. Automatic keyphrase extraction adalah sebuah bentuk implementasi dari text mining. Proses kerja dari Automatic keyphrase extraction secara umum sama dengan proses kerja didalam text mining [2]. CI - 77 No Nama Parameter Nilai Awal 1 NUM_PHRASES 10 2 NUM_WORKING 3 FACTOR_TWO_ONE 4 FACTOR_THREE_ONE 5 MIN_LENGTH_LOW_RANK 0,9 6 MIN_RANK_LOW_LENGTH 5 7 FIRST_LOW_THRESH 40 8 FIRST_HIGH_THRESH 400 9 FIRST_LOW_FACTOR 2 10 FIRST_HIGH_FACTOR 0,65 11 STEM_LENGTH 5 12 SUPRESS_PROPER 0 50 2,33 5 Deskripsi Maks frase di daftar frase akhir 5 * NUM_PHRASES Faktor dua kata dalam satu frase Faktor tiga kata dalam satu frase Peringkat yang rendah harus memiliki Kata yang lebih penjang dari nilai ini Kata yang pendek harus memiliki peringkat lebih dari nilai ini Definisi posisi kata yang ditemukan lebih awal Definisi posisi kata yang ditemukan lebih akhir Penghargaan untuk kata yang ditemukan lebih awal Penalti untuk kata yang ditemukan lebih akhir Maksimum karakter panjang stem Flag untuk suppres proper nouns Di dalam Extractor terdapat sepuluh langkah seperti terlihat pada Gambar 2. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 sampai 1050 percobaan / individu (nilai default). Setiap individu adalah parameter pengaturan Extractor yang ditentukan dalam binary string. Fitness cost tiap binary string dihtung menggunakan rumus 1 sampai dengan 7 untuk seluruh training set. Output akhir dari Genitor adalah nilai tertinggi binary string. Output ini nantinya digunakan pada proses Extractor di saat pemakaian aplikasi [4]. Perhitungan fitness cost didapatkan dari rumus perhitungan di bawah ini [4]: total_matches = jumlah frasa yang sama antara GenEx dan manusia (author) (1) Gambar 2. Langkah - langkah proses algoritma Extractor [2] total_machine_phrases = jumlah output frasa yang dihasilkan dari proses GenEx (2) Algoritma GenEx Algoritma GenEx adalah algoritma hybrid genetic yang digunakan untuk mengekstraksi kata kunci. GenEx memiliki dua komponen, yaitu algoritma genetika Genitor dan algoritma ektraksi keyphrase Extractor. Extractor akan mengambil sebuah dokumen sebagai input dan menghasilkan daftar keyphrase sebagai output. Extractor mempunyai dua belas parameter yang akan mempengaruhi pemrosesan teks input. Parameter dari Extractor ini diatur menggunakan algoritma genetika Genitor. Genitor tidak dibutuhkan lagi ketika proses training telah selesai yaitu ketika nilai parameter terbaik telah diketahui. Sementara itu proses untuk mendapatkan keyphrase saat testing atau pemakaian digunakan Extractor (GenEx without Genitor). Algoritma GenEx menggunakan dataset (training dan testing subset) berupa pasangan dokumen dengan target keyphrase-nya. Proses learning yang ada di algoritma GenEx bertujuan untuk menyesuaikan parameter menggunakan data training yang berguna untuk memaksimalkan kesamaan hasil antara output dari Extractor dengan daftar target keyphrase. Keberhasilan proses learning diukur dengan memeriksa kecocokan menggunakan data testing. Jika diasumsikan bahwa user menentukan nilai NUM_PHRASES, jumlah frase yang dikehendaki ke nilai antara lima dan lima belas. Kemudian diatur NUM_WORKING adalah 5 * NUM_PHRASES. Menyisakan sepuluh parameter yang akan ditetapkan oleh Genitor. Genitor menggunakan binary string 72 bit untuk mewakili sepuluh parameter, seperti yang ditunjukkan pada Tabel 2. Genitor dijalankan dengan ukuran populasi 50 CI - 78 precision = total_matches / total_machine_phrases (3) num_docs = jumlah dokumen yang digunakan sebagai training set (4) total_desired = num_docs * NUM_PHRASES (5) penalty = (total_machine_phrases / total_desired)2 (6) fitness = precision * penalty (7) Tabel 2. Sepuluh Parameter Extractor yang diatur oleh Genitor [4] Nama Parameter Tipe Range FACTOR_TWO_ONE real [1, 3] FACTOR_THREE_ONE real [1, 5] MIN_LENGTH_LOW_RANK real [0.3, 3.0] MIN_RANK_LOW_LENGTH integer [1, 20] FIRST_LOW_THRESH integer [1, 1000] FIRST_HIGH_THRESH integer [1, 4000] FIRST_LOW_FACTOR real [1, 15] FIRST_HIGH_FACTOR real [0.01, 1.0] STEM_LENGTH integer [1, 10] SUPRESS_PROPER boolean [0, 1] Total Panjang Bit dalam Binary String: Jml Bit 8 8 8 5 10 12 8 8 4 1 72 Faktor penalty bervariasi antara 0 dan 1. Faktor penalty tidak mempunyai efek (jika 1) ketika jumlah frase yang keluar sebagai output dari GenEx sama dengan jumlah frase yang diinginkan. Penalty didapat (mendekati 0) dari pangkat hasil pembagian antara jumlah frase yang keluar sebagai output dari GenEx dengan jumlah frase yang diinginkan. Eksperimen preliminary pada data training menetapkan ukuran fitness yang membantu GenEx untuk menemukan nilai parameter dengan rata-rata ketepatan yang tinggi dan kepastian frase sebanyak NUM_PHRASES akan keluar sebagai output. Genitor dijalankan dengan Selection Bias of 2.0 dan Mutation Rate of 0.2. Ini adalah pengaturan default untuk Genitor. Pada Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Genitor digunakan Adaptive Mutation Operator dan Reduced Surrogate Crossover Operator. Adaptive Mutation menentukan tingkatan mutasi yang sesuai untuk seorang children menurut hamming distance antara kedua parent; semakin sedikit perbedaan, lebih tinggi tingkat mutation rate. Reduced Surrogate Crossover pertama mengidentifikasi semua posisi di mana terjadi perbedaan pada parent string. Poin-poin crossover hanya diijinkan untuk terjadi pada posisi ini [4]. Stemming Stemming adalah proses pemetaan dan penguraian berbagai bentuk (variants) dari suatu kata menjadi bentuk kata dasarnya [5]. Proses ini juga disebut sebagai conflation. Proses Stemming membuat bentuk sebuah kata menjadi kata dasarnya. Metode umum untuk stemming adalah menggunakan kombinasi dari analisa morphological [6]. Porter Stemmer for Bahasa Indonesia Porter Stemmer for Bahasa Indonesia dikembangkan oleh Fadillah Z. Tala pada tahun 2003. Implementasi Porter Stemmer for Bahasa Indonesia berdasarkan English Porter Stemmer yang dikembangkan oleh M.F. Porter pada tahun 1980. Karena bahasa Inggris datang dari kelas yang berbeda, beberapa modifikasi telah dilakukan untuk membuat Algoritma Porter dapat digunakan sesuai dengan bahasa Indonesia [7]. Desain dari Porter Stemmer for Bahasa Indonesia dapat dilihat pada Gambar 3. Implementasi dari algoritma ini telah dioptimasi untuk digunakan pada text mining oleh penulis dan hasilnya telah dipublikasikan sebelumnya [8]. ISSN : 2302-7088 Pada Gambar 3 terlihat beberapa langkah 'removal' menurut aturan yang ada pada tabel 3 sampai dengan tabel 7. Tabel 3. Kelompok rule pertama : inflectional particles [7] Suffix Replacement Measure Condition Additional Condition kah NULL 2 NULL lah NULL 2 NULL pun NULL 2 NULL Examples bukukah → buku adalah → ada bukupun → buku Tabel 4. Kelompok rule kedua :inflectional possesive pronouns [7] Suffix Replacement Measure Condition Additional Condition Examples ku NULL 2 NULL bukuku → buku mu NULL 2 NULL bukumu → buku nya NULL 2 NULL bukunya → buku Tabel 5. Kelompok rule ketiga: first order of derivational prefixes [7] Prefix Replacement Measure Condition Additional Condition Examples mengukur → ukur meng NULL 2 NULL meny s 2 V…* men NULL 2 NULL mem mem me peng peny p NULL NULL NULL s 2 2 2 2 V… NULL NULL NULL V… pen NULL 2 NULL pem pem di ter ke p NULL NULL NULL NULL 2 2 2 2 2 V… NULL NULL NULL NULL menyapu → sapu menduga → duga menuduh → uduh memilah → pilah membaca → baca merusak → rusak pengukur → ukur penyapu → sapu penduga → duga penuduh → uduh pemilah → pilah pembaca → baca diukur → ukur tersapu → sapu kekasih → kasih Tabel 6. Kelompok rule keempat: second order of derivational prefixes [7] Prefix Replacement ber NULL Measure Condition 2 Additional Condition NULL bel NULL 2 Ajar be NULL 2 K* er… per NULL 2 NULL pel NULL 2 Ajar pe NULL 2 NULL Examples berlari → lari belajar → ajar bekerja → kerja perjelas → jelas pelajar → ajar pekerja → kerja Tabel 7: Kelompok rule kelima: derivational suffixes [7] Suffix Replacement Measure Condition Additional Condition kan NULL 2 Prefix ∉ {ke, peng} an NULL 2 Prefix ∉ {di, meng, ter} 2 V|K…c1c1, c1 ≠ s, s2 ≠ i and prefix ∉ {ber, ke, peng} i Gambar 3. Blok diagram dari Porter Stemmer for Bahasa Indonesia [7] NULL Frase dalam bahasa Indonesia CI - 79 Examples tarikkan → tarik (meng)ambilkan → ambil makanan → makan (per)janjian → janji tandai → tanda (men)dapati → dapat pantai → panta Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Frase adalah bagian kalimat yang terdiri atas dua kata atau lebih yang tidak melebihi batas fungsi. Misalnya: akan datang, kemarin pagi, yang sedang menulis. Artinya satu frase maksimal hanya menduduki gatra subjek (S), predikat (P) atau objek (O) atau keterangan (K). Perbedaan antara frase dalam Bahasa Indonesia dengan frase dalam Bahasa Inggris bukanlah perbedaan yang mencolok dan tanpa pola [9]. ISSN : 2302-7088 Open document memungkinkan user untuk melihat isi dokumen atau memilih dokumen yang ingin dicari keyphrase-nya. Proses open document akan mentransfer dokumen berbentuk *,doc / *.pdf untuk menjadi teks. Teks yang terbentuk akan dikenai proses selanjutnya. DISAIN APLIKASI Berikut pada Gambar 4 dapat dilihat use case diagram dari aplikasi yang dibuat. Gambar 4. Diagram Use Case dari aplikasi Ekstraksi Kata Kunci Otomatis Berikut pada Gambar 5 sampai dengan Gambar 8 dapat dilihat diagram activity dari masing - masing use case. Gambar 6. Diagram activity dari use case Do Extractor Process Do Extractor Process adalah implementasi dari algoritma Extractor. Proses yang dilakukan kurang lebih sama dengan sepuluh langkah pada algoritma Extractor, namun dengan sedikit penyesuaian karena digunakan untuk mengekstrak dokumen berbahasa Indonesia. Langkah - langkah tersebut adalah sebagai berikut: Langkah 1: Find Single Stems Hal pertama yang dilakukan pada langkah ini adalah membuat daftar kata-kata dari teks input. Jika kata kurang dari 3 huruf maka hapus kata tersebut kecuali kata memiliki kapitalisasi pattern stem yang menunjukkan sebuah singkatan. Penghapusan ini dilakukan dengan asumsi bahwa kata kurang dari 3 huruf tidak memiliki arti penting. Setelah itu hapus stopword menggunakan daftar stopword yang disediakan pada paper dari Tala [7]. Proses selanjutnya adalah Stemming. Di dalam algoritma GenEx, stemming dilakukan dengan cara memotong kata sesuai dengan nilai STEM_LENGTH (metode stemming by truncation) dengan tujuan mempercepat proses. Namun metode ini tidak cocok bila Gambar 5. Diagram activity dari use case Open Document CI - 80 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember diterapkan untuk bahasa Indonesia. Alasannya adalah karena kata dalam bahasa Indonesia memiliki imbuhan di depan (prefiks), belakang (suffiks), sisipan (infiks) atau gabungan ketiganya, sementara kata dalam bahasa inggris hanya memiliki imbuhan dibelakang (suffiks). Oleh sebab itu proses stemming pada langkah ini dirubah menggunakan algoritma "Porter Stemmer for Bahasa Indonesia" [7] yang kemudian telah dioptimasi oleh penulis untuk diimplementasikan pada text mining [8]. Hasil implementasi tersebut digunakan pada penelitian ini. Langkah 2: Score Single Stems Pada langkah ini dihitung seberapa sering sebuah stem tunggal ada di dalam teks, dan catat dimana kata tersebut pertama kali ditemukan. Setelah itu, berikan skor untuk setiap stem tunggal. Skor adalah jumlah berapa kali stem tunggal tersebut muncul di dalam teks dikalikan dengan sebuah faktor. Jika stem tunggal pertama kali ditemukan sebelum FIRST_LOW_THRESH, maka kalikan frekuensi tersebut dengan FIRST_ LOW_FACTOR. Jika stem tunggal pertama kali ditemukan sesudah FIRST_HIGH_ THRESH, maka kalikan frekuensi tersebut dengan FIRST_HIGH_FACTOR. Langkah 3: Select Top Single Stems Langkah ketiga adalah merangking nilai tiap stem tunggal dari skor tinggi ke skor rendah dan buat daftar top stem tunggal sebanyak NUM_WORKING. Pomotongan daftar stem tunggal sebanyak NUM_WORKING untuk mengatasi agar stem tunggal di dalam daftar tidak terlalu banyak sehingga dapat meningkatkan efisiensi Extractor. Pemotongan juga sebagai penyaring untuk menghapuskan stem tunggal dengan kualitas rendah. Langkah 4: Find Stem Phrases Pada langkah ini dibuat daftar semua frase yang ada di input teks. Sebuah frase didefinisikan sebagai kumpulan dari satu, dua, atau tiga kata yang teratur di dalam teks, dan tidak terdapat stopword atau batasan frase (tanda baca). Setelah itu dilakukan stemming setiap frase dengan memotong tiap kata di dalam frase menjadi root word. Extractor hanya mempertimbangkan frase dengan satu, dua, atau tiga kata karena Frase dengan empat kata atau lebih sangat jarang. CI - 81 ISSN : 2302-7088 Extractor tidak mempertimbangkan frase dengan stopword didalamnya, karena author cenderung menghindari keyphrase dengan stopword didalamnya. Langkah 5: Score Stem Phrases Pada langkah kelima dilakukan perhitungan seberapa sering setiap stem frase muncul di teks dan catat dimana stem frase tersebut pertama kali muncul. Tetapkan skor untuk setiap stem frase, dengan cara yang sama dengan langkah kedua, dengan menggunakan parameter FIRST_LOW_FACTOR, FIRST_ LOW_THRESH, FIRST_HIGH_FACTOR, dan FIRST_HIGH_THRESH. Selanjutnya buat penyesuaian untuk setiap skor, berdasarkan jumlah stem kata dari tiap frase. Jika hanya ada satu stem tunggal di dalam frase, maka tidak dilakukan apa-apa. Jika terdapat dua stem tunggal dalam frase, kalikan skor dengan FACTOR_TWO_ONE. Jika terdapat tiga stem tunggal dalam frase, kalikan skor dengan FACTOR_THREE_ONE. Langkah 6: Expand Single Stems Pada langkah keenam, untuk setiap stem dalam daftar top stem tunggal sebanyak NUM_WORKING dicari nilai tertinggi stem frase dari satu, dua, atau tiga stem yang berisi stem tunggal tersebut. Hasilnya adalah daftar stem frase sebanyak NUM_WORKING. Simpan daftar ini dan susun sesuai dengan ranking skor yang dihitung di langkah 2. Langkah 7: Drop Duplicates Pada langkah ketujuh dilakukan penghapusan stem frase yang memiliki duplikat pada daftar top NUM_WORKING. Misalnya, dua stem tunggal mungkin diperluas menjadi stem frase yang terdiri dari dua kata. Hapus duplikat dari daftar peringkat NUM_WORKING stem frase, dan pertahankan peringkat tertinggi frase. Langkah 8: Add Suffixes Untuk masing-masing dari sisa stem frase, temukan frase yang paling sering muncul di seluruh input teks. Misalnya, jika "penggalian data" sepuluh kali muncul dalam teks dan "menggali data" muncul tiga kali, maka "penggalian data" lebih sering sesuai untuk stem frase "gali data". Di dalam bahasa Indonesia kata dapat memiliki prefiks, suffiks, atau kombinasi dari keduanya (confixes). Maka dari itu pada langkah ini kata Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember dikembalikan ke bentuk awal, yaitu dengan penambahan prefiks, suffiks, atau kombinasi dari keduanya (confixes). Jadi sebenarnya langkah ini lebih tepat bila dinamakan "Add Affixes". Di dalam metode automatic keyphrase extractor dokumen berbahasa Inggris jika ada frase yang memiliki kata dengan suffiks, yang menunjukkan kemungkinan menjadi kata sifat (adjective), maka frekuensi untuk seluruh frase diatur ke nol. Juga, jika ada frase yang memiliki kata yang menunjukkan kemungkinan kata kerja (verb), frekuensi untuk frase diatur ke nol. Pada bahasa Indonesia teknik untuk mendeteksi kemungkinan kata sifat dan kata kerja berbeda dengan dalam bahasa Inggris, Oleh sebab itu didalam aplikasi ini digunakan tabel kata sifat dan kata kerja yang terdapat pada database kamus elektronik Indonesia. Bila ditemukan maka frekuensi dari frase-nya diatur ke nol. Langkah 9: Add Capitals Dilangkah kesembilan dicari kemungkinan terbaik untuk proses kapitalisasi pada seluruh frase yang ada. Istilah terbaik didefinisikan sebagai berikut: Untuk setiap frase, temukan proses kapitalisasi dengan jumlah kapital paling sedikit. Dari aturan ini kandidat terbaik adalah frase yang hanya berisi satu kata. Untuk frase yang terdiri dari dua atau tiga kata, disebut terbaik (best) di dalam kapitalisasi jika konsisten. Langkah 10: Final Output Pada langkah sepuluh diambil sejumlah frase yang telah dirangking sebayak NUM_WORKING dari rangking tertinggi. Selanjutnya adalah menampilkan daftar output, frase sebanyak NUM_PHRASES yang paling baik. Untuk mendapatkan hal itu setiap frase akan melewati tes berikut: (1) frase tidak memiliki kapitalisasi dari kata benda, kecuali flag SUPPRESS_PROPER diatur ke 1 (jika 1 kemungkinan kata benda). (2) frase sebaiknya tidak memiliki kemungkinan yang menunjukkan kata sifat. (3) frase harus lebih panjang daripada MIN_LENGTH_LOW_RANK, dimana panjang diukur oleh rasio jumlah karakter dalam kandidat frase dengan jumlah karakter di rata-rata frase, dimana rata-rata dihitung untuk semua frase di input teks CI - 82 ISSN : 2302-7088 yang terdiri dari satu sampai tiga kata nonstopword yang berturut-turut. (4) jika lebih pendek dari frase MIN_LENGTH_LOW_RANK, maka frase tersebut masih dapat diterima, jika peringkatnya di daftar kandidat frase lebih baik daripada MIN_RANK_LOW_LENGTH. (5) jika kata gagal di kedua tes (3) dan (4), ia masih dapat diterima, jika kapitalisasi pattern stem menunjukkan bahwa mungkin sebuah singkatan. (6) frase tidak boleh mengandung apapun kata yang sering digunakan sebagai kata kerja. (7) frase seharusnya tidak sama dengan isi daftar stop-phrase. Frase yang ditampilkan harus lulus tes (1), (2), (6), (7), dan sekurang-kurangnya salah satu tes (3), (4), dan (5). Bila jumlah frase yang lolos tes lebih banyak dari jumlah NUM_PHRASE maka hanya frase rangking 1 sampai dengnan NUM_PHRASE yang ditampilkan. Langkah 11: Display Result Pada langkah ini hasil dari langkah 10 ditampilkan ke pada user. Selanjutnya user dapat memilih keyphrase mana yang digunakan dan mana yang dihapus. Gambar 7. Diagram activity dari use case Save Keyphrase Pada aktifitas ini hasil keyphrase yang telah dipilih oleh user beserta dokumennya disimpan dengan bentuk file text (*.txt). Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 Gambar 10. Antar muka 'Final Result' Pada antar muka 'Final Result' akan ditampilkan hasil output yang dapat dipilih oleh user (box Output). Pada antar muka ini ditampilkan pula frase - frase yang lolos dari test pada langkah 10 Extractor (box Output List) dan juga informasi detail tentang hasil test dari urutan frase sebanyak NUM_WORKING (box Check List). Gambar 8. Diagram activity dari use case Do GenEx Process PENGUJIAN Pada aktifitas Do GenEx Process dilakukan proses yang sama persis dengan proses GenEx yang telah dijelaskan sebelumnya pada bab Tinjauan Pustaka. ANTAR MUKA APLIKASI Pada Gambar 9 dilihat tampilan antar muka awal dari aplikasi yang dibuat di penelitian ini. Ada tiga macam pengujian yang dilakukan pada penelitian ini, yaitu: 1. Pengujian waktu proses learning GenEx. Pengujian ini dilakukan saat Genitor bekerja untuk mengoptimasi parameter Extractor. Sementara untuk proses Extractor karena sangat cepat maka tidak perlu diuji. Hasil pengujian dapat dilihat pada Gambar 11. Waktu Proses GenEx 3000 Waktu (menit) 2500 2000 50 populasi 100 populasi 1500 150 populasi 1000 500 0 15 30 70 Jumlah dokumen yg diproses Gambar 11. Hasil pengujian waktu proses GenEx Gambar 9. Antar muka awal setelah proses open dokumen dilakukan oleh user Setelah melewati 9 step yang ada dengan cara menekan tombol 'next' maka kepada user akan disajikan hasil dari ekstraksi otomatis kata kunci dari dokumen yang diproses. Tampilan antar muka 'Final Result' dapat dilihat pada Gambar 10. CI - 83 Dari hasil pengujian terlihat bahwa semakin banyak jumlah dokumen sample yang ikut dalam proses learning GenEx dan semakin besar populasi, maka semakin lama pula waktu prosesnya. Namun waktu proses learning ini masih dibawah 1 jam untuk 70 dokumen dengan maks 150 populasi (10500 kali proses). Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 2. Pengujian perbandingan hasil yang didapat dengan parameter default yang didapat dari paper PD Turney [1] dengan nilai parameter yang didapat dari proses learning GenEx. Pada pengujian ini digunakan 70 dokumen untuk learning GenEx dan 5 dokumen untuk testing. Hasil pengujian dapat dilihat pada Tabel 8 dan Tabel 9. Tabel 8. Perbandingan precision antara hasil Extractor dengan parameter default dan parameter hasil learning GenEx Judul Dokumen Analisis Persepsi Pelanggan Terhadap Kualitas Layanan Coffee Shop Asing Dan Coffee Shop Lokal Representasi Perempuan Pada Lukisan Di Bak Truk Desain Interior Dan Perilaku Pengunjung Di Ruang Publik Penerapan Fuzzy If-Then Rules Untuk Peningkatan Kontras Pada Citra Hasil Mammografi Perilaku Dan Keputusan Pembelian Konsumen Restoran Melalui Stimulus 50% Discount Di Surabaya Rata - rata Precision Precision utk Default Parameter Precision utk Parameter hasil GenEx 0.125 0.125 0.375 0.5 0.25 0.25 0.25 0.25 0.25 0.375 0.25 0.3 Nilai precision pada tabel 8 dihitung dengan rumus berikut: Precision = jumlah hasil benar / total hasil proses (8) Nilai precision yang tidak besar disebabkan karena besarnya nilai pembagi. Pada aplikasi ini nilai pembagi tersebut identik dengan isi variable NUM_PHRASES yang disetting oleh user. Oleh sebab itu dihitung pula nilai Recall menggunakan rumus sebagai berikut: Recall = jumlah hasil benar / total keyphrase author (9) Tabel 9. Perbandingan recall antara hasil Extractor dengan parameter default dan parameter hasil learning GenEx Judul Dokumen Analisis Persepsi Pelanggan Terhadap Kualitas Layanan Coffee Shop Asing Dan Coffee Shop Lokal Representasi Perempuan Pada Lukisan Di Bak Truk Desain Interior Dan Recall utk Default Parameter Recall utk Parameter hasil GenEx 0.33 0.33 0.5 0.75 0.66 0.66 CI - 84 ISSN : 2302-7088 Perilaku Pengunjung Di Ruang Publik Penerapan Fuzzy IfThen Rules Untuk Peningkatan Kontras Pada Citra Hasil Mammografi Perilaku Dan Keputusan Pembelian Konsumen Restoran Melalui Stimulus 50% Discount Di Surabaya Rata - rata Recall 0.5 0.5 0.5 0.75 0.5 0.6 Pada Tabel 9 dapat dilihat bahwa nilai recall dari kedua macam parameter yang diteliti cukup baik karena rata - rata setengah atau lebih dari hasil yang benar telah sesuai dengan kata kunci dari pengarang / author. Kelemahan dari aplikasi ini adalah keyphrase yang dihasilkan berasal dari frase - frase yang memang ada pada dokumen, sementara author dapat membuat kata kunci (keyphrase) dari frase diluar yang ada pada karangannya. Pada dua pengujian terlihat bahwa parameter yang didapat dari learning menggunakan GenEx memiliki nilai rata - rata precision dan recall yang lebih baik. 3. Pengujian terhadap responden. Pengujian ini dilakukan dengan cara meminta 20 responden untuk membaca artikel berbahasa Indonesia lalu memberi jawaban apakah kata kunci yang ada telah mewakili artikel dan memiliki arti yang jelas. Kata kunci tersebut dibuat secara otomatis oleh aplikasi. Selanjutnya respoden juga menjawab pertanyaan tentang daftar kata kunci mana yang lebih tepat. Hasil dapat dilihat pada Tabel 10. Tabel 10. Pengujian tehadap responden No 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 Mewakili Artikel Ya Ya Ya Ya Ya Ya Ya Ya Ya Ya Ya Ya Ya Ya Ya Ya Tidak Ya Ya Arti Jelas Tidak Ya Ya Ya Ya Tidak Ya Ya Ya Ya Ya Ya Ya Ya Ya Ya Tidak Ya Ya Daftar Keyphrase default hasil GenEx V V V V V V V V V V V V V V V V V V V Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 20 Ya 95% Ya 85% 10% V 90% ISSN : 2302-7088 DAFTAR PUSTAKA Dari pengujian dapat dilihat bahwa hampir semua responden beranggapan bahwa keyphrase yang dihasilkan aplikasi memiliki arti yang jelas dan dapat mewakili artikel. Responden juga berpendapat bahwa kata kunci yang digenerate dengan parameter hasil learning GenEx lebih baik dari parameter default. KESIMPULAN Dari pengujian dapat dilihat bahwa nilai recall dari aplikasi cukup baik (60%), sehingga dapat disimpulkan bahwa keyphrase yang dihasilkan aplikasi dapat membantu user untuk membuat kata kunci dari sebuah artikel. Hal ini didukung pula dengan hasil dari pengujian responden dimana 95% responden beranggapan bahwa keyphrase yang digenerate oleh aplikasi dapat mewakili artikelnya. Selain itu dari uji kecepatan proses GenEx, dapat disimpulkan bahwa proses GenEx masih dapat ditolerir waktunya mengingat proses ini hanya dilakukan sekali saja untuk kurun waktu lama. Proses GenEx baru dilakukan lagi bila ada penambahan jumlah dokumen sample yang cukup signifikan dan dianggap dapat merubah parameter yang dihasilkan. CI - 85 [1] Prado HA, Ferneda E. Emerging Technologies of Text Mining: Techniques and Applications. New York: Information Science Reference. 2008. [2] Turney PD. Learning to Extract Keyphrases from Text. National Research Council, Institute for Information Technology, Technical Report ERB-1057. 1999. [3] Whitley D. The GENITOR algorithm and selective pressure. Proceedings of the Third International Conference on Genetic Algorithms (ICGA-89): 116-121. California: Morgan Kaufmann. 1989. [4] Turney PD. Learning algorithms for keyphrase extraction. Information Retrieval, 2 (4): 303-336. (NRC #44105). 2000. [5] Porter MF. An algorithm for suffix stripping. Program, 14(3): 130-137. 1980. [6] Chakrabarti S. Mining the Web: Discovering Knowledge from Hypertext Data. Morgan Kaufmann Publishers. 2003. [7] Tala FZ. A Study of Stemming Effects on Information Retrieval in Bahasa Indonesia. Master of Logic Project. Institute for Logic, Language and Computation Universeit Van Amsterdam. 2003. [8] Budhi GS., Gunawan I., Yuwono F. Algortima Porter Stemmer For Bahasa Indonesia Untuk Pre-Processing Text Mining Berbasis Metode Market Basket Analysis. PAKAR Jurnal Teknologi Informasi Dan Bisnis vol. 7 no. 3. November 2006. [9] Depdiknas. Panduan materi bahasa dan sastra Indonesia SMK. Depdiknas. 2003. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 INTEGRASI METODE 2DPCA-ICA DAN SVM PADA PENGENALAN WAJAH Rima Tri Wahyuningrum Laboratorium Komputasi dan Sistem Cerdas Program Studi Teknik Informatika, Universitas Trunojoyo Madura Jl. Raya Telang PO.BOX 2, Kamal, Bangkalan, Madura - 691962 E-mail : [email protected] Abstrak Pada penelitian ini, kami mempresentasikan sebuah integrasi metode ekstraksi fitur yang efisien antara Two Dimensional Principal Component Analysis (2DPCA) - Independent Component Analysis (ICA) dan Support Vector Machines (SVM) Multiclass pada pengenalan wajah. Berbeda dengan PCA-ICA pada pengenalan wajah, 2DPCA melakukan ekstraksi fitur berdasarkan pada 2D matrik citra wajah dan eigenvektornya berkorespondensi dengan eigenvalue yang diurutkan secara descending. Hal ini mengatasi kekurangan dari PCA-ICA. Kemudian untuk pengukuran kemiripan / metode klasifikasi menggunakan SVM yang memiliki performa sangat tinggi di berbagai proses pengenalan obyek. Untuk uji coba dan evaluasi performansi dari sistem yang dibuat, penelitian ini menggunakan basis data wajah Yale, ORL dan Bern. Berdasarkan hasil uji coba, rata-rata pengenalan wajah menggunakan 2DPCA-ICA dan SVM lebih tinggi dibandingkan dengan metode lainnya yaitu 99.6%. Kata Kunci : 2DPCA, ICA, SVM, pengenalan wajah. Abstract In this paper,we presented an integration of an efficient feature extraction method between Two Dimensional Principle Component Analysis (2DPCA) - Independent Component Analysis (ICA) and Support Vector Machines (SVM) multiclass in face recognition. Unlike the PCA-ICA in face recognition, 2DPCA to extract features based on the 2D facial image where eigenvector matrix corresponding to eigenvalue in descending order. It overcomes the shortcomings of PCA-ICA. Then to measure the similarity / classification method using SVM which have performance very high in object recognition processes. To test and evaluate the performance of the system are made, this research used a face database Yale, ORL and Bern. Based on the test results, the average face recognition using 2DPCA-ICA and SVM is higher than other methods, namely 99.6%. Keywords: 2DPCA, ICA, SVM, face recognition. PENDAHULUAN Pengenalan adalah suatu kemampuan dasar dari beberapa sistem visual. Hal ini menunjukkan proses pemberian label suatu obyek yang merupakan bagian dari kelas tertentu. Wajah manusia adalah salah satu obyek terpenting pada sistem visual. Manusia hanya dapat mengenali manusia lainnya dalam keadaan tertentu saja, padahal kemampuan ini sangat krusial untuk saling berinteraksi, sistem keamanan dan lain sebagainya. Masalah pengenalan wajah menjadi daya tarik para peneliti dalam kurun waktu terakhir. Matrik citra wajah orang yang sama dapat memiliki perbedaan. Hal ini disebabkan CI - 86 beberapa faktor, seperti pencahayaan, ekspresi wajah, dan pose. Dalam melakukan proses pengenalan terdapat dua hal penting yaitu ekstraksi fitur dan pengukuran kemiripan/ metode klasifikasi yang digunakan. Metode ekstraksi fitur yang banyak digunakan adalah Principal Component Analysis (PCA) dan Independent Component Analysis (ICA). PCA pertama dikenalkan oleh Turk and Pentland pada tahun 1991 sedangkan ICA dikenalkan oleh Bell and Sejnowski pada tahun 1995. PCA bertujuan untuk mewakili citra masukan berdasarkan eigenvector yang berkorespondensi dengan eigenvalue yang disusun secara decreasing sedangkan ICA bertujuan untuk menemukan transformasi Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember linear pada data masukan menggunakan variabel bebas secara statistik yang mungkin. Kedua metode ini sangat sensitif terhadap pencahayaan. Sehingga konsep ICA dapat dianggap generalisasi dari PCA [1]. Pada metode PCA, matrik citra wajah harus terlebih dahulu diubah menjadi 1D vektor citra. Sehingga hasil citra vektor memiliki ruang dimensi yang tinggi, akibatnya sulit untuk melakukan evaluasi matrik kovarian secara akurat karena ukurannya yang besar dan hanya efektif untuk jumlah data pelatihan yang sedikit [2]. Oleh karena itu, dilakukan pengembangan metode PCA yaitu 2DPCA untuk mengatasi kelemahan metode PCA tersebut. Pada 2DPCA menggunakan teknik proyeksi citra langsung, matrik citra wajah 2D tidak perlu ditransformasikan ke dalam bentuk citra vektor namun secara langsung matrik kovarian citranya dapat dibentuk langsung dengan menggunakan matrik citra aslinya sehingga ukuran matrik kovarian citranya menjadi lebih kecil. Metode 2DPCA memiliki dua keuntungan penting daripada PCA, yaitu pertama, lebih mudah dan akurat untuk melakukan evaluasi matrik kovarian. Kedua, waktu yang dibutuhkan untuk menentukan eigenvector lebih sedikit [2]. Pada penelitian sebelumnya, Denis et. al membandingkan metode PCA dan ICA dengan pengukuran kemiripan menggunakan SVM [3]. Selain itu telah dilakukan penerapan ekstraksi kemiripan menggunakan Euclidean Distance dan SVM [4]. Kemudian Gan et.al melakukan penelitian dengan menggunakan 2DPCA-ICA sebagai metode ekstraksi fitur dan nearest neighbor sebagai metode klasifikasinya [5]. Pada penelitian ini mempresentasikan integrasi metode 2DPCA-ICA dan SVM sebagai metode klasifikasi dengan tujuan meminimalkan kesalahan (error) yang terjadi sehingga nilai akurasi pada pengenalan wajah meningkat serta komputasi yang diperlukan lebih cepat. Uji coba dilakukan menggunakan basis data wajah Yale, ORL dan Bern. METODE Two Dimensional Principal Component Analysis (2DPCA) Algoritma 2DPCA dapat dijelaskan sebagai berikut [1]: CI - 87 ISSN : 2302-7088 1. Himpunan sebanyak M citra dari basis data citra wajah pelatihan (xi), yang diproyeksikan ke dalam matrik dua dimensi (xi). x 11 x Y = 12 K x1 N x 21 x 22 K L K x2N K K xM 1 x M 2 K x MN (1) 2. Perhitungan rata-rata dari total matrik citra pelatihan (±̅ ): r ±̅ = å ∑å+r x¯ (2) 3. Perhitungan matrik kovarian dari himpunan citra pelatihan (G): æ r Ï = å ∑å+r#± − ±̅ % ± − ±̅ (3) 4. Perhitungan eigenvalue dan eigenvector dari matrik kovarian dapat diperoleh berdasarkan persamaan 4: çæ Ï ç = ∧ (4) Eigenvalue (∧) selalu berkorespondensi dengan perubahan eigenvector (U). Selanjutnya eigenvector diproyeksikan sesuai eigenvalue mulai dari yang terbesar (d). 5. Memperoleh fitur vektor proyeksi optimal dari 2DPCA, yang direpresentasikan oleh Y1, Y2, …, Yd, yang disebut sebagai principal component vectors dari sampel citra wajah pelatihan (x). Independent (ICA) Component Analysis Pemodelan ICA dinotasikan sebagai r(t) = As(t) dengan r(t) adalah variabel acak yang diteliti, s(t) adalah vektor dari komponen bebas (independent component) dan A adalah matrik citra [3]. Tujuan dari ICA yaitu meramalkan matrik A dan komponen bebas s(t) menggunakan variabel masukan r(t). Berdasarkan ICA asli, diasumsikan sangat sederhana yaitu s(t) merupakan komponen bebas secara statistik. Pada penelitian ini diasumsikan bahwa komponen bebas menggunakan distribusi non-gauss yaitu FAST ICA yang bertujuan untuk memaksimalkan fungsi kontras. Two Dimensional Principal Component Analysis - Independent Component Analysis (2DPCA-ICA) Diasumsikan matrik data pelatihan dinotasikan dengan X = [x1 x2 … xn], dan berkorespondensi dengan komponen bebas S = Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember [s1 s2 … sm]. Hubungan antara X dan S ditunjukkan pada persamaan berikut [5]: X = AS (5) Berdasarkan persamaan 5, setiap citra wajah xi dapat diwakili sebagai kombinasi linear dari s1, s2, …, sm dengan nilai bobot masing-masing ai1, ai2, …, aim. Oleh karena itu, A adalah matrik n x m yang disebut sebagai matrik fitur gabungan. FAST ICA digunakan untuk menghitung matrik gabungan, A. Matrik gabungan, A merupakan matrik balikan, sehingga didapatkan W dengan rumus: A = W-1 (6) dimana W adalah matrik transformasi. Pada penelitian ini, 2DPCA digunakan untuk mereduksi dimensi dari data pelatihan xi, i = 1, 2, …, M. Berdasarkan persamaan 4, eigenvalue (∧) dan eigenvector (U) diperoleh dari perhitungan matrik kovarian. Selanjutnya eigenvector diproyeksikan sesuai eigenvalue mulai dari yang terbesar (d) untuk menghitung matrik pemutihan (whitened matrix) berdasarkan persamaan 7 berikut: é =∧t½ ç æ (7) ìr ìM 0 dengan ∧ = ë í, … 0 ì ì î = 1,2, … , o disebut sebagai eigenvalue dan disusun ìr ≥ ìM ≥ ⋯ ≥ ì . Eigenvector berkorespondensi dengan eigenvalue dinotasikan sebagai ð î = 1,2, … , o , selanjutnya kompresi matrik fitur dari eigenvector ditunjukkan sebagai ç = [ðr ðM … ð ]. Proses terakhir, data pelatihan dinotasikan ñññæ , ò = 1,2, … , ó. FAST-ICA sebagai é ± − ± digunakan untuk menghitung matrik gabungan, A, dan matrik fitur, W, ô ∈ õ  . Jika d adalah komponen bebas yang dipilih, maka matrik bebas (independent matrix) didefinisikan sebagai berikut: ö = ôé (8) dengan ô ∈ õ  , é ∈ õ  , dan ö ∈ õ  . Selanjutnya vektor proyeksi optimal dari 2DPCA-ICA diperoleh dari ø öæ ÷ = [± − ±] (9) dengan ÷ ∈ õ  . Setelah ekstraksi fitur dengan 2DPCA-ICA, maka didapatkan vektor fitur proyeksi dari CI - 88 ISSN : 2302-7088 setiap citra dan matrik ù = [÷r ÷M … ÷ ] dibentuk. Kemudian dilakukan proses klasifikasi menggunakan SVM multiclass. Support Vector Machines (SVM) Salah satu metode klasifikasi yang memiliki performa sangat tinggi adalah Support Vector Machines (SVM). Metode ini pertama kali dikenalkan oleh Vapnik tahun 1995 untuk klasifikasi biner. SVM mampu mengoptimalkan hyperplane yang memisahkan kelas – kelas saat melakukan ujicoba. Selanjutnya Hsu dan Lin berhasil mengembangkan SVM multiclass [6]. Pada dasarnya terdapat dua pendekatan untuk menyelesaikan permasalahan SVM multiclass. Pendekatan pertama adalah dengan menggabungkan semua data dalam suatu permasalahan optimasi, sedangkan pendekatan kedua adalah dengan membangun multiclass classifier, yaitu dengan cara menggabungkan beberapa SVM biner. Pendekatan pertama menuntut penyelesaian masalah optimasi yang lebih rumit dan komputasi yang tinggi, sehingga pendekatan ini tidak banyak dikembangkan. Selain itu, Liu et.al telah mengembangkan SVM multiclass one against all [7]. Dalam penelitian ini menggunakan SVM one against all dengan kernel gaussian. Pada proses klasifikasi pelatihan variabel hyperplane untuk setiap pengklasifikasi (classifier) yang didapat akan disimpan dan nantinya digunakan sebagai data tiap pengklasifikasi dalam proses pengujian, dengan kata lain proses klasifikasi pelatihan adalah untuk mencari support vector dari data input (dalam hal ini digunakan quadratic programming). Pada proses klasifikasi pengujian menggunakan hasil ekstraksi fitur data pengujian dan hasil proses klasifikasi pelatihan. Hasil dari proses ini berupa nilai indeks dari fungsi keputusan yang terbesar yang menyatakan kelas dari data pengujian. Jika kelas yang dihasilkan dari proses klasifikasi pengujian sama dengan kelas data pengujian, maka pengenalan dinyatakan benar. Hasil akhirnya berupa citra wajah yang sesuai dengan nilai indeks dari fungsi keputusan yang terbesar hasil dari proses klasifikasi pengujian. Berikut ini adalah algoritma SVM one against all pada proses pelatihan dilanjutkan dengan proses pengujian: Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 1. Membangun sejumlah k SVM biner (k adalah jumlah kelas). 2. Proses pelatihan pada setiap SVM biner (no.2-4). Memetakan input space ke feature space menggunakan kernel Gaussian K ( x, y ) = exp( ISSN : 2302-7088 dibagi menjadi dua, sebagian digunakan untuk proses pelatihan (training) dan sisanya digunakan untuk proses pengujian (testing). − | x − y |2 ) ( 2σ 2 ) (10) 3. Menentukan sejumlah support vector dengan cara menghitung nilai alpha α1, ..., αN ( N = sejumlah data pelatihan) menggunakan quadratic programming l rr 1 l Q(α ) = ∑αi − ∑αiα j yi y j xi x j 2 i =1 i ,i =1 (11) dengan : α i ≥ 0 (i = 1,2,..., l ) r l ∑α y i =1 i i =0 Data xi yang berkorelasi dengan αi > 0 inilah yang disebut sebagai support vector 4. Solusi bidang pemisah didapatkan dengan (12) rumus: w =Σαiyixi dan b = yk- wTxk untuk setiap xk , dengan αk≠ 0. 5. Proses pengujian pada setiap SVM biner (no.5-6). Memetakan input space ke feature space menggunakan kernel Gaussian, seperti ditunjukkan pada persamaan 10. 6. Menghitung fungsi keputusan: f i = K ( xi , x d ) wi + bi (13) dengan: i = 1 sampai k; xi = support vector; xd = data pengujian. 7. Menentukan nilai fi yang paling maksimal. Kelas i dengan fi terbesar adalah kelas dari data pengujian. RANCANGAN SISTEM Secara garis besar sistem terdiri dari dua bagian, yaitu proses pelatihan citra dan proses pengujian. Pada Gambar 1 merupakan gambaran garis besar sistem pengenalan wajah menggunakan metode 2DPCA-ICA dan SVM. Pada proses pelatihan terdapat proses 2DPCAICA yang digunakan untuk mengekstraksi fitur, fitur-fitur yang terpilih pada saat proses pelatihan digunakan dalam proses klasifikasi dan juga digunakan untuk mendapatkan fiturfitur yang terpilih pada data uji coba. Masingmasing basis data wajah yang digunakan CI - 89 Gambar 1. Rancangan sistem pengenalan wajah menggunakan metode 2DPCA-ICA dan SVM HASIL DAN PEMBAHASAN Pada penelitian ini, integrasi metode 2DPCA-ICA dan SVM diterapkan pada pengenalan wajah menggunakan database wajah Yale, ORL dan Bern. Database wajah Yale menggunakan variasi ekspresi wajah dan pencahayaan. Database ini terdiri dari 165 citra dari 15 orang, setiap orang memiliki 11 perbedaan citra dengan ukuran dimensi 64 x 88. Sedangkan database wajah ORL menggunakan variasi pose dan ukuran data. Database ini terdiri dari 40 orang, masingmasing orang memiliki 10 perbedaan, dengan ukuran dimensi 92 x 112.. Pada database wajah Bern terdiri dari 28 orang, masingmasing orang memiliki 10 perbedaan, dengan ukuran dimensi 64 x 88.. Pada uji coba, semua citra pada tiga database wajah diubah menjadi grayscale dan dilakukan normalisasi menjadi 30 x 24 piksel dengan metode interpolasi bilinear. Selanjutnya ukuran matrik kovarian adalah 24 x 24 untuk mendapatkan eigenvector. Pada penelitian ini, memilih eigenvector yang berkorespondensi dengan 6 eigenvalue terbesar sehingga dilakukan perhitungan matrik pemutihan (whitened matrix) é = ∧t½ ç æ , dengan d = 6. Kemudian dilakukan proses FAST-ICA untuk menghitung vektor Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember dari komponen bebas, S. Pada penelitian ini menggunakan 6 komponen bebas (d = 6). Berdasarkan persamaan 8, bahwa dimensi S adalah 24x6x24. Selanjutnya menghitung vektor proyeksi berdasarkan persamaan 9 sehingga didapatkan Y, dengan ukuran dimensi sama dengan 24x24x6. Dilanjutkan dengan proses klasifikasi menggunakan SVM one against all. Setelah menghitung fungsi keputusan (fi) dan kelas data x akan ditentukan berdasarkan nilai fungsi keputusan yang tertinggi. Untuk pencarian solusi tersebut menggunakan quadratic programming. Pada penelitian ini menggunakan Matlab 2010, termasuk quadratic programming langsung menggunakan yang sudah tersedia di Matlab. Untuk masing-masing database wajah pelatihan menggunakan 3 wajah (uji 3), 4 wajah (uji 4), 5 wajah (uji 5) . Sisa wajah yang tidak digunakan pada proses pelatihan, maka digunakan sebagai data pengenalan/ pengujian. Pada Tabel 1, 2 dan 3 menunjukkan hasil pengenalan wajah menggunakan database Yale, ORL, dan Bern dengan membandingkan metode 2DPCA + SVM dan 2DPCA-ICA + SVM. 2DPCA + SVM 2DPCA-ICA + SVM Akurasi pengenalan (%) Uji 3 Uji 4 Uji 5 80.65 83.42 87.25 84.5 89.55 93.6 Tabel 2 Perbandingan hasil pengenalan wajah menggunakan 2DPCA dan 2DPCA-ICA dengan SVM sebagai pengklasifikasinya pada database ORL Metode 2DPCA + SVM 2DPCA-ICA + SVM Akurasi pengenalan (%) Uji 3 Uji 4 Uji 5 88.3 92.5 98.75 90.5 94.75 99.6 Tabel 3 Perbandingan hasil pengenalan wajah menggunakan 2DPCA dan 2DPCA-ICA dengan SVM sebagai pengklasifikasinya pada database Bern Metode 2DPCA + 84.5 94.55 99 Berdasarkan Tabel 1, 2 dan 3 menunjukkan bahwa rata-rata akurasi pengenalan wajah menggunakan 2DPCA-ICA + SVM lebih tinggi dibandingkan dengan 2DPCA + SVM, yaitu sebesar 99,6% dengan 5 data pelatihan pada database ORL. Metode 2DPCA-ICA mampu menggabungkan kelebihan 2DPCA (ukuran matrik kovarian yang lebih kecil dibandingkan PCA) dan ICA (generalisasi dari PCA). SIMPULAN Pada penelitian ini mempresentasikan integrasi metode 2DPCA-ICA dan SVM one against all pada pengenalan wajah. Uji coba menggunakan database wajah Yale, ORL dan Bern. Berdasarkan hasil uji coba, 2DPCA-ICA dan SVM memiliki rata-rata akurasi pengenalan wajah lebih tinggi dibandingkan 2DPCA dan SVM, yaitu sebesar 99.6% menggunakan pada 5 data pelatihan pada database ORL. DAFTAR PUSTAKA Tabel 1 Perbandingan hasil pengenalan wajah menggunakan 2DPCA dan 2DPCA-ICA dengan SVM sebagai pengklasifikasinya pada database Yale Metode SVM 2DPCA-ICA + SVM ISSN : 2302-7088 Akurasi pengenalan (%) Uji 3 Uji 4 Uji 5 86.47 93.65 96.25 CI - 90 [1] Liu, C. Enhanced Independent Component Analysis of Gabor Features for Face Recognition. IEEE Transactions on Neural Networks. 14: 919-928. 2003. [2] Yang, J., Zhang, D., Frangi, A.F. and Yang, J.Y. Two-Dimensional PCA : A New Approach to Appearance-Based Face Representation and Recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence. 26 (1) : 131137. 2004. [3] Deniz, O., Castrillon, M., and Hernandez, M. Face Recognition Using Independent Component Analysis and Support Vector Machines. Pattern Recognition Letters. 24: 2153-2157. 2003. [4] Fortuna, J. and Capson, D. Improved Support Vector Classification Using PCA and ICA Feature Space Modification. Pattern Recognition. 37: 1117-1129. [5] Gan, J.-y., Li, C.-z., and Zhou, D.-p. A Novel Method for 2DPCA-ICA in Face Recognition. ICIC 2007, CCIS 2, pp. 1203-1209. 2007. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember [6] Hsu, C.W., and Lin, C.J. A Comparison of Methods for Multi-class Support Vector Machines, IEEE Transactions on Neural Networks. 13(2): 415-425. 2002. [7] Liu, Y., Wang, R., Zeng, Y., and He, H. An Improvement of One-against-all Method for Multiclass Support Vector Machine. 4th International Conference: Sciences of Electronic, Technologies of Information and Telecommunications (SETIT 2007). Tunisia. 2007. CI - 91 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 STUDI PERFORMANSI PENERAPAN MANAJEMEN AKSES JAMAK TERPUSAT DAN TERDISTRIBUSI PADA JARINGAN KOMPUTER Achmad Ubaidillah Ms. Fakultas Teknik – Universitas Trunojoyo Madura Email : [email protected] Abstrak Universitas Trunojoyo Madura pernah menerapkan sistem manajemen akses jamak (multiple access) terdistribusi pada jaringan komputernya, tepatnya sampai tahun 2010. Namun akhirnya sistem manajemen akses jamak tersebut diganti dengan sistem manajemen akses jamak terpusat. Permasalahannya adalah, perubahan sistem manajemen akses jamak tersebut dilakukan tanpa dilakukan kajian ilmiah terlebih dahulu. Penelitian ini akan mengkaji dan membandingkan kinerja penerapan manajemen akses jamak terpusat dan manajemen akses jamak terdistribusi pada jaringan komputer Universitas Trunojoyo Madura. Tujuan dilakukan kajian seperti ini adalah untuk merekomendasikan sistem manajemen akses jamak yang lebih baik kinerjanya jika diterapkan pada jaringan komputer Universitas Trunojoyo Madura. Hasil penelitian menunjukkan bahwa kinerja sistem manajemen akses jamak terpusat lebih baik dari pada sistem manajemen akses jamak terdistribusi karena tidak kaku dan selalu dapat menyesuaikan diri dengan kebutuhan bandwidth masing-masing grup. Kata kunci : Manajemen akses Jamak, Terpusat, Terdistribusi Abstract Trunojoyo University of Madura has implemented distributed system of multiple access management on it’s computer network until 2010. But, this multiple access management system finally was changed to become centralized system of multiple access management. The problem is, the change of that multiple access management system, was not based on scientific observation. This research observes and compares the performance between centralized and distributed multiple access management system on computer network of Trunojoyo University of Madura. The aim of this research is, to recommend which one of multiple access management system is better tobe implemented in computer network of Trunojoyo University of Madura. The result of this research show that centralized multiple access management system is better than distributed multiple access management system, because it is not stiff and it is ajustable depend on the need of bandwidth of each group. Key words : centralized, distributed, multiple access management PENDAHULUAN Dalam membangun jaringan komputer di perusahaan/ organisasi, ada beberapa keuntungan yang dapat diperoleh dalam hal-hal resource sharing, reliabilitas tinggi, lebih ekonomis, skalabilitas, dan media komunikasi. Resource sharing bertujuan agar seluruh program, peralatan, khususnya data dapat digunakan oleh setiap orang yang ada pada jaringan tanpa terpengaruh oleh lokasi resource dan pemakai. Jadi source sharing adalah suatu usaha untuk menghilangkan kendala jarak. Dengan menggunakan jaringan komputer akan memberikan reliabilitas tinggi yaitu adanya sumber-sumber NW - 92 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember alternatif pengganti jika terjadi masalah pada salah satu perangkat dalam jaringan, artinya karena perangkat yang digunakan lebih dari satu jika salah satu perangkat mengalami masalah, maka perangkat yang lain dapat menggantikannya. Yang dimaksud dengan skalabilitas yaitu kemampuan untuk meningkatkan kinerja sistem secara berangsur-angsur sesuai dengan beban pekerjaan dengan hanya menambahkan sejumlah prosesor. Sebuah jaringan komputer mampu bertindak sebagai media komunikasi yang baik bagi para pegawai yang terpisah jauh. Dengan menggunakan jaringan, dua orang atau lebih yang tinggal berjauhan akan lebih mudah bekerja sama dalam menyusun laporan. [5] Universitas Trunojoyo Madura sebagai pengguna sistem jaringan komputer, seharusnya melakukan kajian tentang sejauh mana kinerja jaringan komputer yang telah diterapkan tersebut sehingga dapat melakukan perencanaan instalasi jaringan komputer dengan baik untuk menjaga kualitas jaringan komputer tersebut. Karena, tanpa kajian dan perencanaan jaringan yang jelas, akan berakibat pada menurunnya kualitas layanan (misalnya koneksi sering putus, lambat dsb.), dan ujung-ujungnya pasti dapat menurunkan kinerja sivitas akademika di lingkungan Universitas Trunojoyo Madura sendiri, apalagi semakin lama jumlah pengguna jaringan komputer .di lingkungan Universitas Trunjoyo Madura semakin banyak berhubung jumlah program studi dan jumlah pengadaan komputer juga semakin banyak, belum lagi pengguna fasilitas WLAN dengan media laptop. [7] Salah satu evaluasi performansi yang dapat dilakukan pada jaringan komputer Universitas Trunojoyo Madura adalah kajian performansi penerapan sistem manajemen akses jamak terpusat dan terdistribusi. Pada sistem jaringan komputer Universitas Trunojoyo Madura, pernah diterapkan manajemen akses jamak terdistribusi terutama sampai tahun 2010. Pada akhirnya, sistem tersebut diubah menjadi manajemen akses jamak terpusat. Akan tetapi perubahan tersebut tidak didasari pada kajian ilmiah. Pada penelitian ini akan dtinikaji bagaimana ISSN : 2302-7088 performansi jaringan komputer di lingkungan Universitas Trunojoyo Madura dengan sistem manajemen akses jamak terpusat dan terdistribusi. Tujuannya adalah untuk merekomendasikan sistem yang lebih baik kinerjanya untuk diaplikasikan pada jaringan komputer Universitas Trunojoyo Madura. TINJAUAN PUSTAKA Pada [2] dituliskan definisi tentang kinerja, yaitu : 1. Standar industri Jerman DIN55350: Kinerja terdiri dari semua karakteristik dan aktivitas penting yang dibutuhkan dalam suatu produksi, yang meliputi perbedaan kuantitatif dan kualitatif produksi atau aktivitas keseluruhan. 2. Standar ANSI (ANSI/ASQC A3/1978) : Kinerja adalah gambaran dan karakteristik produksi keseluruhan atau pelayanan yang berhubungan dengan pemenuhan kebutuhan. 3. Standar IEEE untuk kinerja perangkat lunak (IEEE Std 729 - 1983) : Kinerja adalah tingkatan untuk memenuhi kombinasi perangkat lunak yang diinginkan. Menurut [2], indeks eksternal yang dapat dijadikan tolok ukur kinerja suatu sistem jaringan antara lain turn around time, response time, throughput, kapasitas, availability, dan realibility. Sedangkan menurut [3], metrik ukuran kinerja jaringan yang biasa digunakan oleh para peneliti antara lain delay, jitter, throughput, goodput, utilisasi, dan probabilitas blocking. Salah satu contohnya adalah [1], yang menganalisa kinerja jaringan LAN dengan mengimplementasikan adaptive transcoder dengan cara mengukur besar kecilnya throughput dan kapasitas penggunaan bandwidth sebagai tolok ukur kinerja. Throughput merupakan rate informasi yang diterima secara sukses oleh user/client/terminal dengan satuan bit/sekon atau paket/sekon atau frame/sekon. Pada [7] dilakukan studi pengukuran kinerja jaringan komputer di Universitas Trunojoyo Madura dengan pendekatan bit rate dan utilisasi bandwidth dalam setiap harinya sebagai NW - 93 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember tolok ukur kinerjanya. Pada penelititan ini akan dibandingkan kinerja antara manajemen akses jamak yang terpusat dan terdistribusi pada jaringan komputer Universitas Trunojoyo Madura, yang untuk kemudian akan menghasilkan rekomendasi tentang metode yang mana di antara kedua metode tersebut yang lebih baik. MANAJEMEN AKSES TERPUSAT TERDISTRIBUSI JAMAK DAN Model referensi OSI (Open System Interconection) yang dikembangkan oleh ISO (International Standards Organization) pada tahun 1974, memberikan gambaran tentang terjadinya proses komunikasi antara dua terminal, yaitu dengan cara membagi proses tersebut ke dalam 7 layer yang memiliki tujuan dan tanggung jawab yang berbeda serta saling tidak tergantung satu dengan lainnya. Masing-masing layer tersebut memiliki tugas dan fungsi yang berbeda-beda namun juga menyediakan layanan kepada layer di atasya dan layer di bawahnya. Layer-layer tersebut adalah : 1. Layer Physical, yaitu layer yang bertugas untuk menyatakan informasi yang akan dikirimkan agar dapat dilewatkan pada medium komunikasi, baik melalui kabel tembaga, gelombang radio maupun melalui serat optik. 2. Layer Data Link, yaitu layer yang bertugas untuk menyediakan protokol deteksi dan koreksi sinyal error, dan protokol Medium Access Control (MAC). 3. Layer Network, yaitu layer yang memiliki fungsi utama untuk merutekan paket-paket informasi dari sumber ke tujuan 4. Layer Transport, yaitu layer yang memiliki fungsi utama untuk menyediakan protokol dalam hal flow control terhadap trafik jaringan 5. Layer Session, yaitu layer yang bertugas untuk manajemen koneksi end to end yang handal, termasuk juga mengatur kapan koneksi dibangun, dan kapan koneksi diputus. ISSN : 2302-7088 6. Layer Presentation, yaitu layer yang memiliki fungsi utama untuk menyediakan aplikasi filter data yang handal, terutama dalam fungsi kompresi dan enkripsi data untuk melayani layer di atasnya. 7. Layer Application, yaitu layer yang merupakan interface terhadap program aplikasi pengguna. [6] Dari 7 layer standar OSI di atas, layer yang berhubungan dengan masalah multiple acces adalah data link layer, yaitu dengan protokol MAC (Medium Access Control). Beberapa metode multiple access adalah sebagai berikut: 1. Frequency Division Multiple Access (FDMA), adalah metode akses jamak yang didasarkan pada pembagian frekuensi. Satu kanal pada FDMA adalah satu sub bandwidth. 2. Time Division Multiple Access (TDMA), adalah metode akses jamak yang didasarkan pada pembagian waktu antrian pengiriman. Satu kanal pada TDMA adalah satu time slot. 3. Code Division Multiple Access (CDMA), adalah metode akses jamak yang didasarkan pada pembagian kode. Satu kanal pada CDMA adalah satu kode yang bersifat orthogonal Satu dengan lainnya. 4. Orthogonal Frequency Multiple Access (OFDMA), adalah metode akses jamak yang didasarkan pada pembagian frekuensi dan waktu secara sekaligus sehingga menjadi carrier kecil yang bersifat orthogonal. Satu kanal pada OFDMA adalah satu sub carrier kecil yang bersifat orthogonal satu dengan lainnya. [8] 5. Carrier Sensing Multiple Access (CSMA), adalah metode akses jamak yang didasarkan pada pembagian pita frekuensi menjadi carrier yang berukuran kecil. Setiap terminal yang berkepentingan untuk mengirimkan informasi harus mendengar dan mendeteksi adanya carrier terlebih dahulu. Jika ada carrier yang idle, maka terminal tersebut dapat mengirimkan informasinya melalui carrier tersebut. Pada jaringan komputer, protokol MAC yang terkenal dan paling banyak NW - 94 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember diterapkan adalah CSMA. Dalam penerapannya, manajemen akses jamak pada jaringan komputer, ada yang bersifat terpusat dan ada juga yang terdistribusi. Yang dimaksud dengan manajemen akses jamak terpusat pada jaringan komputer adalah cara pembagian bandwidth yang dalam hal ini adalah penggunaan carrier, yang diatur secara terpusat. Semua carrier atau total bandwidth dikelola secara terpusat dan terpadu oleh satu pengatur trafik, tanpa membeda-bedakan pengguna. Sedangkan manajemen akses jamak terdistribusi pada jaringan komputer adalah cara pembagian bandwidth kepada pengguna secara tidak terpusat oleh satu pengatur trafik, melainkan melalui sub-sub pengatur trafik pada masing-masing grup atau kelompok. bandwidth total atau semua carrier dibagi dan didistribusikan terlebih dahulu kepada sub pengatur yang menjadi induk di masing-masing kelompok. Kemudian sub pengatur itulah yang membagi-bagikan carrier kepada pengguna yang berada di dalam kelompoknya. Besar kecilnya bandwidth pada masing-masing kelompok ditentukan terlebih dahulu oleh pengatur pusat dan tergantung pada kebutuhan masing-masing kelompok tersebut. METODE PENGUKURAN Mengevaluasi kinerja jaringan adalah elemen kunci dalam desain, operasi dan manajemen jaringan. Seperti misalnya menentukan berapa banyak terminal yang dapat dihubungkan ke suatu mainframe computer system, menentukan kebutuhan buffer dalam suatu switch, mengetahui bagaimana adaptive windowing bekerja, mengukur delay backbone dan lain sebagainya. Metriks adalah kriteria yang digunakan untuk evaluasi performansi suatu sistem. Metriks pada umumnya berupa kuantitas statistik. Beberapa metriks yang biasa digunakan untuk mengevaluasi kinerja suatu sistem jaringan komunikasi adalah : 1. Delay 2. Jitter (variasi delay) 3. Throughput (jumlah request/paket yang melalui jaringan per unit waktu 4. Goodput (sama dengan throughput, akan tetapi tanpa overhead) ISSN : 2302-7088 5. Utilisasi (fraksi dari waktu link komunikasi) 6. Blocking probability (kemungkinan tidak mendapatkan layanan jaringan) 7. Dan lain-lain Pada dasarnya ada tiga metode untuk melakukan kajian performansi suatu jaringan komunikasi, yaitu : 1. Pengukuran langsung, mengumpulkan data eksperimental dari suatu prototype atau sistem existing 2. Simulasi, eksperimen dengan model komputer dari sistem 3. Analisa murni, penggambaran model secara analitis dari sistem. Metode pengukuran langsung memiliki kelebihan dan kekurangan. Adapun beberapa kelebihan metode pengukuran langsung antara lain adalah akurasi yang tinggi serta dapat mencakup permasalahan secara detail. Sedangkan beberapa kekurangannya antara lain adalah harus memiliki peralatan untuk pengukuran, kesulitan dalam mempertimbangkan semua parameter yang memungkinkan, sulit dalam melakukan reproduksi, menghabiskan banyak waktu dan lain sebagainya. Metode simulasi juga memiliki kelebihan serta kekurangan. Adapun beberapa kelebihan metode simulasi antara lain adalah memungkinkan dapat mencakup detail permasalahan, dapat membandingkan alternatif desain sistem, dapat mengendalikan skala waktu dan tidak memerlukan sistem. Sedangkan beberapa kelemahan dari metode simulasi antara lain adalah kesulitan mengeneralisir hasil, kesulitan dalam mengukur sensitivitas, memerlukan banyak waktu untuk mengembangkan dan mengeksekusi simulasi, masih memerlukan validasi dan analisa data out put. Metode analisa murni, sebagaimana metode pengukuran dan simulasi juga memiliki kelebihan dan kekurangan. Beberapa kelebihan metode analisa murni antara lain adalah cepat, aplikasi untuk semua tingkatan dari sistem, memungkinkan mempelajari tradeoff dan sensitivitas dari sistem. Sedangkan beberapa kelemahan dari metode analisa NW - 95 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember murni antara lain adalah kemungkinan hanya sampai pada tahap aproksimasi, perlu waktu yang lama untuk mengembangkan model dan permasalahan, dan sebagainya. [3] LANGKAH – LANGKAH PENELITIAN Penelitian ini akan mengkaji dan membandingkan kinerja serta menghasilkan rekomendasi tentang penerapan manajemen akses jamak secara terpusat dan terdistribusi pada jaringan komputer khususnya yang diterapkan di Universitas Trunojoyo Madura. Kajian kinerja manajemen akses jamak terdistribusi, akan dijalankan dalam dua skenario. Skenario pertama diasumsikan bahwa pembagian bandwidth per kelompok adalah sama. Skenario kedua diasumsikan bahwa pembagian bandwidth per kelompok akan disesuaikan dengan distribusi usage of bandwidth per hari. Sedangkan pada kajian kinerja manajemen akses jamak terpusat, tidak ada distribusi atau pembagian bandwidth kepada setiap kelompok. Metode pengukuran kinerja jaringan komputer dalam penelitian ini adalah metode pengukuran langsung, yaitu mengukur beberapa parameter yang dapat menunjukkan quality of service (QoS) seperti bit rate dan rata-rata usage of bandwidth total per hari yang dipakai dalam satu universitas maupun setiap fakultas. Semakin tingginya bit rate menunjukkan semakin baiknya kualitas layanan jaringan. Sedangkan semakin besarnya rata-rata usage of bandwidth total per hari, menunjukkan semakin banyaknya penggunaan/akses jaringan. Semakin banyaknya penggunaan/akses jaringan akan berakibat pada menurunnya kualitas jaringan itu sendiri. Data-data pengukuran dapat diperoleh dari rekaman aktivitas penggunaan jaringan yang diperlukan di PTIK (Pusat Teknologi Informasi dan Komunikasi) baik pada level fakultas maupun level universitas. ANALISA HASIL PENELITIAN ISSN : 2302-7088 Seperti dijelaskan pada langkahlangkah penelitian bahwa pada pokoknya penelitian ini akan mengkaji kinerja jaringan komputer Universitas Trunojoyo Madura dalam 3 kondisi : 1. Manajemen multiple access terdistribusi dengan asumsi bandwidth total dibagi secara sama rata untuk setiap grup 2. Manajemen multiple access terdistribusi dengan asumsi bandwidth total dibagi kepada setiap grup berdasarkan kebutuhan masing-masing grup, yaitu dengan mengukur rata-rata kebutuhan sebelumnya 3. Manajemen multiple access terpusat, yaitu tidak ada batasan bagi setiap grup maupun setiap user, dengan kata lain semua berebut carrier ke scheduler pusat. Pada skenario pertama, yaitu pengukuran kinerja jaringan dengan kondisi manajemen akses jamak terdistribusi dan dengan asumsi bandwidth total dibagi secara sama rata untuk setiap grup, diperoleh data-data seperti pada tabel 1. Data mentah hasil pengukuran hanya berupa data transaksi Byte pada masing-masing grup per hari. Langkah pertama dalam proses pengolahan data adalah dengan mencari “Rt_TB” dalam Byte (Rata-rata Transaksi Byte masingmasing grup per hari), yaitu dengan: T7_Œû = 3!7! − 3!7! 73! =! =& û†75 =57&!2 83/2 253 1!3& )/'0! 1!3& Ternyata jumlah total dari “Rt_TB” atau jumlah total dari rata-rata transaksi Byte seluruh jaringan komputer di Universitas Trunojoyo Madura adalah 2.24E+11 Byte atau ± 224 GByte. Kemudian dicari nilai Rt_TB’ (rata-rata transaksi Byte per grup yang baru yaitu dengan membagi sama rata Rt_TB kepada semua grup) dengan cara: T7′Œû = = T7Œû )/'0! 83/2 . üû†75 -G = ‰, .Š üû†75 Permasalahannya adalah rata-rata kebutuhan transaksi Byte per grup tidak sama satu dengan yang lainnya dan sangat bervariasi dari yang terendah (grup FP, NW - 96 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 3.30E+02) sampai yang tertinggi (grup LABSHARE, 7.00E+10). Jelas sekali terjadi ketimpangan dalam masalah akses dari kedua grup tersebut. Sehingga apabila dipukul rata secara kaku bahwa setiap grup akan mendapatkan jatah transaksi Byte ± 7,48 GByte, maka akan terjadi kekacauan jaringan yaitu sebagian akan sangat kekurangan dan sebagian besar yang lain akan sangat kelebihan, seperti tampak pada Tabel 1. 50&=& û†75 = T7_Œû′ − T7_Œû Dan dapat dikonversi ke dalam besaran bit rate menggunakan rumus : ö¸ýî§îℎ þî- ¹¸ §¸Û › ö¸ýî§îℎ ù -¸ × 8 þî= 24 ò • × 60 •¸›î- × 60 o¸-îÛ Dari Tabel 1, tampak bahwa sebagian grup akan kekurangan dalam hal kecepatan bit dan otomatis juga kekurangan bandwidth (bahkan grup LABSHARE kekurangan sampai 7.23E+05 bit/sekon atau ± 723 Kbps), sedangkan sebagian besar grup yang lain akan kelebihan bandwidth (bahkan grup FP kelebihan sampai 8.65E+04 bit/sekon atau ± 86,5 Kbps). Bagi grup-grup yang mengalami kekurangan bandwidth akan mengalami akses jaringan yang sangat lambat, karena jumlah informasi dalam bentuk bit-bit yang akan ditransaksikan sangat besar padahal bandwidth-nya kecil, yang dalam hal ini adalah jumlah carrier yang akan membawa informasi besar tersebut sangat kecil dan sedikit. Sebaliknya, bagi grup-grup yang mengalami surplus bandwidth akan mengalami proses akses jaringan yang sangat cepat, yang dikarenakan jumlah informasi dalam bentuk bit-bit yang akan dikirimkan atau ditransaksikan sangat sedikit, padahal bandwidth-nya besar, yang dalam hal ini adalah jumlah carrier yang akan membawa bit-bit informasi kecil tersebut sangat besar dan banyak. Pada evaluasi kinerja skenario kedua, yaitu dengan kondisi Manajemen multiple access terdistribusi dengan asumsi bandwidth total dibagi kepada setiap grup berdasarkan kebutuhan masing-masing grup, yaitu dengan mengukur rata-rata kebutuhan sebelumnya, diperoleh datadata seperti pada tabel 2. Tidak seperti ISSN : 2302-7088 analisa tabel 1, analisa kinerja pada skenario 2 seperti tampak pada tabel 2 jauh lebih baik dan lebih adil dibandingkan dengan skenario 1. Grupgrup yang terbiasa melakukan transaksi Byte sangat besar diberikan hak bandwidth yang besar juga, sebaliknya grup-grup yang terbiasa melakukan transaksi Byte kecil diberikan bandwidth yang lebih kecil, dengan kata lain disesuaikan dengan kebutuhan masingmaing. Yang menjadi permasalahan adalah, pembagian bandwidth pada setiap grup tersebut bersifat kaku dan tidak bisa berubah secara otomatis sesuai dengan jumlah user dan jumlah transaksi. Untuk merubah jatah bandwidth per grup harus dilakukan secara pengaturan manual. Padahal pembagian jatah bandwidth pada skenario ini hanya didasarkan pada ratarata transaksi Byte per grup. Artinya ukuran jatah tersebut bisa kurang dan bisa lebih seperti tampak pada tabel 2. Ketika jumlah transaksi pada grup sedang kecil, akan terjadi surplus dan akses bisa sangat cepat. Sebaliknya ketika jumlah transaksi pada grup sedang besar, akan terjadi kekurangan carrier dan proses akses akan sangat lambat. Tidak seperti pada skenario 1 dan 2, yaitu manajemen akses jamak terdistribusi yang kedua-duanya bersifat kaku, sistem manajemen akses jamak terpusat jauh lebih baik karena jatah bandwidth tidak dibagi-bagikan secara kaku pada masingmasing grup, melainkan diatur secara terpusat oleh scheduler pusat. User pada level grup tidak akan pernah mengalami kekurangan atau kelebihan secara pribadi. Dengan sistem manajemen akses jamak terpusat ini, kekurangan resource jaringan akan ditanggung bersama oleh semua user, demikian juga kelebihan resource jaringan juga akan dinikmati secara bersama-sama oleh semua user dari grup manapun. Ukuran-ukuran kecepatan bit (bit rate) seperti tampak pada tabel 3 akan selalu berubah-ubah secara dinamis tergantung pada jumlah user dan aktivitas masingmasing user pada setiap grup. NW - 97 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 Tabel 1. Kinerja jaringan komputer Universitas Trunojoyo Madura dengan sistem manajemen akses jamak terdistribusi dengan asumsi bandwidth total dibagi sama rata pada setiap grup No GROUP LABSHARE Rt_TB (Byte) 7.00E+10 Rt_TB’ (Byte) 7.48E+09 Keterangan 7.48E+09 Selisih (Byte) 6.25E+10 1.89E+10 1.20E+10 8.91E+09 6.25E+09 5.76E+09 2.09E+09 Kekurangan Selisih Bit rate -7.23E+05 1 2 FT-1 2.64E+10 7.48E+09 Kekurangan -2.19E+05 3 WIFI 1.95E+10 7.48E+09 Kekurangan -1.39E+05 4 UKM 1.64E+10 7.48E+09 Kekurangan -1.03E+05 5 Lab-FE 1.37E+10 7.48E+09 Kekurangan -7.23E+04 6 FP-Labkom 1.32E+10 7.48E+09 Kekurangan -6.67E+04 7 FT-2 9.57E+09 Kekurangan -2.42E+04 8 REktorat 6.93E+09 7.48E+09 5.53E+08 Kelebihan 6.40E+03 9 RE-Wifi 6.45E+09 7.48E+09 1.03E+09 Kelebihan 1.19E+04 10 Lab-Dasar 6.31E+09 7.48E+09 1.16E+09 Kelebihan 1.35E+04 11 SS-Wifi 6.11E+09 7.48E+09 1.37E+09 Kelebihan 1.58E+04 12 FP-iKL 5.04E+09 7.48E+09 2.44E+09 Kelebihan 2.82E+04 13 Lab-FH 4.96E+09 7.48E+09 2.52E+09 Kelebihan 2.91E+04 14 FISIB 4.44E+09 7.48E+09 3.04E+09 Kelebihan 3.52E+04 15 PUSKOM 3.74E+09 7.48E+09 3.74E+09 Kelebihan 4.33E+04 16 FP-Agri 2.33E+09 7.48E+09 5.15E+09 Kelebihan 5.96E+04 17 FE 1.86E+09 7.48E+09 5.62E+09 Kelebihan 6.50E+04 18 PERPUS 1.70E+09 7.48E+09 5.78E+09 Kelebihan 6.69E+04 19 FP-AgroTiP 1.41E+09 7.48E+09 6.07E+09 Kelebihan 7.02E+04 20 LPPM 1.34E+09 7.48E+09 6.13E+09 Kelebihan 7.10E+04 21 FH 6.18E+08 7.48E+09 6.86E+09 Kelebihan 7.94E+04 22 FP-Admin 5.70E+08 7.48E+09 6.91E+09 Kelebihan 8.00E+04 23 FP-R.Dosen 5.44E+08 7.48E+09 6.93E+09 Kelebihan 8.03E+04 24 UPT-Bahasa 4.21E+08 7.48E+09 7.06E+09 Kelebihan 8.17E+04 25 SS 3.08E+08 7.48E+09 7.17E+09 Kelebihan 8.30E+04 26 HUMAS 2.98E+08 7.48E+09 7.18E+09 Kelebihan 8.31E+04 27 RE.Lt2-wifi 2.19E+08 7.48E+09 7.26E+09 Kelebihan 8.40E+04 28 Dmz 6.32E+05 7.48E+09 7.48E+09 Kelebihan 8.65E+04 29 Localhost 7.01E+03 7.48E+09 7.48E+09 Kelebihan 8.65E+04 30 FP 3.30E+02 7.48E+09 7.48E+09 Kelebihan 8.65E+04 Total 2.24E+11 Tabel 2. Kinerja jaringan komputer Universitas Trunojoyo Madura dengan sistem manajemen akses jamak terdistribusi dengan asumsi bandwidth total dibagi berdasarkan pada prosentase kebutuhan masing-masing grup No 1 GROUP LABSHARE Rt_TB (Byte) 7.00E+10 Min TB (Byte) NW - 98 2.44E+10 Max TB (Byte) 1.48E+11 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 2.64E+10 9.40E+09 ISSN : 2302-7088 2 FT-1 4.54E+10 3 WIFI 1.95E+10 1.07E+10 2.50E+10 4 UKM 1.64E+10 8.10E+09 2.54E+10 5 Lab-FE 1.37E+10 4.20E+09 2.43E+10 6 FP-Labkom 1.32E+10 2.50E+09 3.04E+10 7 FT-2 9.57E+09 8.53E+08 2.06E+10 8 REktorat 6.93E+09 2.40E+09 1.28E+10 9 RE-Wifi 6.45E+09 2.80E+09 1.10E+10 10 Lab-Dasar 6.31E+09 3.73E+08 2.01E+10 11 SS-Wifi 6.11E+09 2.20E+09 1.37E+10 12 FP-iKL 5.04E+09 1.50E+09 1.25E+10 13 Lab-FH 4.96E+09 1.40E+09 1.14E+10 14 FISIB 4.44E+09 2.70E+09 6.90E+09 15 PUSKOM 3.74E+09 1.20E+09 7.70E+09 16 FP-Agri 2.33E+09 1.29E+08 6.80E+09 17 FE 1.86E+09 1.20E+09 2.80E+09 18 PERPUS 1.70E+09 5.99E+08 3.50E+09 19 FP-AgroTiP 1.41E+09 8.41E+08 2.90E+09 20 LPPM 1.34E+09 2.19E+08 6.10E+09 21 FH 6.18E+08 1.85E+08 1.40E+09 22 FP-Admin 5.70E+08 4.07E+08 8.47E+08 23 FP-R.Dosen 5.44E+08 1.06E+08 1.60E+09 24 UPT-Bahasa 4.21E+08 4.34E+07 1.10E+09 25 SS 3.08E+08 6.81E+07 5.96E+08 26 HUMAS 2.98E+08 6.70E+07 6.29E+08 27 RE.Lt2-wifi 2.19E+08 1.50E+07 1.10E+09 28 Dmz 6.32E+05 0.00E+00 2.20E+06 29 Localhost 7.01E+03 0.00E+00 3.16E+04 30 FP 3.30E+02 0.00E+00 1.32E+03 Total 2.24E+11 Tabel 3. Kinerja jaringan komputer Universitas Trunojoyo Madura dengan sistem manajemen akses jamak terpusat No GROUP Rt UoB (Byte) Rt bit rate (bit/s) % 1 LABSHARE 7.00E+10 6.48E+06 31.19 2 FT-1 2.64E+10 2.44E+06 11.77 3 WIFI 1.95E+10 1.80E+06 8.67 4 UKM 1.64E+10 1.52E+06 7.31 5 Lab-FE 1.37E+10 1.27E+06 6.12 6 FP-Labkom 1.32E+10 1.23E+06 5.90 7 FT-2 9.57E+09 8.86E+05 4.27 8 REktorat 6.93E+09 6.41E+05 3.09 9 RE-Wifi 6.45E+09 5.97E+05 2.88 10 Lab-Dasar 6.31E+09 5.85E+05 2.81 11 SS-Wifi 6.11E+09 5.66E+05 2.72 NW - 99 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 5.04E+09 12 FP-iKL 13 Lab-FH 4.96E+09 4.59E+05 2.21 14 FISIB 4.44E+09 4.11E+05 1.98 15 PUSKOM 3.74E+09 3.46E+05 1.67 16 FP-Agri 2.33E+09 2.16E+05 1.04 17 FE 1.86E+09 1.72E+05 0.83 18 PERPUS 1.70E+09 1.57E+05 0.76 19 FP-AgroTiP 1.41E+09 1.31E+05 0.63 20 LPPM 1.34E+09 1.24E+05 0.60 21 FH 6.18E+08 5.72E+04 0.28 22 FP-Admin 5.70E+08 5.27E+04 0.25 23 FP-R.Dosen 5.44E+08 5.04E+04 0.24 24 UPT-Bahasa 4.21E+08 3.90E+04 0.19 25 SS 3.08E+08 2.85E+04 0.14 26 HUMAS 2.98E+08 2.76E+04 0.13 27 RE.Lt2-wifi 2.19E+08 2.03E+04 0.10 28 Dmz 6.32E+05 5.85E+01 0.00 29 Localhost 7.01E+03 6.49E-01 0.00 30 FP 3.30E+02 3.06E-02 0.00 Total 2.24E+11 2.08E+07 100.00 KESIMPULAN DAN SARAN Beberapa kesimpulan yang dapat diambil dari penelitian ini adalah : 1. Performansi penerapan sistem manajemen multiple access terdistribusi dengan asumsi bandwidth total dibagi sama rata pada setiap grup, sama sekali tidak baik dilakukan, karena selain sifat pembagiannya bersifat kaku, juga akan menimbulkan ketimpangan jaringan, yaitu sebagian grup yang kebutuhannya sedikit akan mengalami surplus bandwidth sedangkan sebagian grup yang lain yang kebutuhan bandwidth-nya tinggi akan mengalami kekurangan dan proses akses jaringannya akan sangat lambat. terdistribusi dengan asumsi bandwidth total 2. Performansi penerapan sistem manajemen multiple access terdistribusi dengan asumsi bandwidth total dibagi berdasarkan pada prosentase kebutuhan masing-masing grup, menunjukan lebih baik dari pada pembagian bandwidth secara sama rata. Hal ini dikarenakan pembagian bandwidth didasarkan pada kebiasan kebutuhan bandwidth masa lalu dari masing-masing grup. Akan tetapi sistem ini tidak dapat mengatasi 4.66E+05 ISSN : 2302-7088 2.25 permasalahan secara otomatis jika suatu waktu tingkat kebutuhan bandwidth di masing-masing grup mengalami perubahan drastis. 3. Performansi penerapan sistem manajemen multiple access terpusat lebih baik dari pada manajemen akses jamak terdistribusi, karena jatah bandwidth tidak dibagi-bagikan secara kaku pada masingmasing grup, melainkan diatur secara terpusat oleh scheduler pusat. Segala kekurangan resource jaringan akan ditanggung bersama oleh semua user, demikian juga kelebihan resource jaringan juga akan dinikmati secara bersama-sama oleh semua user dari grup manapun. Sebagai saran untuk penelitian selanjutnya, hendaknya diusulkan penerapan peramalan yang dinamis terhadap berbagai macam parameter dan berbagai macam variabel terutama yang terkait dengan pengukuran kinerja jaringan komputer itu sendiri. DAFTAR PUSTAKA [1] Daryanto T., Ramli K., Budihardjo B., “Analisa Kinerja dan Implementasi Adaptive Transcoder Pada Jaringan Local Area Network”, Seminar Nasional NW - 100 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember [2] [3] [4] [5] Aplikasi Teknologi Informasi (SNATI), ISSN : 1907-5022, 2006 Iqbal M. Dr., “Handout : Analisis Kinerja Sistem”, Universitas Gunadarma, 2012 Hendrawan, Dr., “Handout : Kinerja Jaringan Telekmunikasi dan Komputer”, Teknik Elektro - Telekomunikasi Institut Teknologi Bandung, 2012 Peterson LL., Davie BS., “Computer Networks A Systems Approach, 3rd Edition”, Morgan Kaufmann Publisher, 2003 Erdiansyah, “Jaringan Komputer”, Teknik Elektro, Universitas Hasanuddin, 2007 ISSN : 2302-7088 [6] Hendrawan, Dr., “Handout : Jaringan Komputer”, Teknik Elektro Telekomunikasi - Institut Teknologi Bandung, 2012 [7] Ubaidillah A., “Studi Kinerja Sistem Jaringan Komputer Universitas Trunojoyo Madura (Sampai Februari 2012)”, SIMANTEC, Juni 2012 [8] Ubaidillah A., “Perbaikan Kapasitas Kanal Jaringan Komunikasi Seluler dengan Metode Pemecahan Sel, SIMANTEC, Juni 2011 NW - 101 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 REVIEW: KEAMANAN KATA SANDI Tohari Ahmad Teknik Informatika – ITS Kampus ITS, Sukolilo Surabaya E-Mail: [email protected] Abstrak Penggunaan kata sandi (password) sebagai alat untuk melakukan otentikasi telah banyak digunakan dalam berbagai macam aplikasi, mulai dari yang sederhana sampai dengan yang kompleks. Dalam single modal authentication, keamanan suatu aplikasi sangat tergantung pada keamanan kata sandi itu sendiri. Akan tetapi, kata sandi ini sering menjadi titik terlemah dari suatu aplikasi dikarenakan penerapan kata sandi yang tidak tepat. Pada makalah ini, kami akan mendeskripsikan permasalahan-permasalahan otentikasi, kelemahan dan ancaman terhadap kata sandi dan kemungkinan solusi yang bisa digunakan untuk mengatasi kelemahan dan ancaman tersebut. Dalam hal ini, permasalahan-permasalahan yang dihadapi adalah berhubungan dengan tingkat ketidakpastian (entropy) dan seberapa sering kata sandi tersebut digunakan (frequency of uses). Serangan terhadap kerahasiaan kata sandi bisa berupa cracking (memecahkan kata sandi dengan menggunakan tools yang ada), atau pun stealing (mengambil kata sandi yang tersimpan dalam storage atau transmission channel). Makalah ini juga menambahkan satu faktor penting dalam manajemen kata sandi yang bisa digunakan untuk mengatasi permasalahan-permasalahan tersebut, yaitu faktor lingkungan. Ini adalah sebagai pelengkap dari beberapa faktor yang telah dikenal sebelumnya, yaitu: pengguna (manusia), proses dan teknologi. Kata kunci: kata sandi, keamanan, otentikasi Abstract The use of passwords in an authentication process has been applied in various applications, from a simple to complex one. In a single modal authentication, security of applications much relies on the security of the password itself. However, a password is often to be the weakest point in the systems because of its inappropriate use. In this paper, we will describe the authentication problems, vulnerabilities and threats against passwords along with their possible solutions .In this case, the authentication problems relate to the password’s entropy level and its frequency of uses. Threats to the security of passwords can be cracking and stealing The former is about guessing the password by using any means while the later is obtaining the password from the storage or transmission channel. This paper also introduces an important factor in managing passwords,which can be used to solve those problems, namely: the environmental factor. This can be viewed as a complement to the existing factors: people (users), process and technology. Key words: password, security, authentication PENDAHULUAN Survei yang telah dilakukan oleh CSI [1] menunjukkan bahwa hanya terdapat sekitar 8.7% responden yang mengalami permasalahan finansial yang diakibatkan oleh serangan elektronik dalam beberapa tahun terakhir. Meskipun angka ini menunjukkan penurunan dari periode sebelumnya, kerugian secara finansial yang diakibatkan masih cukup tinggi, yaitu bisa mencapai 25 juta dollar. Sehingga, perlindungan terhadap komputer dan informasi yang ada di dalamnya masih menjadi hal yang penting. NW - 102 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Sebagai salah satu prinsip penting dalam keamanan komputer, otentikasi (authentication) dapat menjadi target utama dari suatu serangan elektronik. Begitu otentikasi bisa dilemahkan, prinsip-prinsip keamanan yang lain, misalnya kerahasiaan (confidentiality), integritas (integrity) data akan sangat mungkin menjadi target berikutnya. Dalam hal ini, otentikasi telah menjadi faktor yang sangat penting dalam defense in depth approach [2], selain integritas dan kerahasiaan. Lebih khsus lagi, kata sandi (password) adalah rawan untuk diserang, baik karena faktor internal (kelemahan kata sandi itu sendiri) dan eksternal (serangan yang dilakukan oleh pihak lain). Sehingga, dari segi keamanan informasi, proses otentikasi harus mendapatkan prioritas. Proses otentikasi di dalam suatu jaringan komputer adalah lebih rawan diserang daripada yang ada di komputer yang berdiri sendiri (stand alone) karena terdapat lebih banyak titik (mesin/komputer) yang tersedia untuk melakukan serangan. Terlebih lagi, kata sandi itu sendiri mungkin dikirimkan dari satu komputer ke komputer lain, yang bisa diduplikasi dalam prosesnya. Beberapa mekanisme telah diperkenalkan untuk meminimalisir penggunaan kata sandi, artinya, jumlah titik lemah yang bisa menjadi target serangan juga berkurang. Misalnya, federated identity management yang telah diaplikasikan dalam single sign on (SSO) [3, 4] seperti yang telah dibangun oleh Liberty Alliance Project [5]. Penggunaan kata sandi dalam jumlah yang lebih sedikit telah memudahkan pengguna (user) untuk mengaturnya. Namun demikian, bagaimana suatu kata sandi dibuat dan digunakan adalah tetap menjadi permasalahan yang harus diselesaikan dengan baik untuk melindungi keseluruahan proses otentikasi. Dalam praktiknya, biaya yang diperlukan untuk membuat proteksi (dalam hal ini adalah otentikasi) terhadap suatu obyek tidak boleh melebihi nilai dari obyek yang akan dilindungi tersebut. Akan sangat tidak efisien untuk membuat suatu proses otentikasi yang kompleks untuk memprotek data yang bersifat umum dan bernilai rendah. Meskipun kata sandi mempunyai beberapa permasalahan keamanan, implementasinya mungkin tidak dapat digantikan dalam jangka waktu dekat ini. Makalah ini mengidentifikasi faktor-faktor yang menentukan keamanan kata ISSN : 2302-7088 sandi dan kemungkinan langkah-langkah yang dapat dilakukan untuk menjaganya. Alernatif media otentikasi yang lain (misalnya biometrik) akan dibahas secara garis besar, disertai kelebihan dan kurangannya. PERMASALAHAN OTENTIKASI Kekuatan kata sandi dapat didefinisikan sebagai seberapa sulit kata sandi tersebut dapat dipecahkan, yang bisanya diukur dengan menggunakan tingkat entropy, meskipun dalam praktiknya, kesulitan untuk memecahkan suatu kata sandi juga ditentukan oleh banyak faktor, seperti seberapa sering kata sandi tersebut diubah, yang berarti pula seberapa sering suatu kata sandi digunakan. Secara umum, faktor yang menentukan keamanan kata sandi dapat dikelompokkan menjadi: tingkat entropy (termasuk panjang kata sandi) dan seberapa sering digunakan (termasuk seberapa sering diubah). Terlepas dari kekuatannya, manajemen kata sandi, terutama dalam menghindari berbagi (sharing) kata sandi adalah penting dalam keamanan sistem otentikasi [17]. Ketidakpastian – Tingkat Entropy Berdasakan teori Shanon [6] (dalam persamaan 1), semakin tinggi tingkat entropy, semakin tidak pasti (random) kata sandi tersebut. n H = −∑ p i log( p i ) (1) i =1 Dimana H, n, dan pi adalah entropy, nilai dengan probabilitas p1 , p 2 ,..., p n . Ini juga menunjukkan bahwa semakin tinggi jumlah kata sandi yang dapat dibentuk bisa meningkatkan entropy. Hal ini dapat dicapai dengan: • Menambah panjang kata sandi. Seperti yang ditunjukkan dalam [7] bahwa suatu kata sandi yang dibuat oleh 3, 6, dan 9 karakter dapat dipecahkan dalam waktu kurang dari 1 detik, 3 jam dan 70 tahun. • Meningkatkan ukuran domain space. Suatu kata sandi yang disusun oleh 7 bit ASCII adalah lebih baik daripada kata sandi yang disusun oleh huruf dan angka saja atau huruf besar/kecil saja. Kata sandi-kata sandi yang tersusun atas kode NW - 103 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember karakter tersebut dapat dipecahkan dalam waktu 350 tahun, 1 tahun dan 9 jam [7]. Namun demikian, terdapat suatu timbalbalik dari dua faktor tersebut. Pertama, lebih panjang kata sandi akan memerlukan tempat yang lebih banyak untuk menyimpan. Meskipun memperpanjang kata sandi bisa mengurangi jumlah kata sandi yang terpecahkan[7, 8], tetap terdapat pertanyaan apakah kata sandi yang relatif panjang benarbenar diperlukan jika frekuensi menggunakan kata sandi yang salah sudah dibatasi [9]. Kedua, menambah ukuran ukuran domain space, bisa menghasilkan kata sandi yang lebih random, tetapi sulit diingat oleh pengguna[10]. Di sisi yang lain, pengguna lebih suka menggunakan kata sandi yang mudah diingat, misalnya kata ”password” dan kata-kata popular yang terdapat dalam kamus (dictionary) [11, 12]. Frekuensi penggunaan Berdasarkan frekuensi penggunaannya, kata sandi dapat dikelompokkan menjadi dua bagian: one time passwords (OTP) dan reusable passwords, yang masing-masing bisa digunakan satu dan beberapa kali. Dalam hal ini, OTP adalah lebih aman karena informasi yang diperoleh darinya tidak bisa digunakan (sangat sulit) untuk memecahkan kata sandi yang lain. Berbagi (Shareability) Permasalahan umum yang dihadapi oleh otentikasi dengan menggunakan sesuatu yang kita ketahui (misalnya kata sandi) atau sesuatu yang kita punyai (misalnya token/kartu identitas) adalah shareability, yaitu bagaimana mediumnya bisa digunakan oleh pengguna lain; sehingga, proses otentikasi mungkin tidak bisa membedakan mana pengguna yang asli dan mana yang tidak. Hal ini berarti bahwa proses yang ada tidak sesuai dengan prinsip non-repudiation. Sebuah survei[13] membuktikan bahwa sekitar 42% pengguna adalah tidak keberatan untuk membagi informasi kata sandinya kepada orang lain yang dipercaya. Hal ini menunjukkan bahwa berbagi informasi kata sandi adalah merupakan hal yang sudah relatif umum dipraktikkan. ISSN : 2302-7088 Biometrik (sesuatu yang ada pada diri manusia) dapat menjadi salah satu solusi untuk permasalahan ini. Akan tetapi, biometrik juga menyebabkan permasalahan yang lain, misalnya, tingkat akurasinya masih dibawah kata sandi. KELEMAHAN DAN ANCAMAN Secara umum, ancaman terhadap kata sandi dapat dikelompokkan menjadi 2 grup, yaitu: cracking dan stealing [17]. Yang pertama adalah berhubungan dengan kualitas kata sandi (tingkat entropy), sedangkan yang kedua berhubungan dengan bagaimana pengguna menjaganya. Hal ini dapat dideskripsikan dalam gambar 1. Gambar 1 Permasalahan kata sandi dan ancamannya Cracking Di satu sisi, informasi yang berhubungan dengan pengguna (misal: alamat, no telepon) mudah didapatkan. Di sisi yang lain, informasi ini sering digunakan sebagai kata sandi[14], yang sesungguhanya tingkat randomnya adalah sangat rendah. Tanpa menggunakn tools pun, kata sandi seperti ini mungkin bisa ditebak dengan mudah. Dengan kata lain, berdasarkan informasi yang berhubungan dengan pengguna, kata sandi bisa dengan mudah ditebak. Metode yang lebih canggih bisa dilakukan dengan menggunakan tools baik perangkat keras maupun perangkat lunak. Hal ini bisa dilakukan dengan menggunakan dictionary attack atau brute force attack. Salah satu cara untuk menghindari serangan ini adalah dengan meningkatkan entropy dari kata sandi semaksimal mungkin. Stealing NW - 104 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 Terlepas dari kekuatannya, suatu kata sandi dapat dicuri, baik dilakukan secara teknis maupun secara non-teknis (misal dengan social engineering). yang dipakainya sehingga mudah untuk dibaca. Hal lain yang mungkin terjadi adalah dengan melakukan shoulder surfing atau masquarade attack. Pendekatan teknis Shoulder surfing attack bisa dilakukan dengan memperhatikan apa yang pengguna tuliskan pada keyboard. Beberapa teknologi bisa digunakan untuk meminimalisir serangan ini, misalnya dengan tidak menampilkan sama sekali karakter kata sandi pada monitor ketika dituliskan pada keyboard, seperti yang sudah diterapakan pada UNIX; teknologi eye-gaze untuk kata sandi berbasis grafis[16] dan sebagainya. Beberapa metode telah diperkenalkan untuk mendapatkan kata sandi, misalnya password sniffing dan SQL injection. Secara umum, kata sandi dapat diserang melalui beberapa titik seperti ditunjukkan dalam gambar 2: client, sever dan link antara keduanya. Kata sandi bisa juga didapatkan dengan bertindak seolah-olah sebagai pengguna yang sebenarnya. Hal ini lebih mudah dilakukan jika informasi tentang pengguna telah didapatkan. Gambar 2 Komunikasi pada suatu jaringan komputer Pada komputer client, suatu perangkat keras atau perangkat lunak bisa ditambahkan oleh penyerang untuk menangkap dan menganalisis kata sandi yang dituliskan oleh pengguna. Misalnya, keystroke logger software yang bisa merekam segala sesuatu yang pengguna tuliskan melalu keyboard. Meskipun beberapa metode sudah digunakan untuk mengantisipasinya (misalnya di [15]), tidak semuanya bisa benar-benar bisa melindungi kata sandi secara penuh. Dalam hal ini, virtual-based password lebih efektif untuk digunakan. Dalam hal perlu mengirimkan kata sandi melalui jaringan, bisa dilakukan perlindungan dengan menerapkan algoritma enkripsi dan dekripsi. Namun demikian, penggunaan enkripsi juga mempunyai permasalahan yang lain, misalnya ukuran key yang digunakan dan juga distribusinya. Pendekatan non-teknis Seperti yang telah diketahui secara umum, pengguna bisa menjadi titik lemah dalam mekanisma keamanan data. Dalam hal ini, pengguna mungkin memberikan informasi kata sandinya secara tidak sengaja. Misalnya, mereka menuliskan kata sandinya pada suatu kertas dan meletakkannya di dekat komputer MANAJEMEN KATA SANDI Dari pembahasan sebelumnya, permasalahan terhadap manajemen kata sandi dan keamanannya dapat dikelompokkan menjadi empat kategori, dimana tiga diantaranya telah didefinisikan di [17]. Empat kategori tersebut adalah: • pengguna (people) • teknologi (technology) • proses (process) • lingkungan (environment) Hal ini bisa dijelaskan sebagai berikut. Manajemen kata sandi melibatkan pengguna yang menerapkan teknologi dengan mengikuti proses yang telah ditetapkan dalam suatu kebijakan keamanan (security policy); keseluruhan proses ini dapat berjalan baik jika semua hal yang terlibat di dalamnya dapat menyediakan dukungan satu sama lain dalam lingkungan yang baik. Dalam praktiknya, “proses” menjadi faktor utama dalam manejemen kata sandi. Keamanan kata sandi dapat dijaga selama semua hal yang berhubungan dengan manajemen kata sandi ini telah dideskripsikan secara detail dan diikuti oleh semua pihak dengan konsisten. Faktor pengguna (people), seperti yang sudah didiskusikan pada bagian sebelumnya adalah berhubungan erat dengan faktor lingkungan dimana pengguna menghabiskan NW - 105 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember sebagaian besar waktunya. Lingkungan yang sesuai sangat dimungkinkan untuk memberikan efek yang positif terhadap manajemen kata sandi ini. Hal ini karena sumber daya yang diperlukan untuk mengimplementasikan security policy telah tersedia. Terlebih lagi, pengguna yang telah mempunyai pengetahuan (knowledge) dan kesadaran (awareness) terhadap ancaman keamanan komputer dan pengaruhnya, dapat membangun lingkungan yang lebih baik. Mereka bisa mengingatkan satu sama lain jika terdapat hal-hal yang bisa mengancam keamanan data. ISSN : 2302-7088 pengguna untuk melakukan proteksi data dan melakukan otentikasi. Lebih khusus lagi, ini dapat digunakan untuk memenuhi prinsip kerahasiaan (confidentiality), tidak adanya penyangkalan (non-repudiation), dan kesederhanaan (simplicity). Namun demikian, tingkat akurasi dari biometrik tidak setinggi kata sandi, dikarenakan adanya perbedaan data yang bisa diambil dalam waktu yang berbeda. DAFTAR PUSTAKA KESIMPULAN Dari permasalahan-permasalahan yang telah dideskripsikan sebelumnya, terdapat beberapa hal yang perlu diperhatikan untuk menjaga keamanan kata sandi. Hal-hal tersebut menjadi topik penelitian selanjutnya, yang dapat dijelaskan sebagai berikut. Sesuai dengan karakteristiknya, pengguna dapat menjadi titik terlemah di dalam proses otentikasi. Survei telah menunjukkan bahwa kelemahan ini tidak dikarenakan pengguna tersebut tidak mengetahui apa dan bagaimana kata sandi yang baik, akan tetapi dikarenakan pengguna lebih menyukai kenyamanan (convenience) daripada kemanan (security) itu sendiri. Seperti yang telah diketahui, bahwa convenience berbanding terbalik dengan security. Satu hal penting yang perlu dilakukan adalah membuat pengguna mempunyai kesadaran tentang ancaman keamanan komputer dan pengaruhnya terhadap mereka, baik secara langsung atau tidak langsung. Di antara faktor-faktor yang telah teridentifikasi, pengguna (people) sebenarnya hanyalah salah satu di antara empat faktor yang ada, yaitu: pengguna, proses, teknologi dan lingkungan. Untuk meminimalisir kekurangannya, faktor-faktor yang lain, terutama faktor “proses”, harus dioptimalkan penerapannya. Penggunaan biometrik sebagai media otentikasi diharapkan dapat menyediakan keamanan dan kenyamanan secara bersamaan terhadap pengguna. Hal ini dapat memudahkan NW - 106 [1] Richardson R. 2010 / 2011 CSI Computer Crime and Security Survey. CSI Computer Security Institute, 2011. [2] Talbot D.; Bishop M. Demythifying Cybersecurity. IEEE Security & Privacy, 8:56-59. 2010. [3] Landau S., Gong H. L. V., dan Wilton R. Achieving Privacy in a Federated Identity Management System. LNCS, 5628:51-70. 2009. [4] Alsaleh M. dan Adams C. Enhancing Consumer Privacy in the Liberty Alliance Identity Federation and Web Services Frameworks. LNCS. 4258:59-77. 2006. [5] Liberty Alliance Project. 2012 (URL:http://www.projectliberty.org/). [6] Verdu S. Fifty Years of Shannon Theory. IEEE Transactions on Information Theory. 44: 2057-2078. 1998. [7] AusCERT. Choosing Good Passwords. 2012: AusCERT (Australian Computer Emergency Response Team). http://www.auscert.org.au/render.html ?it=2260. 2009. [8] Weir M., Aggarwal S., Collins M., dan Stern H. Testing Metrics for Password Creation Policies by Attacking Large Sets of Revealed Passwords. 17th ACM conference on Computer and communications security. 2010. [9] Schaffer K. Are Password Requirements too Difficult? IEEE Computer. 44:90-92. 2011. [10] Vua K.-P. L., Proctorb R. W., Bhargav-Spantzelb A., Taib B.-L. B., Cookb J., dan Schultzc E. E. Improving Password Security and Memorability to Protect Personal and Organizational Information. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember [11] [12] [13] [14] [15] [16] [17] International Journal of HumanComputer Studies. 65: 744–757. 2007. Prabhakar S., Pankanti S., dan A. Jain. Biometric Recognition: Security and Privacy Concerns. IEEE Security & Privacy. 1:33-42. 2003. Jain A. K., Ross A., dan Pankanti S. Biometrics: A Tool for Information Security. IEEE Transactions on Information Forensics and Security. :125–143. 2006. Tam L., Glassman M., dan Vandenwauver M. The Psychology of Password Management: A Tradeoff between Security and Convenience. Behaviour & Information Technology.29:233-244. 2010. Bishop M. Introduction to Computer Security. Boston, MA: Pearson Education. 2005. Nasaka K., Takami T., Yamamoto T. dan Nishigaki M. A Keystroke Logger Detection Using KeyboardInput-Related API Monitoring. 14th International Conference on Network-Based Information Systems. 2011. Forget A., Chiasson S., dan Biddle R. Shoulder-Surfing Resistance with Eye-Gaze Entry in Cued-Recall Graphical Passwords. 28th International Conference on Human Factors in Computing Systems. 2010. Ahmad T. Password Security: An approach to Mitigate Cyber Crimes. 3rd Information and Communication Technology Seminar. 2007. NW - 107 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 IMPLEMENTASI GENERALIZED VECTOR SPACE MODEL MENGGUNAKAN WORDNET Adi Wibowo*, Andreas Handojo**, Charistian Widjaja*** Jurusan Teknik Informatika Fakultas Teknologi Industri, Universitas Kristen Petra E-Mail: *[email protected], **[email protected], ***[email protected] Abstrak Dengan pesatnya perkembangan dalam penggunaan teknologi komputer baik di perusahaan maupun di bidang pendidikan, maka semakin banyak pula dokumendokumen yang berbentuk digital yang dihasilkan. Metode yang sering dipergunakan untuk mencari dokumen adalah Vector Space Model (VSM). Kelemahan utama dari VSM adalah tidak mampu menemukan dokumen yang walaupun relevan dengan kata kunci tetapi tidak mengandung kata kunci tersebut. Oleh karena itu dibutuhkan sebuah metode search engine yang dapat memanfaatkan kemiripan makna antar kata untuk mengatasi masalah diatas. Salah satu metode yang dipergunakan dalam perancangan search engine adalah Generalized Vector Space Model (GVSM). George Tsatsaronis dan Vicky Panagiotopolou mengembangkan metode GVSM dengan melakukan pemberian nilai kedekatan antar sense didapatkan dengan metode Semantic Relatedness yang mempergunakan database leksikal “WordNet”. Dari hasil pengujian yang dilakukan maka GVSM menghasilkan hasil pencarian dokumen-dokumen yang memiliki nilai recall yang sama atau lebih tinggi yaitu 0,4 ; 1 ; 0,7778 jika dibandingkan dengan VSM (0,4 ; 0 ; 0,2222). Sedangkan nilai precision dari hasil pencarian GVSM memiliki nilai yang lebih rendah yaitu 0,0526 ; 0,0588 ; 0,1707 jika dibandingkan dengan nilai precision dari hasil pencarian VSM yaitu 0,1333 ; 0 ; 0,2857 . Kata kunci: Vector Space Model, GVSM, WordNet, Relasi Makna. Abstract With the rapid growth in the use of computer technology both in companies and in the field of education, more documents are generated in digital form. The method frequently used to search for documents is Vector Space Model (VSM). The main drawback of the VSM is not able to find relevant documents which do not contain the keyword terms. So we need a search method that can utilize the similarity of meaning between terms to overcome the above problems. One of the methods used in the design of search engines is the Generalized Vector Space Model (GVSMGeorge and Vicky Tsatsaronis Panagiotopolou develop methods GVSM by scoring sense closeness between Semantic Relatedness obtained with the method that uses lexical databases "WordNet". The test results produce that GVSM documents have the same recall value or higher at 0.4; 1; 0.7778 compared with VSM (0.4; 0; 0.2222). While the value of precision of the search results GVSM have a lower value is 0.0526; 0.0588; 0.1707 when compared with the value of precision of the search results VSM is 0.1333; 0; 0.2857. Key words: Vector Space Model, GVSM, WordNet, Semantic Relatedness. SI- 108 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember PENDAHULUAN Dengan pesatnya perkembangan penggunaan teknologi komputer baik di perusahaan maupun di bidang pendidikan, maka semakin banyak pula dokumen yang berbentuk digital. Untuk mencari dokumendokumen tersebut dibutuhkan waktu yang relatif lama apabila pencariannya dilakukan secara manual. Maka dari itu dibutuhkan sebuah search engine yang dapat mencari dokumen-dokumen yang relevan secara lebih mudah. Salah satu metode yang dipergunakan dalam perancangan search engine adalah Vector Space Model. Vector Space Model (VSM) sebagai metode yang mengukur kemiripan antara suatu dokumen dengan suatu query user dengan menggunakan cosinus dari sudut antar vektor yang dibentuk oleh dokumen dengan vektor dari kata kunci yang diinputkan oleh user [4]. Salah satu kelemahan dari VSM adalah metode ini menganggap bahwa setiap term pada dokumen bersifat independen, yaitu metode ini tidak melihat hubungan makna dengan term lain [2]. Sebagai contoh, apabila user melakukan pencarian dengan kata kunci “programming” maka hasil pencariannya adalah semua dokumen yang hanya memiliki kata “programming” saja, padahal masih banyak dokumen-dokumen yang masih berhubungan makna dengan kata “programming” seperti “PHP”, “Java” , dan lain-lain. Dengan adanya kasus ini maka terjadi penurunan recall dari hasil pencarian. Karena itu dibutuhkan metode yang dapat mengembangkan VSM ini dengan menambahkan fungsi sense pada model ini yaitu GVSM (Generalized Vector Space Model). Generalized Vector Space Model adalah model pencarian pengembangan dari Vector Space Model yang menambahkan fungsi sense dan penilaian terhadap hubungan makna antar term dalam dokumen [6]. Generalized Vector Space Model (GVSM) adalah Vector Space Model yang mempertimbangkan kedekatan sense antar term dalam merepresentasikan dokumen. Dalam GVSM ini pemberian nilai kedekatan antar sense didapatkan dengan metode Semantic Relatedness. Dimana metode Semantic Relatedness adalah metode yang menghitung nilai kedekatan sense dengan menggunakan kedalaman term dalam ISSN : 2302-7088 thesaurus dan banyaknya path yang dilalui antar dua term yaitu term yang ada di dokumen dan term pada kata kunci dari user. Dalam melakukan perhitungan dengan menggunakan metode Semantic Relatedness ini dibutuhkan thesaurus kata seperti “WordNet”. Upaya penggunaan metode GVSM dan Semantic Relatedness ini dimaksudkan untuk meningkatkan recall dari hasil pencarian sehingga hasil pencariannya mencakup dokumen-dokumen yang relevan terhadap kata kunci dari user. VECTOR SPACE MODEL Vector Space Model adalah suatu model yang digunakan untuk mengukur kemiripan antara suatu dokumen dan suatu query dengan mewakili setiap dokumen dalam sebuah koleksi sebagai sebuah titik dalam ruang (vektor dalam ruang vektor) [7]. Poin yang berdekatan di ruang ini memiliki kesamaan semantik yang dekat dan titik yang terpisah jauh memiliki kesamaan semantik yang semakin jauh. Kesamaan antara vektor dokumen dengan vektor query tersebut dinyatakan dengan cosinus dari sudut antar keduanya [4]. Dalam metode Vector Space Model bobot dari setiap term yang didapat dalam semua dokumen dan query dari user harus dihitung lebih dulu. Term adalah suatu kata atau suatu kumpulan kata yang merupakan ekspresi verbal dari suatu pengertian. Perhitungan bobot tersebut dilakukan melalui persamaan nomor 1. (1) tfi = frekuensi term atau banyak term i yang ada pada sebuah dokumen (Term Frequency) dfi = frekuensi dokumen atau banyak dokumen yang mengandung term i (Inverse Document Frequency) D = jumlah semua dokumen Setelah itu untuk mengetahui tingkat kemiripan antar dokumen nilai cosinus dari sudut antar vektor dokumen dengan vektor query dihitung melalui persamaan nomor 2. NW - 109 (2) Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Dimana Sim(Q,Di) = nilai kesamaan antara sebuah dokumen i dengan query Q = bobot term j pada query Q wQ,j wi,j = bobot term j pada dokumen i Hasil cosinus tersebut diurutkan dari nilai kesamaan yang terbesar ke nilai yang terkecil. Hasil terbesar memiliki kedekatan yang lebih baik dengan user query dibandingkan nilai kesamaan yang lebih kecil [5]. GENERALIZED MODEL VECTOR elaboration), dan SR (semantic relatedness). Langkah-langkah mencari nilai ti dan tj adalah [6]: • Bila ada sebuah thesaurus O, sebuah bagan pembobotan (weight) yang menentukan weight e ϵ (0,1) untuk setiap edge, sepasang senses S=(s1,s2), dan sebuah path dengan panjang l yang menyambungkan 2 senses tersebut, maka Semantic compactness dari S dihitung menggunakan persamaan (4). (4) SPACE Generalized Vector Space Model (GVSM) adalah perkembangan dari Vector Space Model yang mempertimbangkan kedekatan sense antar term dengan lebih akurat, dalam merepresentasikan dokumen. Wong et al. (1987) membuat GVSM pertama, yang memperkenalkan korelasi antar term, yang menganggap bahwa setiap term dinyatakan sebagai kombinasi linier dari vektor 2 dimensi. Pengukuran similiarity antara sebuah dokumen dengan sebuah query dilakukan dengan persamaan nomor 3. • • dimana di adalah kedalaman sense si yang didasarkan pada O dan dmax adalah kedalaman maksimum dari O. Jika s1 = s2 dan d =d1 = d2 maka SPE(S,O) = d/dmax dan jika tidak ada path antar keduanya maka SPE(S,O) = 0. Bila ada thesaurus O, sepasang term T=(t1,t2), dan semua pasang senses S=(s1i,s2j), dimana s1i,s2j merupakan sense dari t1 dan t2, maka Semantic relatedness dari T ditunjukkan dari persamaan (6). SR(T,S,O) = max{SCM(S,O) . SPE(S,O)} (6) SR antar dua terms ti,tj dimana ti ≡ tj ≡ t dan t ∉ O didefinisikan dengan 1. Jika ti ∈ O tapi tj ∉ O atau ti ∉ O tapi tj ∈ O, SR=0. SEMANTIC RELATEDNESS ti tj menunjukkan besar relasi antara term I dan term j. Dalam Semantic Relatedness nilai dari ti tj dalam rumus GVSM Wong et al. dicari dengan rumus baru yang dikembangkan oleh George Tsatsaronis dan Vicky Panagiotopoulou dengan bantuan database leksikal “WordNet”. Nilai ti dan tj dihitung melalui penghitungan SCM (semantic compactness), SPE (semantic path dimana e1, e2, e3 adalah path’s edges Jika s1 = s2 maka SCM(S,O) = 1 dan jika tidak ada path antar keduanya maka SCM(S,O) = 0. Bila ada sebuah thesaurus O dan sepasang senses S=(s1,s2), dimana s1,s2 ϵ O dan s1 ≠ s2 dan sebuah path dengan panjang l yang menyambungkan 2 senses, maka Semantic path elaboration dari S dihitung menggunakan persamaan (5). (5) (3) Dimana, ti dan tj adalah term vektor di sebuah ruang vektor 2 dimensi; dk, dan q adalah vektor dokumen dan query; aki adalah bobot (weight) dari dokumen yang dihitung dengan rumus Term Weight; qj adalah bobot (weight) dari query yang dihitung dengan rumus Term Weight; n adalah dimensi ruang [6]. ISSN : 2302-7088 IMPLEMENTASI DAN PENGUJIAN Ada beberapa proses utama yang ada pada sistem, yaitu 1. Data Preparation. 2. Indexing. 3. Calculating Semantic Relatedness. 4. Calculating Term to Term Cooccurence. NW - 110 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 5. Searching. Gambar 1 menunjukkan blok diagram dari aplikasi ini. Gambar 1. Blok Diagram dari Aplikasi Data Preparation Proses ini melakukan pengubahan terhadap file yang dipergunakan sebagai obyek pencarian yaitu “ClueWeb09_English_Sample.warc” yang didapatkan dari Web Track TREC (The Text Retrieval Conference). File tersebut berisi kumpulan file HTML menjadi beberapa file HTML yang terpisah. Setelah selesai akan dilakukan proses merubah HTML ke teks, yang kemudian diteruskan dengan proses parsing pada teks tersebut. Indexing Proses ini melakukan perhitungan weight pada setiap kata yang merupakan hasil parsing dari proses data preparation dengan menggunakan metode Term Frequency dan Inverse Document Frequency (TF-IDF) yang juga terdapat pada metode Vector Space Model (VSM). Hasil perhitungan weight untuk setiap kata/term ini nantinya dipergunakan dalam proses Generalized Vector Space Model (GVSM), yang nilainya dapat berpengaruh terhadap kemunculan dokumen yang diwakili oleh kata/term tersebut pada hasil pencarian. Calculating Semantic Relatedness ISSN : 2302-7088 WordNet adalah sebuah thesaurus yang menggambarkan hubungan antar term secara semantik/makna. Dalam WordNet hubungan antar term berupa relasi synonym (sama makna), hyponym (makna lebih sempit), hypernym (makna lebih luas), meronym (makna bagian lebih utuh), dan holonym (makna bagian dari sebuah benda). Tidak setiap term memiliki semua relasi di atas dengan term yang lain. Proses ini melakukan perhitungan semantic relatedness dari tiap kata/term dalam database “WordNet” yang nilainya nanti dijadikan sebagai nilai kedekatan makna antara dua kata/term, yang dapat meningkatkan recall dari hasil pencarian. Nilai kedekatan makna ini nantinya dipergunakan dalam proses Generalized Vector Space Model (GVSM). Kesulitan yang muncul adalah karena WordNet yang berbentuk graph sehingga sulit ditentukan term dengan level tertinggi, berbeda dengan misalnya WordNet berbentuk sebuah tree. Hal ini membuat kedalaman sebuah sense sulit untuk ditentukan. Untuk itu perlu dicari sebuah term yang dapati dianggap sebagai level yang paling tinggi dari hampir semua term, yaitu term “Thing”. Calculating Term to Term Cooccurence Bila sebuah term tidak terdapat dalam WordNet, maka relasi makna antar term didapatkan dari term-to-term co-occurence matrix. Proses ini melakukan perhitungan terhadap nilai kedekatan makna dengan menghitung jumlah kemunculan bersama antara dua term yang berbeda. Jumlah kemunculan tersebut nantinya dinormalisasikan dengan mambagi setiap jumlah tersebut dengan jumlah terbesar. Nilai kedekatan makna dari semantic term to term nantinya dipergunakan sebagai nilai kedekatan makna yang menggantikan nilai semantic relatedness apabila kata/term tersebut tidak terdapat pada database “WordNet” atau nilai semantic relatedness menghasilkan nilai 0. Searching Proses ini berguna untuk mencari dokumen yang dicari oleh user sesuai dengan kata kunci yang dimasukkan oleh user. Pada proses ini menggabungkan nilai weight hasil dari proses indexing dengan nilai kedekatan makna, baik dari semantic relatedness ataupun dari semantic term to term dengan metode Generalized Vector Space Model (GVSM) NW - 111 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember perhitungan cosinus, untuk melakukan perankingan terhadap hasil pencarian. Pengujian dilakukan dengan menggunakan data yang berjumlah 100 dokumen yang didapatkan dari TREC di atas yang seluruh datanya menggunakan bahasa Inggris sebagai obyek pencarian. Pertama dilakukan pengujian program dengan memasukkan kata 'disease' dan ‘news’ sebagai kata kunci yang dipergunakan sebagai kata kunci untuk menguji hasil dari aplikasi pencarian dokumen berbasis Generalized Vector Space Model dan Semantic Relatedness ini. Hasil yang didapatkan dari proses searching dengan kata kunci 'disease' dan ‘news’ dapat dilihat pada Tabel 1 . Tabel 1. “News” Kata Kunci Disease News Hasil Pencarian “Disease” dan Semua Dokumen Hasil Pencarian Dokumen 5, 80, 6, 76, 71, 26, 43, 94, 82, 28, 2, 17, 1, 64, 16, 62, 63 Dokumen 50, 70, 10, 61, 60, 79, 25, 77, 78, 96, 44, 52, 65, 29, 98, 58, 59, 18, 22, 69, 39, 26, 80, 99, 7, 40, 90, 100, 8, 83, 17, 16, 62, 13, 63, 14, 43, 64 Dokumen Relevan dari Hasil Pencarian Dokumen Relevan dari Keseluruhan Dokumen Dokumen 6 Dokumen 6 Dokumen 7, 16, 40, 69, 77, 90, 100 Dokumen 7, 15, 16, 28, 40, 69, 77, 90, 100 Dari Tabel 1 dapat dilihat bahwa aplikasi ini dapat mengeluarkan hasil pencarian dokumen yang relevan. Pengujian yang kedua dilakukan dengan membandingkan nilai precision dan recall dari pencarian dengan metode GVSM baru (GVSM & SR) dan VSM. Hasil yang didapatkan dari pengujian precision dari pencarian dengan metode GVSM dan VSM dengan kata kunci ‘history’, 'disease', dan ‘news’ dapat dilihat pada Gambar 2. 0.4 0.2 0 ISSN : 2302-7088 GVS M VS M Gambar 2. Grafik perbandingan nilai Precision antara GVSM dan VSM Dapat dilihat pada gambar 2 bahwa GVSM memiliki nilai precision yang lebih kecil jika dibandingkan dengan VSM. Nilai precision yang dihasilkan oleh GVSM adalah 0,0526 ; 0,0588 ; 0,1707 , sedangkan nilai precision yang dihasilkan oleh VSM adalah 0,1333 ; 0 ; 0,2857 . Hanya pada kata kunci “Disease” saja yang nilai precision GVSM-nya lebih tinggi jika dibanding dengan nilai precision VSM, dikarenakan tidak diketemukan sama sekali dokumen yang relevan pada hasil pencarian VSM. Dapat dilihat pada gambar 3 bahwa GVSM memiliki nilai recall yang selalu lebih besar atau sama jika dibandingkan dengan VSM. Nilai recall yang dihasilkan oleh GVSM adalah 0,4 ; 1 ; 0,7778 , sedangkan nilai recall yang dihasilkan oleh VSM adalah 0,4 ; 0 ; 0,2222. Peningkatan recall terjadi karena Generalized Vector Space Model tidak hanya menampilkan dokumen yang mengandung keyword yang dimasukkan user saja, tetapi juga menampilkan dokumen yang mengandung keyword lain yang memiliki similiarity makna dengan keyword user. Pengujian yang ketiga adalah pengujian waktu Semantic Relatedness (SR). Pengujian waktu SR ini dilakukan dengan menghitung rata-rata waktu proses pencarian nilai SR. Rata-rata waktu proses ini didapatkan dengan membagi total waktu yang dibutuhkan dalam sebuah proses dengan jumlah hasil yang didapatkan dari proses tersebut. Hasil pengujian tersebut disajikan pada Gambar 4. NW - 112 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 1.5 1 0.5 0 pencarian. Hal ini dikarenakan pada GVSM terdapat proses mencari nilai kedekatan makna yang membutuhkan waktu yang lama dan waktu tersebut berpengaruh pada bertambahnya total waktu pencarian GVSM jika dibanding dengan pencarian dengan VSM. GVS M Lama Waktu (detik) VSM Gambar 3. Grafik perbandingan nilai Recall antara GVSM dan VSM Rata-Rata Waktu (detik) ISSN : 2302-7088 100 50 VSM 0 GVSM 10 400.000 70 Jumlah Dokumen 200.000 0.000 5 15 25 Jumlah Hasil Pencarian Gambar 4. Grafik rata-rata waktu proses pencarian nilai SR Dari gambar 4 dapat kita lihat bahwa ratarata waktu proses terus meningkat secara linear terhadap jumlah hasil pencarian. Jadi semakin banyak hasil pencarian yang dibutuhkan, maka semakin banyak pula ratarata waktu untuk melakukan proses tersebut, sehingga semakin banyak waktu yang dibutuhkan untuk melakukan proses untuk mendapatkan hasil pencarian nilai SR tersebut. Pengujian yang keempat adalah pengujian waktu proses Searching. Pengujian waktu Searching ini dilakukan dengan menghitung waktu setiap proses yang dilakukan dalam proses seraching dengan metode GVSM dan juga pada proses searching dengan metode VSM. Hasil pengujian tersebut disajikan pada Gambar 5. Dari hasil perbandingan waktu searching pada gambar 5 maka dapat kita lihat bahwa proses searching dengan menggunakan metode GVSM memiliki waktu yang jauh lebih lama jika dibandingkan dengan waktu proses searching dengan menggunakan metode VSM. Hal ini bisa dilihat pada Gambar 5, dimana untuk melakukan searching dengan metode GVSM dengan 10 dokumen sebagai obyek pencariannya membutuhkan waktu yang lebih lama jika dibandingkan dengan melakukan searching dengan metode VSM dengan 100 dokumen sebagai obyek Gambar 5. Grafik jumlah dokumen terhadap waktu searching GVSM & VSM Pengujian yang terakhir adalah Pengujian jumlah keyword user. Pengujian jumlah keyword user ini dilakukan untuk menguji hasil pencarian yang dihasilkan oleh aplikasi, apabila user memasukkan keyword yang terdiri dari satu kata atau lebih. Proses pengujian ini dilakukan dengan membandingkan hasil pencarian yang diberikan oleh sistem dengan jumlah keyword 1 kata, 2 kata dan juga 3 kata. Hasilnya dapat dilihat pada Tabel 6. Tabel 2. Hasil pengujian jumlah keyword No Kata Kunci 1 Disease 2 Lethal 3 Medicine 4 Lethal Disease 5 Disease Medicine NW - 113 Hasil Pencarian Dokumen 5, 80, 6, 76, 71, 26, 43, 94, 82, 28, 2, 17, 1, 64, 16, 62, 63 Tidak ada Dokumen 19, 11, 71, 20, 8, 64, 26, 80, 16 Dokumen 5, 80, 6, 76, 71, 26, 43, 94, 82, 28, 2, 17, 1, 64, 16, 62, 63 Dokumen 19, 11, 71, 5, 20, 80, 8, 6, 26, 76, 64, 16, 43, 94, 82, Jumlah Dokumen 17 Dokumen 0 Dokumen 9 Dokumen 17 Dokumen 21 Dokumen Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 6 Lethal Disease Medicine 7 Common 8 Common Disease 28, 2, 17, 1, 62, 63 Dokumen 19, 11, 71, 5, 20, 80, 8, 6, 26, 76, 64, 16, 43, 94, 82, 28, 2, 17, 1, 62, 63 Dokumen 67, 6, 74, 100, 89, 31, 66, 28, 87, 88, 17, 80, 63, 43 Dokumen 6, 5, 67, 80, 74, 100, 89, 31, 66, 28, 76, 87, 17, 88, 71, 43, 63, 26, 94, 82, 2, 1, 64, 16, 62 21 Dokumen 14 Dokumen 25 Dokumen Dari tabel 2 dapat dilihat bahwa: 1. Kata kunci yang pertama “Disease” mendapatkan 17 dokumen sebagai hasil pencarian. 2. Kata kunci yang kedua “Lethal” tidak mendapatkan hasil pencarian 3. Kata kunci yang kedua “Medicine” mendapatkan 9 dokumen sebagai hasil pencarian. 4. Kata kunci keempat, dengan dua suku kata, yaitu “Lethal Disease” mendapatkan 17 dokumen sebagai hasil pencarian. Dari hasil ini dapat dilihat bahwa hasil pencarian “Lethal Disease” ini didapatkan dari hasil pencarian dengan kata kunci “Lethal” yang menghasilkan hasil pencarian sebesar 0 dokumen dan “Disease” yang menghasilkan hasil pencarian sebesar 17 dokumen. Sehingga hasil pencarian dengan kata kunci “Lethal Disease” sebesar 17 dokumen. 5. Kata kunci kelima, dengan dua suku kata, yaitu “Disease Medicine” mendapatkan 21 dokumen sebagai hasil pencarian. Dari hasil ini dapat dilihat bahwa hasil pencarian “Disease Medicine” ini didapatkan dari gabungan kata kunci “Disease” yang menghasilkan hasil pencarian sebesar 17 dokumen dan “Medicine” yang menghasilkan hasil pencarian sebesar 9 dokumen, serta 5 dokumen yang merupakan irisan dari kedua hasil tersebut. Sehingga hasil ISSN : 2302-7088 pencarian dengan kata kunci “Disease Medicine” sebesar 21 dokumen. 6. Kata kunci keenam, dengan tiga suku kata, yaitu “Lethal Disease Medicine” mendapatkan 21 dokumen sebagai hasil pencarian. Dari hasil ini dapat dilihat bahwa hasil pencarian “Lethal Disease Medicine” ini didapatkan dari gabungan kata kunci “Lethal” yang menghasilkan hasil pencarian sebesar 0 dokumen, “Disease” yang menghasilkan hasil pencarian sebesar 17 dokumen dan “Medicine” yang menghasilkan hasil pencarian sebesar 9 dokumen, serta 5 dokumen yang merupakan irisan dari hasil pencarian “Disease” dan “Medicine”. Sehingga hasil pencarian dengan kata kunci “Lethal Disease Medicine” sebesar 21 dokumen. 7. Kata kunci ketujuh “Common” mendapatkan 14 dokumen sebagai hasil pencarian. 8. Kata kunci “Common Disease” mendapatkan 25 dokumen sebagai hasil pencarian. Dari urutan perankingan terhadap keyword ini terdapat peningkatan peringkat dokumen nomor 6. Pada hasil pencarian dengan keyword “Common”, dokumen nomor 6 terdapat pada peringkat kedua dan pada hasil pencarian dengan keyword “Disease”, dokumen nomor 6 terdapat pada peringkat ketiga. Tetapi pada hasil pencarian dengan keyword “Common Disease”, dokumen nomor 6 terdapat pada peringkat pertama. Dengan ini dapat kita lihat bahwa pencarian dengan keyword lebih dari satu dapat meningkatkan peringkat dokumen yang relevan. Aplikasi pencarian dokumen berbasis Generalized Vector Space Model dan Semantic Relatedness dapat dilihat pada gambar 6 dan gambar 7. NW - 114 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 untuk melakukan proses untuk mendapatkan hasil pencarian nilai SR tersebut. 4. Berdasarkan pengujian lama waktu searching, dapat dilihat bahwa jumlah dokumen berbanding lurus secara linear dengan lama waktu searching. 5. Berdasarkan pembandingan waktu searching antara Generalized Vector Space Model (GVSM) dan Vector Space Model (VSM), maka dapat dilihat bahwa lama proses searching dengan GVSM jauh lebih lama jika dibandingkan dengan lama proses searching dengan VSM. Dikarenakan proses searching dengan GVSM membutuhkan waktu untuk pencarian kedekatan makna antar term. 6. Kemampuan aplikasi ini sangat bergantung pada database “WordNet” yang dipergunakan. Gambar 6. Tampilan halaman utama dari aplikasi DAFTAR PUSTAKA Gambar 7. Tampilan hasil pencarian dari aplikasi KESIMPULAN Berdasarkan hasil pengujian yang dilakukan pada sistem menggunakan data TREC dengan sampel 100 dokumen, maka dapat disimpulkan bahwa : 1. Dengan melakukan perbandingan antara Generalized Vector Space Model (GVSM) dan Vector Space Model (VSM), maka dapat dilihat bahwa Generalized Vector Space Model dapat membantu dalam meningkatkan recall. 2. Kelemahan dari Generalized Vector Space Model adalah kecilnya precision dari hasil pencarian jika dibandingkan dengan Vector Space Model. 3. Berdasarkan pegujian lama waktu pencarian nilai SR, dapat dilihat bahwa rata-rata waktu proses terus meningkat secara linear terhadap jumlah hasil pencarian. Jadi semakin banyak hasil pencarian yang dibutuhkan, maka semakin banyak pula rata-rata waktu untuk melakukan proses tersebut, sehingga semakin banyak waktu yang dibutuhkan [1] Dik L.L., Huei C., Kent E. S. Document ranking and the vector-Space Model.1997 [2] Harjono K.D. Perluasan Vektor pada Metode Search Vector Space. Integral, Vol. 10 No. 2, Juli 2005. [3] Miller, G. A. WordNet : A Lexical Database for English. 1995 [4] Ning Liu et al. Learning Similarity Measures in Non-orthogonal Space. CIKM’04, November 8-13, 2004, Washington D.C., U.S.A. [5] Garcia E. The Classic Vector Space Model. Retrieved URL:http:// www.miislita.com/term-vector/termvector-3.html, diakses tanggal 15 Maret 2012. [6] Tsatsaronis, G., Panagiotopoulou V. A Generalized Vector Space Model for Text Retrieval Based on Semantic Relatedness. The EACL 2009 Student Research Workshop, 70–78. 2009. [7] Turney, P.D. & Pantel, P. From Frequency to Meaning: Vector Space Models of Semantics. Journal of Artificial Intelligence Research. 37: 141-188. 2010. NW - 115 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember SI-001 (not yet) SI - 116 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 PERANCANGAN DAN IMPLEMENTASI LABORATORIUM VIRTUAL PEMROGRAMAN BAHASA C PADA KELAS VIRTUAL BERBASIS MOODLE Azizah Zakiah1 Teknik Informatika, Politeknik Pos Indonesia Jln. Sariasih no54 Bandung 40151 1 [email protected] Abstrak Dalam pengajaran pemrograman prosedural dipandang perlu untuk "membumikan" konsep-konsep paradigma pemrograman prosedural dalam suatu bahasa yang mampu dieksekusi oleh mesin. Bahasa apapun yang dipilih, elemen pemrograman prosedural harus diterjemahkan dalam bahasa tersebut, dan pengajaran bukan hanya diorientasikan ke sintaks, melainkan juga ke semantik dari elemen pemrograman tersebut. Desain interaksi praktikum pemrograman bahasa C pada laboratorium virtual yang tidak tepat menyebabkan tujuan pembelajaran tidak tercapai atau lebih menyulitkan. Dalam penelitian ini dirancang dan diimplementasikan laboratorium virtual pemrograman bahasa C dengan pendekatan usability dan user experience. Laboratorium virtual yang telah dibangun kemudian diuji. Hasil pengujian pengolahan data kualititatif menunjukkan bahwa rata-rata skor aspek pengujian dan perancangan responden menyatakan setuju bahwa laboratorium virtual sesuai dengan tujuan dari usability dan user experience yaitu efektif, efisien, aman digunakan, memiliki utilitas yang baik, mudah dipelajari dan mudah diingat oleh penggunanya serta mendukung dalam pencapaian tujuan pembelajaran pemrograman bahasa C. Kata kunci : laboratorium virtual, pemrograman bahasa C, usability, user experience. PENDAHULUAN E-Learning adalah media dengan menggunakan media atau jasa bantuan perangkat elektronika [4]. Media pembelajaran jenis ini yang sudah memasyarakat diantaranya berupa CD-Interaktif dan e-Learning berbasis Web (Web-Based Learning). Dalam pengajaran pemrograman pertama, konsep dan elemen pemrograman dalam paradigma tersebut harus sudah dicakup seluruhnya, sehingga murid mempunyai pandangan yang integral. Pengajaran pemrograman akan sangat abstrak dan sulit ditangkap jika murid hanya dihadapkan pada konsep-konsep tanpa pernah "bermain" dengan komputer dan pemroses bahasanya. Dalam pengajaran pemrograman prosedural dipandang perlu untuk "membumikan" konsepkonsep paradigma pemrograman prosedural SI - 117 dalam suatu bahasa yang mampu dieksekusi oleh mesin. Bahasa apapun yang dipilih, elemen pemrograman prosedural harus diterjemahkan dalam bahasa tersebut, dan pengajaran bukan hanya diorientasikan ke sintaks, melainkan ke semantik dari elemen pemrograman tersebut [3]. TINJAUAN PUSTAKA Pedagogi Praktikum Pemrograman dalam Pembelajaran Menurut Prof. Dr. J. Hoogveld (Belanda) pedagogik adalah ilmu yang mempelajari masalah membimbing anak ke arah tujuan tertentu, yaitu supaya kelak ia “mampu secara mandiri menyelesaikan tugas hidupnya”. Jadi pedagogik adalah Ilmu Pendidikan Anak. Langveld (1980) membedakan istilah “pedagogik” dengan istilah “pedagogi”. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Pedagogik diartikan dengan ilmu pendidikan, lebih menitik beratkan kepada pemikiran, perenungan tentang pendidikan. Suatu pemikiran bagaimana kita membimbing anak , mendidik anak. Sedangkan istilah pedagogi berarti pendidikan, yang lebih menekankan kepada praktek, menyangkut kegiatan mendidik, kegiatan membimbing anak. Pedagogik merupakan suatu teori yang secara teliti, kritis dan objektif mengembangkan konsep-konsepnya mengenai hakekat manusia, hakekat anak, hakekat tujuan pendidikan serta hakekat proses pendidikan [8]. Pada pengajaran pemrograman yang diberikan pertamakali, harus memberikan pemrograman yang paling mendasar. Pemrograman ini akan menjadi dasar dari pemrograman selanjutnya. Karena itu, pada pengajaran Pemrograman pertama sangat perlu diperhatikan [3] : 1. pembentukan pola berpikir sistematis sesuai "standard", 2. harus mencakup hal yang esensial, 3. pengertian akan spesifikasi versus koding. Pelajaran ini hanya mencakup tahap koding, dan sama sekali tidak mencakup desain/pembuatan spesifikasi program, 4. walaupun tidak dikatakan secara eksplisit, bahasa pertama ini akan menjadi “meta bahasa” yang akan dipakai pada pengajaran bahasa pemrograman yang berikutnya, 5. aspek eksekusi (hasil program, trace nilai) sebaiknya tidak pernah diberikan di kelas secara rinci, kecuali jika kuliah memakai komputer. Aspek ini sebaiknya dipisahkan. ISSN : 2302-7088 media pembelajaran ke dalam bentuk web. Aplikasi ini memungkinkan siswa untuk masuk kedalam “ruang kelas” digital untuk mengakses materi-materi pembelajaran. Gambaran dan kelebihan Moodle, antara lain [5] : 1. 100% cocok untuk kelas online dan sama baiknya dengan belajar tambahan yang langsung berhadapan dengan dosen/guru ; 2. sederhana, ringan, efisien, dan menggunakan teknologi sederhana ; 3. mudah di Install pada banyak program yang bisa mendukung PHP dengan hanya membutuhkan satu database ; 4. menampilkan penjelasan dari pelajaran yang ada dan Pelajaran tersebut dapat dibagi kedalam beberapa kategori ; 5. dapat mendukung lebih dari 1000 mata pelajaran ; 6. mempunyai kemanan yang kokoh dengan formulir pendaftaran untuk pelajar yang telah diperiksa validitasnya dan mempunyai cookies yang ter-enkripsi. Paket bahasa disediakan penuh dalam 45 bahasa, termasuk bahasa Indonesia. Bahasa yang ada dapat diedit dengan menggunakan editor yang telah tersedia. Desain Interaksi Merancang interaksi berarti membangun suatu produk yang dapat digunakan. Dapat digunakan artinya mudah untuk dipelajari, efektif digunakan, dan terasa nyaman bagi penggunanya. Untuk itu merancang interaksi antara produk dan manusia perlu [6]: 1. masukan, ide dan umpan balik dari pengguna berdasarkan yang mereka rasakan dan alami, 2. memperhatikan dan mempertimbangkan siapa yang akan menggunakan interaksi itu, 3. mengetahui cara mereka menggunakannya, 4. mengetahui aktifitas-aktifitas penggunanya. Content Management System Moodle Content Management Sistem (CMS) adalah sebuah sistem yang memberikan kemudahan kepada para penggunanya dalam mengelola dan mengadakan perubahan isi sebuah website dinamis tanpa sebelumnya dibekali pengetahuan tentang hal-hal yang bersifat teknis. Dengan demikian, setiap orang, penulis maupun editor, setiap saat dapat menggunakannya secara leluasa untuk membuat, menghapus atau bahkan memperbaharui isi website tanpa campur tangan langsung dari pihak webmaster. CMS Moodle menjadi alat bagi pengajar untuk membuat sebuah course website. Moodle adalah sebuah nama untuk sebuah program aplikasi yang dapat merubah sebuah Gambaran kerja atau job description seperti [6]: 1. interactive designer– orang yang terlibat dalam perancangan semua aspek interaksi dalam suatu produk, SI-118 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 2. usability engineer – orang yang menangani evaluasi produk, cara penggunaan dan prinsip prinsip, 3. UI designers – orang yang berpengalaman di bidang metodologi desain yang berpusat pada pengguna, 4. UI designers engineers – orang yang membangun dan memodelkan cara penggunaan, metode analisis workflow dan prototype, 5. Information architects – orang yang memberikan ide bagaimana merencanakan dan menyusun produk yang interaktif, khususnya website 6. User Experience (UX) designers/architects/researchers – orang yang melakukan semua hal di atas tetapi juga melakukan studi lapangan untuk meneliti kebutuhan pengguna dan mengubahnya menjadi hasil yang nyata. ISSN : 2302-7088 Desain interaksi dan pengalaman pengguna, tujuan kegunaan : berkaitan dengan produk interaktif yang mudah dipelajari, efektif, dan nyaman digunakan dari sudut pandang pengguna. Tujuan ini dimaksudkan untuk menyediaan perancang interasi dengan cara konkrit untuk menguji aspek yang beragam dari produk yang interaktif dan UX. Hal-hal yang dipenuhi untuk tujuan ini adalah [6]: 1. Efektif : seberapa baik produk itu dapat bekerja, 2. Efisien: cara produk mendukung pengguna melakukan tugasnya, 3. Aman digunakan: melindungi pengguna dari situasi yang bahayakan, 4. Memiliki utilitas yang baik: seberapa fungsi-fungsi tersedia bagi pengguna, 5. Mudah dipelajari : seberapa mudah produk digunakan, 6. Mudah untuk diingat penggunaanya: seberapa mudah penggunaan diingat. User Experience (UX) atau Pengalaman Pengguna berarti bagaimana produk berlaku dan digunakan oleh orang di dunia nyata. UX adalah tentang bagaimana orang merasakan produk dan mereka menikmati dan merasa puas waktu menggunakannya, melihatnya, memegangnya, dan membuka/menutupnya . UX tidak dapat dirancang, tapi merancang untuk kepentingan UX artinya rancangan yang dihasilkan menimbulkan efek yang menyebabkan adanya UX, misalnya rasa atau kesan tertentu nyaman atau sensual. Tujuan pengalaman pengguna (user experience) : tujuan ini lebih berkaitan dengan rasa dan pengalaman yang dirasakan dan dialami oleh pengguna dengan produk yang digunakannya. Perasaan yang dapat pengguna berikan sebagai hasil pengujian/evaluasi adalah : memuaskan, nyaman, menghibur, membantu, indah, creative, stimulasi kognitif, menyenangkan, lucu, mengejutkan, menantang, membosankan, membuat frustrasi, mengganggu. Hal-hal ini muncul karena pengguna menggunakan hasil rancangan. Prinsip merancang yaitu [6]: 1. Visilibility : fungsi jelas, bagian-bagian jelas, simbol jelas, 2. Feedback : umpan balik yang diberikan sebagai hasil aksi yang diberikan, 3. Constraints : memberi batasan yang jelas untuk pengguna mengerti apa yang dikerjakan, 4. Consistency: penggunaan operasi, dan elemen pada produk untuk melakukan hal yang sama. Misal warna merah selalu digunakan untuk memberi pesan kesalahan, warna biru untuk konfirmasi, 5. Affordances: atribut dari suatu objek yang membuat orang tahu bagaimana menggunakannya. Misal button untuk ditekan, check box untuk dicentang. Langkah-langkah dalam proses desain interaksi adalah sebagai berikut [6]: 1. Identifikasi kebutuhan dan membangun keperluan/requirement untuk UX, 2. Menggunakan pendekatan berpusat pada pengguna dengan melibatkan pengguna dalam proses perancangan : mengamati, interview, bicara dengan pengguna, menguji kinerja mereka, memodelkan cara kerjanya, gunakan kuesioner, atau menjadikan mereka tim perancang, 3. Membangun desain alternatif yang memenuhi keperluan/requirement, 4. Membangun versi interaktif dari desain sehingga mereka dapat dikomunikasikan dan diuji, 5. Evaluasi apa yang sudah dibuat melalui prosses dan UX yang disajikan. Memastikan bahwa produk dapat digunakan. SI-119 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Prinsip merancang lain adalah simplicity atau kesederhanaan yang biasanya diberlakukan pada website. ISSN : 2302-7088 4. UPT laboratorium menerima daftrar spesifikasi perangkat lunak dan perangkat keras sesuai kebutuhan praktikum yang telah di setujui jurusan. 5. UPT laboratorium mempersiapkan laboratorium dengan spesifikasi sesuai permintaan dari Jurusan. 6. UPT laboratorium memberikan daftar laboratorium yang telah di kelompokkan berdasarkan macam-macam matakuliah pemrograman kepada BAAK. 7. BAAK melakukan penjadwalan praktikum pada laboratorium. 8. Dosen dan Mahasiswa melakukan praktikum di laboratorium, matakuliah pemrograman sesuai dengan jadwal yang telah diberikan oleh BAAK. 9. UPT laboratorium mengalokasikan penggunaan laboratorium sesuai dengan jadwal dari BAAK. ANALISA DAN PERANCANGAN Analisa Deskripsi Sistem yang Ada Untuk menganalisa proses bisnis yang sedang berjalan maka perlu dilakukan pengamatan aktivitas-aktifitas yang dilakukan pada saat praktikum pemrograman bahasa C oleh mahasiswa dan dosen dalam menjalankan fungsinya. Dalam proses bisnis ini terdapat beberapa actor yang berperan menjalankan fungsi kegiatan, yaitu : 1. Dosen, 2. Mahasiswa, 3. Asisten Laboratorium (As.Lab.), 4. Teknisi, 5. Ketua Laboratorium Komputer (Ka.Lab.), 6. Ketua Jurusan (Ka.Jur), 7. Ketua Bidang Akademik dan Kemahasiswaan (Ka.Baak). Deskripsi Umum Sistem yang Akan Dibangun Dari analisis proses bisnis yang telah berjalan, maka sebuah proses bisnis baru yang memanfaatkan teknologi informasi. Sistem yang akan dibangun akan melengkapi sistem yang telah berjalan, yaitu menerapkan laboratorium virtual yang tergambar dibawah ini. Gambar 1 Blok Diagram Proses Bisnis yang ada. Gambar 2 Blok Diagram Proses Bisnis yang akan dibangun. Aktivitas-aktivitas di laboratorium pemrogramanan dibagi menjadi dua bagian besar yaitu pengguna laboratorium dan pengelola laboratorium, dengan rincian sebagai berikut. 1. Mahasiswa melakukan registrasi untuk mengambil matakuliah pemrograman ke BAAK dengan persetujuan Dosen Wali sesuai kurikulum yang telah dibuat jurusan. 2. Jurusan melakukan penugasan pada dosen. 3. Dosen Menentukan spesifikasi perangkat lunak dan perangkat keras sesuai kebutuhan praktikum untuk matakuliah yang diampunya. Sistem yang dikembangkan ini menjadi salah satu pilihan karena mempunyai beberapa keunggulan, yaitu kemudahan akses laboratorium hanya dengan memiliki akases pada lab virtual ini maka mahasiswa dapat melakukan praktikum pemrograman C nya dimana saja dan kapan saja dengan tidak terbatas oleh waktu penggunaan, yang biasanya dibatasi akses laboratorium hanya pada saat perkuliahan praktikum berlangsung saja, sehingga dengan dibangunnya sistem baru ini tujuan pembelajaran akan tercapai dengan desain interaksi yang tidak membuat penggunan frustasi dalam menggunakan sistem SI-120 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember baru karena laboratorium virtual ini dibangun dengan metafora yang sama seperti pada sistem lama. ISSN : 2302-7088 2. Kemampuan untuk melihat deskripsi dari soal praktikum, 3. Kemampuan untuk upload / submission tugas program, 4. Kemampuan untuk menuliskan, menyimpan, debug dan run program, 5. Kemampuan untuk menampilkan kembali submission yang telah di kirim, 6. Kemampuan untuk melihat hasil penilaian dan pendapat dosen dari tugas program yang telah di kirim, 7. Kemampuan untuk adanya batas waktu pengerjaaan tugas praktikum. Persyaratan Sistem Perangkat lunak untuk praktikum pemrograman bahasa C pada laboratorium virtual yang akan dikembangkan diharapkan dapat melakukan beberapa hal sesuai rencana bisnis. Hal-hal yang diharapkan untuk administrator adalah sebagai berikut. 1. Pengelolaan laboratorium menggunakan aplikasi. 2. Mempunyai kemampuan untuk membagi kewenangan penggunaan sistem dengan proses login untuk laboratorium virtual. 3. Kemampuan untuk pengelolaan data pemakai (manajemen user) yaitu fungsi penambahan, perubahan dan penghapusan pemakai. 4. Kemampuan untuk melakukan pengelolaan konfigurasi sistem. 5. Kemampuan untuk melakukan pengelolaan backup dan restore data. 6. Kemampuan untuk melakukan perubahan password. 7. Kemampuan untuk melakukan pengelolaan informasi. Diagram Use Case Diagram use case digunakan untuk memodelkan kebutuhan sistem dan untuk mengidentifikasi fungsionalitas yang penting secara arsitektural dari perangkat lunak yang dikembangkan. uc Primary Use Cases System Boundary mengelola konfigurasi sistem mengelola user mengelola hak akses user Administrator mengelola backup dan restore mengelola perubahan passw ord Untuk dosen, hal hal yang diharapkan adalah sebagai berikut : 1. Kemampuan untuk mengelola materi praktikum pemrograman, 2. Kemampuan untuk mengelola soal atau tugas praktikum pemrograman c, 3. Kemampuan untuk melakukan run, debug program C selayaknya pada laboratorium sistem lama, 4. Kemampuan untuk menuliskan, mengubah dan menyimpan program, 5. Kemampuan pemberian penilaian dan komentar pada tugas yang telah di kirim mahasiswa, 6. Kemampuan untuk menampilkan tugas tugas yang telah dikirim mahasiswa, 7. Kemampuan untuk adanya batas waktu dari tugas praktikum yang diberikan. Login «include» Logout mengubah passw ord melihat materi «include» Dosen mengunduh materi mengelola materi praktikum «include» mengelola tugas praktikum «include» melihat tugas Mahasisw a debug program mengelola tugas program praktikum «include» «include» run program mengupload tugas program mengelola nilai praktikum «include» «include» melihat nilai tugas melihat daftar tugas praktikum «extend» melihat tugas mengelola batas w aktu pengerj aan tugas praktikum Untuk Mahasiswa, hal hal yang diharapkan adalah sebagai berikut : 1. Kemampuan untuk melihat, dan mengunduh materi yang diberikan oleh dosen, «include» melihat batas w aktu pengej aan tugas Gambar 3 Diagram use case sistem. SI-121 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Use case adalah pola perilaku dari perangkat lunak, yaitu urutan transaksi yang berhubungan dengans sesuatu yang dilakukan oleh actor. Use case dibuat berdasarkan keperluan actor. Rincian use case adalah sebagai berikut. 1. Mengelola konfigurasi Sistem. Use case yang berfungsi untuk memelihara data kebutuhan terlaksananya praktikum. 2. Mengelola user. Use case yang berfungsi untuk mengelola user. Proses yang dilakukan meliputi menampilkan informasi user, penambahan user, mengubah data dan penghapusan data. 3. Mengelola hak akses. Use case yang berfungsi untuk mengelola hak user. Proses yang dilakukan meliputi menampilkan informasi hak akses user, penambahan user, mengubah data dan penghapusan data. 4. Mengelola backup dan restore. Use case yang berfungsi melakukan pengelolaan data dalam sistem. Backup adalah proses melakukan penyalinan file dari database sistem ke dalam target atau folder tertentu, sedangkan restore adalah proses penyalinan file dari suatu folder tertentu (hasil backup) kedalam database sistem. 5. Mengelola perubahan password. Use case yang berfungsi untuk mengelola perubahan password. Proses yang dilakukan meliputi menampilkan informasi perubahan password, penambahan, mengubah data dan penghapusan data. 6. Mengelola materi. Use case yang berfungsi untuk mengelola materi. Proses yang dilakukan meliputi menampilkan informasi perubahan materi, penambahan, mengubah materi dan penghapusan materi. 7. Mengelola tugas praktikum. Use case yang berfungsi untuk mengelola tugas praktikum. Proses yang dilakukan meliputi menampilkan informasi perubahan tugas, penambahan, mengubah data dan penghapusan data. 8. Mengelola tugas program praktikum. Use case yang berfungsi untuk mengelola tugas program. Proses yang dilakukan meliputi menampilkan informasi 9. 10. 11. 12. 13. ISSN : 2302-7088 perubahan, penambahan, mengubah dan penghapusan. Mengelola nilai praktikum. Use case yang berfungsi untuk mengelola nilai praktikum. Proses yang dilakukan meliputi menampilkan informasi perubahan, penambahan, mengubah dan penghapusan. Melihat daftar tugas praktikum. Use case yang berfungsi untuk melihat daftar tugas praktikum mahasiswa. Mengelola batas waktu pengerjaan tugas praktikum. Use case yang berfungsi untuk mengelola batas waktu pengerjaan tugas praktikum. Proses yang dilakukan meliputi menampilkan informasi perubahan, penambahan, mengubah dan penghapusan batas waktu pengerjaan. Login. Use case yang berfungsi untuk proses masuk ke sistem laboratorium virtual. Logout. Use case yang berfungsi untuk keluar dari sistem laboratorium virtual. Diagram Activity Diagram aktifitas menggambarkan aliran aktifitas dalam sistem yang dirancang, bagaimana masing-masing aliran berawal, keputusan yang mungkin terjadi dan bagaiamana berakhir. Suatu aktifitas dapat direalisasikan oleh satu use case atau lebih. Aktifitas menggambarkan proses yang sedang berjalan sedangkan use case menggambarkan bagaimana aktor menggunakan sistem untuk melakukan aktifitas. Diagram aktifitas pada sistem ini adalah sebagai berikut. a. Diagram Aktifitas Administrator Gambar 4. Diagram Aktifitas Administrator pada Laboratorium Virtual SI-122 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 b. Diagram Aktifitas Dosen Gambar 5. Diagram Aktifitas Dosen pada Laboratorium Virtual. c. Diagram Aktifitas Mahasiswa. Gambar 7. Diagram Class Paket VPL. Perancangan Perangkat Spesifikasi Perangkat Lunak Untuk mengembangakan laboratorium virtual pemrograman bahasa C dibutuhkan perangkat lunak sesuai dengan kebutuhan dari moodle yaitu sebagai berikut. Web Server : Xampp versi 1.7.x Basisdata : MySQL 4 Bahasa Pemrograman : PHP 5 Editor :Macromedia Dreamweaver Gambar 6. Diagram Aktifitas Mahasiswa pada Laboratorium Virtual Analisis Domain Class Diagram Spesifikasi Perangkat Keras Pengembangan aplikasi media pembelajaran praktikum pemrograman bahasa C pada laboratorium virtual dibutuhkan perangkat keras komputer dengan spesifikasi minimum hardware yang mampu compile program C yaitu jail sistem yang jalan pada operating system linux centos 5, sedangkan user interface dari laboratorium virtual berjalan pada operating system windows, maka spesifikasi perangkat keras yang dibutuhkan adalah sesuai dengan Tabel 1. Pada tahap analisis domain didefinisikan class class domain berserta hubungan statis dan dinamis antar class yang terdapat dalam sistem. Sebagai acuan dalam melakukan analisis domain, digunakan use case yang telah didefinisikan pada tahap analisis kebutuhan. Class menggambarkan keadaan (atribut / properti) suatu sistem, sekaligus menawarkan layanan untuk memanipulasi keadaan tersebut yaitu metoda atau fungsi. KESIMPULAN DAN SARAN Kesimpulan Berdasarkan hasil pengujian pembahasan yang telah diuraikan disimpulkan hal-hal sebagai berikut. SI-123 dan dapat Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember 1. Laboratorium virtual ini sangat membantu dalam meningkatkan tujuan pembelajaran praktikum pemrograman bahasa C. 2. Hasil pengujian pengolahan data kualtitatif menunjukkan bahwa rata-rata skor aspek pengujian dan perancangan responden menyatakan setuju bahwa laboratorium virtual sesuai dengan tujuan dari usability dan user experience yaitu efektif, efisien, aman digunakan, memiliki utilitas yang baik, mudah dipelajari dan mudah diingat oleh penggunanya. ISSN : 2302-7088 DAFTAR PUSTAKA Tabel 1. Spesifikasi perangkat keras 1 Processor : Intel Core 2 Duo E7400 @ 2,80GHz, 2 Mobo : HP Compaq DX2390 Microtower, 3 RAM : Type DDR 4, 2 GB, 4 Harddisk : Type SATA, 148,8 GB, 5 Power Supply : Lite on 250W, 6 VGA Card : NVIDIA GeForce 8400GS 512 MB, 7 Cassing : HP Compaq DX2390, 8 Monitor : LCD HP V185e, 9 Mouse : HP Optic USB, 10 Key Board : HP USB, 11 DVD RW : TSST Corp DVDRW SH-S223B. Saran Saran-saran untuk pengembangan aplikasi laboratorium virtual ini adalah dapat dikembangnya lab virtual ini, sehingga dapat mendukung beberapa bahasa pemrograman lainnya dan untuk mengoptimalkan keunggulannya sebaiknya laboratorium ini diimplementasikan pada jaringan internet SI-124 [1]. Munir, Kurikulum Berbasis Teknologi Informasi dan Komunikasi, Bandung : ALFABETA, 2008. [2]. Liem, Inggriani, Aspek Pedagogi Pengajaran Pemrograman Pertama, Departemen Pendidikan Nasional RI, 2004. [3]. Heinich R, et.al, Instructional Technology and Media for Learning, New Jersey, Prentice Hall, 2005. [4]. Susilana, Rudi, Riyana, Cepi, Media Pembelajaran Hakikat Pengembangan, Pemamfaatan dan Penilaian, Jurusan Kurikulum dan Teknologi Pendidikan FIP UPI, 2008. [5]. Suyoh, Pengertian Pedagogi, shvoong.com, http://id.shvoong.com/socialsciences/education/2115688-pengertianpedagogik/, diakses tanggal 11 Februari 2011. [6] Margaret Martinez & Sheila Jagannathan, Moodle A Low-Cost Solution for Successful e-Learning. Learning Solutions Megazine., http://www.learningsolutionsmag.com/articles /71/moodle-a-low-cost-solution-forsuccessful-e-learning, diakses tanggal 10 Januari 2010. [7]. Sharp, Helen, Rogers, Yvonne dan Jenny Preece, Interaction design: beyond humancomputer-interaction, John Wiley and Sons, 2007. [8]. Laboratorium, UPT, Profile UPT Laboratorium Komputer, Bandung, UPT Laboratorium Politeknik Pos Indonesia, 2010. [9.] Slavin, Robert, Cooperative Learning Theory, Allyn and Bacon Publisher, 1995. [10].___________. Educational Psychology Theory and Practice, Massachusetts, Allyn and Bacon Publisher, 1994. [11]. Arends, Richard, Learning to Teach. New York , McGraw Hill Companies, 2007. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 PERAMALAN PENGUNJUNG PARIWISATA MENGGUNAKAN METODE EXTREME LEARNING MACHINE BERBASIS RADIAL BASIS FUNCTION (ELM-RBF) *Bain Khusnul Khotimah, Mula’ab, **Iis Farihah Program Studi Teknik Informatika, Fakultas Teknik Universitas Trunojoyo E-mail : *[email protected], **[email protected] Abstrak Sistem peramalan pariwisata merupakan proses untuk memperkirakan jumlah pengunjung di masa datang sebagai pertimbangan dalam memenuhi kebutuhan pelayanan yang tepat dan cepat. Metode peramalan yang digunakan dalam penelitian ini adalah metode Extreme Learning Machine Radial Basis Function (ELM-RBF) yang merupakan salah satu metode pembelajaran baru dari jaringan syaraf tiruan dengan keunggulan memiliki tingkat error yang kecil berdasarkan nilai MSE (Mean Square Error) dan MAPE (Mean Absolute Percentage Error). Penggabungan fungsi Radial Basis Function (RBF) digunakan untuk memodifikasi pembobotan pada hidden layer menghasilkan proses iterasi yang lebih cepat dan error yang lebih kecil dibandingkan dengan menggunakan metode Back Propagation dan ELM. Penelitian ini menggunakan 4 data ujicoba dengan hasil pengujian untuk pariwisata Gondang menghasilkan nilai MSE = 0.15147 dan nilai MAPE = 0.0059%, pariwisata WBl menghasilkan nilai MSE = 0.3134 dan MAPE = 0.4206%, pariwisata Mazola menghasilkan nilai MSE = 0.2266 dan MAPE = 0.0368% sedangkan Sunan Drajad nilai MSE = 0.2998 dan MAPE = 0.1475%. Kata kunci : Peramalan, Extreme Learning Machine (ELM), Radial Basis Function (RBF) Abstract Forecasting tourism system is the process to estimate the number of visitors in the future for consideration in meeting the needs of precise and fast service. Forecasting methods used in this research is a method of Extreme Learning Machine Radial Basis Function (ELM-RBF), which is one of the new learning method of neural networks with the advantages of having a small error rate based on the value of MSE (Mean Square Error) and MAPE (Mean Absolute Percentage Error). Merging functions of Radial Basis Function (RBF) is used to modify the weighting of the hidden layer iteration process yields faster and smaller error than using the Back Propagation and ELM. This study used four experimental data with the results of testing for produce Gondang tourism MSE = 0.15147, and the value of MAPE = 0.0059%, WBL tourism generating MSE = 0.3134 and MAPE = 0.4206%, Mazola generate tourism MSE = 0.2266 and MAPE = 0.0368% while Sunan Drajad MSE = 0.2998 and MAPE = 0.1475%. Keyword: Forecasting, Extreme Learning Machine (ELM), Radial Bases Function (RBF) PENDAHULUAN Mengamati pertumbuhan kunjungan wisatawan ke beberapa daerah di Jawa Timur merupakan suatu hal yang menarik. Lamongan adalah kota yang sangat kaya akan keindahan alam dan beraneka ragam budaya. Lamongan memiliki potensi wisata yang dapat dimanfaatkan semaksimal mungkin dan berpotensi sebagai kota tujuan wisata atau daerah tujuan wisata. Beberapa objek dan daya tarik wisata yang dapat dikunjungi dan dinikmati para wisatawan di daerah Lamongan antaralain : Wisata Bahari Lamongan(WBL), Maharani Zoo Lamongan(Mazola), Sunan Drajad dan Waduk Gondang. Obyek wisata SI-125 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 harian ataupun mingguan dan ditentukan oleh Low Management. b. Jangka Menengah (Medium Term) Menentukan kuantitas dan waktu dari kapasitas produksi. Biasanya bersifat bulanan ataupun kuartal dan ditentukan oleh Middle Management. c. Jangka Panjang (Long Term) Merencanakan kuantitas dan waktu dari fasilitas produksi. Biasanya bersifat tahunan, 5 tahun, 10 tahun, ataupun 20 tahun dan ditentukan oleh Top Management. dikawasan tersebut sangat diminati pengunjung, sehingga sulit memperkirakan jumlah pengunjung karena kapasitas obyek wisata juga terbatas dan kurangnya petugas pengelola yang mengakibatkan antrian panjang [1]. Peramalan dalam pariwisata sendiri merupakan proses untuk memperkirakan jumlah pengunjung di masa datang meliputi: kebutuhan pelayanan yang tepat dan cepat dalam mendapatkan jumlah pengunjung yang banyak dan demi memenuhi keinginan pengunjung. Peramalan data pengunjung salah satu alternatif perbaikan sistem pariwisata di Lamongan untuk memprediksi jumlah pengunjung sebagai bekal memperbaiki pelayanan terhadap pengunjung di masa yang akan datang [2]. Penelitian ini menggunakan metode peramalan yang digunakan adalah metode Extreme Learning Machine (ELM) berbasis Radial Basis Function (RBF). Algoritma Extreme Learning Machine (ELM) mempunyai kelebihan dalam learning speed, serta mempunyai tingkat akurasi yang lebih baik dibandingkan dengan metode lainnya sehingga dengan menerapkan metode ini pada demand forecasting diharapkan mampu menghasilkan ramalan yang lebih efektif [3]. Sedangkan penggunaaan metode Radial Basis Function (RBF) di dalam metode Extreme Learning Function (ELM) mudah mencapai kinerja generalisasi baik pada kecepatan belajar yang sangat cepat Algoritma Extreme Learning Function (ELM) untuk jaringan Radial Basis Function (RBF) atau disebur ELM-RBF dapat menyelesaikan belajar pada kecepatan yang sangat cepat dan menghasilkan kinerja generalisasi sangat dekat dengan Extreme Learning Function (ELM) [4]. Peramalan Deret Waktu Time series adalah serangkaian nilai-nilai variabel yang disusun berdasarkan waktu. Analisis time series mempelajari pola gerakangerakan nilai-nilai variabel pada satu interval waktu (misal minggu, bulan, dan tahun) yang teratur. Peramalan pendugaan masa depan dilakukan berdasarkan nilai masa lalu. Tujuan metode peramalan deret berkala (time series) seperti ini adalah menemukan pola dalam deret historis dan mengekstrapolasikan pola tersebut kemasa depan. Pola data dapat dibedakan menjadi empat jenis siklis dan trend [6]. 1. Pola Harizontal (H) Terjadi apabila nilai data fluktuasi disekitar nilai rata-rata yang konstan. Suatu calon mahasiswa baru yang tidak meningkat dan menurun selama waktu tertentu, termasuk kedalam pola ini 2. Pola Musiman Terjadi apabila suatu deret dipengaruhi oleh musiman (misal kuartal tahun tertentu). 3. Pola Siklis Terjadi apabila datanya dipengaruhi oleh fluktuasi ekonomi jangka panjang seperti yang behubungan siklis bisnis 4. Pola Random Permintaan suatu produk dapat mengikuti pola bervariasi secara acak karena faktorfaktor adanya bencana alam, bankrutnya perusahaan pesaing, promosi khusus dan kejadian-kejadian lainnya yang tidak mempunyai pola tertentu. Variasi acak ini diperlukan dalam rangka menentukan persediaan pengamanan untuk mengantisipasi kekurangan permintaan. 5. Pola Trend SISTEM PERAMALAN Peramalan adalah proses untuk memperkirakan berapa kebutuhan di masa datang. Salah satu teknik peramalan adalah analisis serial waktu dan proyeksi. Metode serial waktu didasari oleh asumsi bahwa kejadian-kejadian masa mendatang akan mengikuti jalur yang ada dalam penggunaan data historis untuk memprediksi masa depan. Tujuan peramalan dilihat dengan waktu [5]: a. Jangka pendek (Short Term) Menentukan kuantitas dan waktu dari item dijadikan produksi. Biasanya bersifat SI-126 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember Terjadi apabila terdapat kenaikan atau penurunan sekuler jangka panjang dalam data. akan diproses dengan rumus autokorelasi sehingga didapatkan time lags atau waktu yang bersignifikan dengan waktu yang diramalkan. Kemudian data tersebut pada waktu yang bersignifikan tersebut akan menjadi data masukan pada proses pelatihan jaringan syaraf tiruan. Rumus untuk mencari fungsi autokorelasi: 2.2 Akurasi Peramalan Ukuran akurasi hasil peramalan yang merupakan ukuran kesalahan peramalan merupakan ukuran tentang tingkat perbedaan antara hasil peramalan dengan permintaan yang sebenarnya terjadi. Ukuran yang biasa digunakan, yaitu [6]: 1. Mean Absolute Percentage Error (MAPE) Pendekatan MAPE digunakan untuk menilai prestasi jaringan yang dilatih karena MAPE mengenal secara pasti signifikasi hubungan diantara data ramalan dengan data aktual melalui persentase dari data aktual serta indikator positif atau negatif pada galat (error) diabaikan. ( ( ) (3) ) Keterangan: Yt = data baru atau nilai aktual pada periode t rk = nilai signifikan EXTREME LEARNING MACHINE Extreme Learning Machine merupakan metode pembelajaran baru dari jaringan syaraf tiruan. Metode ini pertama kali diperkenalkan oleh Huang (2004). ELM merupakan jaringan syaraf tiruan feedforward dengan single hidden layer atau biasa disebut dengan Single Hidden Layer Feedforward neural Networks (SLFNs) Metode pembelajaran ELM dibuat untuk mengatasi kelemahan-kelemahan dari jaringan syaraf tiruan feedforward terutama dalam hal learning speed [3][5]. (1) 2. Mean Square Error (MSE) MSE dihitung dengan menjumlahkan kuadrat semua kesalahan peramalan pada setiap periode dan membaginya dengan jumlah periode peramalan. Secara matematis, MSE dirumuskan sebagai berikut [6]: ( At − Ft ) 2 n )( n ∑ Yt − Y t Yt − k − Y t rk = 2 n ∑ Yt − Y t t =1 F 100 MAPE = ∑ At − t At n MSE = ∑ ISSN : 2302-7088 Output layer (predict forecast) (2) Hidden layer 2.3 Fungsi Autokorelasi Salah satu bentuk analisis dalam teori Statistika adalah Analisis Data deret Waktu, yaitu analisis terhadap data yang merupakan fungsi atas waktu atau tempat. Analisis data deret waktu merupakan analisis khusus dari analisis regresi, sebab dalam data deret waktu terlibat suatu besaran yang dinamakan Autokorelasi. Keberadaan autokorelasi bisa merupakan autokorelasi periodik, yaitu autokorelasi dengan nilai periodesitasnya lebih dari satu, dan autokorelasi seperti ini banyak terdapat pada data deret waktu yang memiliki komponen musiman-periodik. Perumusan autokorelasi sama dengan perumusan korelasi antar dua variabel. Dalam metode Statistika, jika dimiliki sampel atas data bivariat (X , Y). Dalam hal ini data yang di proses berdasarkan waktunya Input layer (independent var) Gambar 1. Arsitektur ELM H diatas adalah hidden layer output matrix g (wi • xi+b1 ) menunjukkan output dari hidden neuron yang berhubungan dengan input i x . β merupakan matrix dari output weight dan T matrix dari target atau output . Pada ELM input weight dan hidden bias ditentukan secara acak, maka output weight yang berhubungan dengan hidden layer Pada ELM parameter-parameter seperti input weight dan hidden bias dipilih secara random, sehingga ELM memiliki learning speed yang cepat dan mampu mengshasilkan SI-127 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember good generalization performance. Metode ELM mempunyai model matematis yang berbeda dari jaringan syaraf tiruan feedforward. Model matematis dari ELM lebih sederhana dan efektif. Berikut model matrematis dari ELM. Untuk N jumlah sample yang berbeda (xi, ti) Xi= [ Xi1 , Xi2 ...., Xi n ] T € R n, Xt = [ Xt1 , Xt2 ...., Xt n ] T € R n, ISSN : 2302-7088 aktifasi yang berupa fungsi basis radial. Fungsi basis radial ini diasosiasikan oleh lebar dan posisi center dari fungsi basis tersebut. Struktur dasar jaringan RBF [4][6]. Fungsi basis pada jaringan RBF identik dengan dengan fungsi gaussian yang diformulasikan sebagai berikut : (4) φj = Standart SLFNs dengan jumlah hidden nodes sebanyak N dan activation function g ( x ) dapat digambarkan secara matematis sebagai berikut : dimana: φj =Keluaran fungsi basis ke – j data x x = Masukan fungsi basis cj = Center fungsi gausian ke - j σj = Lebar fungsi gausian ke – j (5) (Wr.Xj+bi)= oj (7) HASIL DAN PEMBAHASAN (6) Data input yang digunakan dalam penelitian ini adalah data pengunjung pariwisata di Kab.Lamongan. Dalam data yang akan di analisa memiliki beberapa data pariwisata anatara tahun 2006-2010 dengan nama wisata sebagai berikut : dimana : J = 1,2,..., N wi = (wi1 ,wi2 ,..., win )T = merupakan vektor dari weight yang menghubungkan i th hidden nodes dan input nodes. βi = (βi1 , βi2 ,..., βin )T = merupakan weight vector yang menghubungkan i th hidden dan output nodes. bi = threshold dari ke-i pada hidden nodes. w i x j = hasil inner produk dari w i dan x j Tabel 1. Data Wisata Lamongan No Data Wisata Lamongan 1 Wisata Bahari Lamongan (WBL) 2 Maharani Zoo Lamongan (Mazola) 3 Sunan Drajad 4 Waduk Gondang RADIAL BASIS FUNCTION RBF (φ) merupakan fungsi dimana keluarannya simetris terhadap center c tertentu atau dinyatakan sebagai φc = φ ||x - c||, dimana || . || merupakan vektor normal. Jaringan syaraf yang dibentuk dengan menggunakan fungsi basis berupa fungsi basis radial dinamakan Jaringan Syaraf RBF. Jaringan RBF terdiri atas 3 layer yaitu layer input, hidden layer (unit tersembunyi) dan layer output. Masing– masing unit tersembunyi merupakan fungsi Preprosessig data dilakukan dengan menggunakan proses autokorelasi dan normalisasi sehingga menjadi data dengan range 0-1. Autokorelasi menghasilkan nilai kedekatan dengan lags maksimal 1, setelah itu data dimasukkan sebagai data latih dalam peramalan meggunakan ELM berbasis RBF dengan tampilan form sebagai berikut: SI-128 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ISSN : 2302-7088 Gambar 1. Interface ELM berbasis RBF Tabel 2. Hasil Uji Coba dengan Perbandingan penggunaan Metode BP (%) ELM (%) Data MSE MAPE MSE MAPE WBL 4,2871 1,2635 2,3031 1,5782 7,2540 1,5316 4,1044 0,8377 Mazola Sunan Drajad 1,1330 0,9622 1,1603 0,6695 Waduk Gondang 2,6536 1,5613 1,5602 0,5051 ELM-RBF(%) MSE MAPE 0.17103 0.0053 0.3134 0.0420 0.2266 0.0368 0.2998 0.1475 Tabel 3. Hasil Uji Coba berdasarkan perhitungan waktu BP (detik) ELM (detik) Data (Epoch) 1000 2000 1000 2000 WBL 720 1200 630 1118 680 1109 590 1001 Mazola Sunan Drajad 780 1204 750 1084 Waduk Gondang 800 1590 720 1390 ELM-RBF (detik) 1000 2000 480 902 510 989 621 994 689 1320 Data Wisata lamongan terdiri dari rekapitulasi data bulanan selama 5 tahun antara tahun 2006-2010 yang berjumlah 60 tupple. Uji coba akan membagi 60 data tupple yaitu data training sebanyak 48, data pengujian sebanyak 12. Selanjutnya memasukkan beberapa nilai parameter yaitu : hidden layer yang digunakan 8, nilai epoch 1000 dan learning rate sebesar 0.9. Hasil ujicoba pada Tabel 2. menunjukkan bahwa metode ELMRBF menghasilkan error yang lebih kecil dibandingkan dengan menggunakan metode Back Propagation (BP) dan ELM. Hasil uji coba menggunakan ELM-RBF pada data WBL menghasilkan nilai MSE sebesar 0.17103 dan MAPE 0.0053%, pada data Mazola menghasilkan nilai MSE sebesar 0.3134 dan MAPE 0.0420%, pada data wisata Gunung Drajat Menghasilkan nilai MSE sebesar 0.2266 dan MAPE 0.0368% dan terakhir data wisata Waduk Gondang menghasilkan nilai MSE sebesar 0.2998 dan MAPE 0.1475%. Hasil uji coba mengenai analisa penggunaan waktu pelatihan ditunjukkan pada Tabel 3. menunjukkan hasil penggunakan metode SI-129 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 12-13 Nopember ELM-RBF lebih cepat dibandingkan dengan metode BP dan ELM. KESIMPULAN [3] Kesimpulan yang dapat diambil penulis dari pembuatan perangkat lunak ini adalah: Sistem peramalan pengunjung pariwisata dengan menggunakan metode Extreme Learning Machine (ELM) berbasis Radial Basis Function (RBF) meghasilkan proses iterasi yang lebih cepat dan error yang lebih kecil dibandingkan dengan menggunakan metode Back Propagation dan ELM. 2. Berdasarkan uji coba pariwisata WBL menghasilkan nilai MSE sebesar 0.17103 dan MAPE 0.0053%, pariwisata Mazola menghasilkan nilai MSE sebesar 0.3134 dan MAPE 0.0420%, pariwisata Sunan Drajad menghasilkan nilai MSE sebesar 0.2266% dan MAPE 0.0368%, dan pariwisata Waduk Gondang menghasilkan nilai MSE sebesar 0.2998% dan MAPE 0.1475%. [4] DAFTAR PUSTAKA [8] 1. [5] [6] [7] [1] Buku Laporan Tahunan Wisata di Lamongan, 2011 [2] Wutsqa, Dhoriva Urwatul, Suhartono. 2007. Peramalan Deret Waktu Multivariat Seasonal pada Data Pariwisata dengan Model Var-Gstar. Jurusan Matematika, Universitas Negeri [9] SI-130 ISSN : 2302-7088 Yogyakarta, Yogyakarta, Jurusan Statistika, Institut Teknologi Sepuluh Nopember, Surabaya. Indonesia. Yulianarta, Handry. 2011. Sistem Peramalan Jumlah Pengguna Provider XL menggunakan Metode Extreme Learning. Teknik Informatika-Universitas Trunojoyo Madura, Indonesia. Huang, Guang-Bin. Siew, Chee-Kheong. 2004. Extreme Learning Machine : RBF Network Case. School of electrical and electronic engineering, Nanyang Technological University, Nanyang Avenue, Singapore. Agustina Irwin, Dwi. 2009. Penerapan Metode Extreme Learning Machine untuk Peramalan Permintaan. Sistem Informasi-ITS Surabaya, Indonesia. Hariyanto, Wahyudi, Setiawan, Iwan. 2007. Aplikasi Jaringan Syaraf Tiruan RBF pada Sistem Kontrol Valve untuk pengendalian tinggi muka air. Jurusan Teknik Elektro, Fakultas Teknik, Universitas Diponegoro,Semarang, Indonesia. Zhang, G., Pattuwo, B.E., Hu, M.Y. 1997. Forecasting with Artificial Neural Networks : The State of the Art. Elsevier International Journal of Forecasting 14 (1998) 35-62. Kusumadewi, Sri. 2003. Artificial Intelligence (Teknik dan Aplikasinya). Yogyakarta : Graha Ilmu. Sun, Z.L., Choi, T.M., Au, K.F., dan Yu, Y. 2008. Sales Forecasting using Extreme Learning Machine with Application in Fashion Retailing. Elsevier Decision Support Systems 46 (2008) 411-419. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 IMPLEMENTASI CRM PADA RANCANG BANGUN SISTEM INFORMASI PENJUALAN ONLINE DAN INVENTORI BERBASIS B2C (BUSINESS 2 CUSTOMER) Eka Widhi Yunarso Program Studi Manajemen Informatika, Politeknik Telkom Bandung E-mail: [email protected] Abstrak Pasar merupakan pusat perbelanjaan barang manufaktur. Variasi barang yang dijual dan banyak kios yang ada dalam pasar menimbulkan permasalahan diproses inventori dan penjualan. Tidak semua pembeli mau datang ke pasar, seperti kendala tempat yang jauh, sulitnya mencari letak kios yang menjual barang tertentu. Dari sisi penjual, adanya kesulitan memasarkan produk yang dijual, proses pencatatan transaksi penjualan masih dilakukan secara manual dan terdapat ketidakcocokan antara barang di gudang dengan data yang dimiliki. Penelitian ini bertujuan untuk mengatasi permasalahan yang ada melalui perancangan sistem informasi dengan mengimplementasikan konsep CRM. Rancang bangun sistem menggunakan 3 aktifitas utama yaitu Data Collecting, CRM Analysis, Structured Methodology. Hasil akhir dari penelitian ini adalah desain Sistem Informasi Penjualan Online dan Inventori berbasis B2C, menggunakan teknologi ICT dalam menghubungkan antara penjual dengan pembeli dalam proses pencarian barang, mengelola transaksi penjualan barang, proses pengelolaan barang hingga proses pelaporan. Kata kunci: Penjualan, Inventori, CRM, Data Collecting, CRM Analysis, Structured Methodology. Abstract The market is the shopping goods manufacturing. Variations of goods sold and a lot of stalls in the market cause problems processed inventory and sales. Not all buyers will come into the market, such as the constraints of a distant, difficult to find the location of stalls selling a particular item. From the seller's side, the difficulty of marketing products sold, sales transaction recording process is still done manually and there is a mismatch between the goods in the warehouse with the data they hold. This study aims to address the existing problems through the design of information systems by implementing the concept of CRM. The design of the system using the 3 main activities Collecting Data, CRM Analysis, Structured Methodology. The end result of this research is the design of Information Systems Online Sales and Inventory based B2C, ICT technology in connecting between sellers with buyers in the search process goods, manages the sale of goods, the management of the goods to the reporting process. Key words: Sales, Inventory, CRM, Data Collecting, CRM Analysis, Structured Methodology. SI- 131 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 kumpulan objek yang disebut entitas dan hubungan yang terjadi diantaranya yang disebut relasi [1]. PENDAHULUAN Pasar merupakan pusat perbelanjaan barang manufaktur yang bervariasi, mulai dari pakaian bayi, anak-anak hingga dewasa. Pasar memiliki daya tarik akan produk yang dijual dengan harga murah serta kualitas yang cukup baik. Tidak semua pembeli mau datang ke pasar, seperti kendala tempat yang jauh, sulitnya mencari letak kios yang menjual barang tertentu. Dari sisi penjual, adanya kesulitan memasarkan produk yang dijual, proses pencatatan transaksi penjualan masih dilakukan secara manual dan terdapat ketidakcocokan antara barang di gudang dengan data yang dimiliki. Customer Relationship Management (CRM) adalah salah satu bentuk aplikasi Teknologi Informasi dalam departemen penjualan di sebuah perusahaan. Sistem Informasi Penjualan Online dan Inventori merupakan salah satu bentuk pemanfaatan teknologi informasi yang dapat diimplementasikan untuk mengatasi permasalahan di atas. Tujuan dari penelitian ini adalah bagaimana menghubungkan penjual dengan pembeli melalui teknologi ICT dalam proses pencarian barang, mengelola transaksi penjualan barang, proses pengelolaan barang hingga proses pelaporan. Customer Relationship Management (CRM) Customer Relationship Management (CRM) dapat didefinisikan sebagai sebuah pengelolaan hubungan dua arah antara suatu perusahaan dengan orang yang menjadi pelanggan di perusahaan tersebut. CRM dalam perkembangannya juga dapat didefinisikan sebagai sebuah istilah industri TI untuk metodologi, strategi, perangkat lunak dan atau aplikasi lain yang mampu membantu sebuah perusahaan untuk mengelola hubungan dengan para pelanggan. [6] Inventori Menurut Koher,Eric L.A. Inventori adalah : "Bahan baku dan penolong, barang jadi dan barang dalam proses produksi dana barangbarang yang tersedia, yang dimiliki dalam perjalanan dalam tempat penyimpanan atau konsinyasikan kepada pihak lain pada akhir periode". Inventori meliputi semua barang yang dimiliki perusahaan pada saat tertentu, dengan tujuan untuk dijual kembali atau dikomsumsikan dalam siklus operasi normal perusahaan sebagai barang yang dimiliki untuk dijual atau diasumsikan untuk dimasa yang akan datang, semua barang yang berwujud dapat disebut sebagai inventori, tergantung dari sifat dan jenis usaha perusahaan. [3] TINJAUAN PUSTAKA Data Flow Diagram (DFD) DFD merupakan suatu gambaran grafis dari suatu sistem yang menggambarkan sejumlah bentuk simbol untuk menggambarkan bagaimana data mengalir melalui suatu proses yang saling berkaitan. Diagram ini menekankan pada proses alir data yang terjadi. DFD terdiri dari empat simbol, yaitu : Entitas eksternal, proses, aliran data, serta penyimpanan data. Simbol-simbol ini digunakan untuk elemen elemen lingkungan yang terhubung dengan sistem [1]. Entity Relationship Diagram (ERD) Entity Relationship Diagram (ERD) adalah diagram yang menggambarkan keterhubungan antara data secara konseptual. Penggambaran keterhubungan antara data ini didasarkan pada anggapan bahwa dunia nyata terdiri dari Ada 3 (tiga) prinsip dasar inventori: 1. Kapan barang harus ada. Target yang harus dicapai adalah lakukan order pada waktu yang tepat [3]. 2. Berapa jumlah yang harus ada. Target yang harus dicapai adalah mengadakan stok dengan quality optimal. Perhitungan yang tepat yang menyangkut pola dan perilaku barang dan pelanggan serta program kerja yang akan dicapai menjadi alat utama untuk memastikan bahwa stok yang akan diadakan adalah optimal. 3. Dimana barang yang akan diadakan. Target yang harus dicapai adalah bagaimana stok disimpan ditempat yang strategis. Penyimpanan stok ditempat yang jauh dari target pelanggan akan menyebabkan masa tunggu dan masa kirim (lead time) menjadi lebih lama. SI- 132 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Penjualan Penjualan adalah merupakan total jumlah yang dibebankan kepada pelanggan atas barang dagangan yang dijual perusahaan, baik yang dijual tunai maupun kredit. Total seharusnya tidak termasuk pajak penjualan, dimana perusahaan diharuskan memungut dari pelanggan (pembeli) dan nama Negara. [5] Pemodelan E-commerce E-commerce atau Electronic Commerce merupakan suatu sistem atau paradigmabaru dalam dunia bisnis, yang menggeser paradigma tradisional commerce menjadi electronic commerce yaitu dengan memanfaatkan ICT (Information and CommunicationTechnology) atau dengan kata lain teknologi Internet. Definisi E-commerce secara umum dapat diartikan : “proses membeli, menjual, baik dalam bentuk barang, jasa ataupun informasi, yang dilakukan melalui media internet” (disarikan dari berbagai sumber). Menurut Stefan Probst (Opticom), definisi e-commerce adalah “ business yang dilakukan secara electronic yang melibatkan aktivitasaktivitas bisnis berupa business to business ataupun business to consumen melaului teknologi Internet” Secara umum e-business tidak hanya ditujukan atau melibatkan proses selling dan buying saja, akan tetapi dapat juga meliputi online services, consumen relationship management (CRM), supply chain management, kolaborasi business partners, electronic transaction dan electronic payment. Dan jika dilihat dari aktivitasnya dapat berlangsung dengan melibatkan antar konsumen ataupun antar pelaku business [4]. METODE Metode penelitian yang digunakan terbagi dalam 3 (tiga) aktifitas utama, yaitu: Data Collection Methodology, CRM Analysis, dan Structured Methodology. Gambar 1 Framework Penelitian [2] HASIL DAN PEMBAHASAN Analisa Sistem Berjalan Pasar terdiri dari X kios yang menjual berbagai macam barang. Sistem penjualan barang masih berjalan secara sederhana dimana antara penjual dan calon pembeli harus saling bertemu. Calon pembeli juga harus mencari terlebih dahulu kios atau penjual mana yang menjual barang yang dicari. Disisi penjual, sistem inventori barang masih dilakukan dengan sederhana, dimana keluar masuk barang dicatat dalam buku. Proses pencatatan barang keluar maupun masuk sering terabaikan dan kondisi ini yang mengakibatkan adanya perbedaan jumlah stok barang di gudang dengan catatan yang ada. Kesulitan memasarkan barang yang dijual, SI-133 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember proses pencatatan transaksi penjualan masih dilakukan secara manual juga merupakan kondisi yang harus dihadapi oleh penjual. ISSN : 2302-7088 IMPLEMENTASI SISTEM Pembeli Analisa Sistem Usulan Sistem yang diusulkan untuk mengatasi permasalahan diatas yaitu dengan mengimplementasikan CRM dalam rancang bangun Sistem Informasi Penjualan Online dan Inventori memanfaatkan e-commerce framework, dengan model e-commerce Business to Customer (B2C). Terdapat dua fungsionalitas utama, yaitu penjualan dan inventori. Analisa terhadap pengguna sistem ini adalah penjual (pemilik masing-masing kios) dan pembeli. Penjual dan pembeli akan menjadi sumber dan/atau tujuan data dalam perancangan Data Flow Diagram (DFD). Dalam Model B2C, penjual dan pembeli akan saling berinteraksi melalui teknologi ICT dalam proses pencarian barang, proses transaksi penjualan barang. Di sisi inventori barang, proses pengelolaan barang yang dilakukan oleh pihak penjual mencakup proses memasukkan data barang, proses, proses memperbarui data barang. dt_login dt_reg dt_customer dt_order dt_produk dt_customer dt_order dt_produk dt_status_order dt_validasi Sistem Informasi Penjualan Online dan Inventori Berbasis B2C dt_produk dt_customer dt_order dt_status_order dt_lap_penjualan dt_customer dt_order dt_produk dt_status_order Penjual Gambar 3 Diagram Konteks Dalam diagram konteks, terdapat 2 (dua) entitas yaitu penjual dan pembeli yang saling terhubung melalui Sistem Informasi Penjualan Online dan Inventori. Gambar 2 Framework e-commerce [4] SI-134 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Gambar 4 DFD Level 1 Dalam DFD level 1, terdapat 5 (lima) proses besar yang menjelaskan lebih detil akan fungsionalitas yang diusulkan dalam rancang bangun Sistem Informasi Penjualan Online dan Inventori berbasis B2C. Pembeli dimungkinkan untuk dapat melakukan proses pencarian barang yang ingin dibeli, tanpa harus datang langsung ke pasar maupun melakukan pencarian lokasi kios yang menjual barang tersebut; dapat melakukan proses order terhadap barang yang diinginkan. Penjual dimungkinkan untuk melakukan proses pengelolaan barang dan mengelola proses order sebagai bagian dari fungsionalitas penjualan. Gambar 5 Implementasi ERD [1] Pengujian yang dilakukan pada penelitian ini menggunakan metode pengujian blackbox. Pengujian ini dilakukan dengan cara menguji aplikasi dari segi fungsionalitas. Keterangan berhasil pada pengujian perangkat lunak menjelaskan bahwa fungsionalitas dapat berjalan sesuai dengan perancangan DFD yang telah dilakukan sebelumnya. Tabel 1 Pengujian Perangkat Lunak No 1 2 3 4 5 6 7 SI-135 Fungsionalitas Perangkat Lunak Pengolahan data pembeli Pengolahan data order Pengolahan data penjual Pengolahan data hubungi kami View status order Pembeli melakukanorder Penjual Melalukan pengoalahan order Keterangan Berhasil Berhasil Berhasil Berhasil Berhasil Berhasil Berhasil Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember KESIMPULAN Penelitian yang dilakukan dapat diambil kesimpulan yaitu terbentuknya sebuah desain Sistem Informasi Penjualan Online dan Inventori berbasis B2C yang menggunakan teknologi ICT dalam menghubungkan antara penjual dengan pembeli dalam proses pencarian barang, mengelola transaksi penjualan barang, proses pengelolaan barang hingga proses pelaporan. DAFTAR PUSTAKA ISSN : 2302-7088 [2] Turban, Efraim., Decision Support Systems and Intelligent Systems. Jakarta : Andi, 2003. [3] Indonesia, Logistik., Inventory. http://logistikindonesia.inventory.com. [Online] 07 2010. [4] Ade Hendra Putra, Dkk., APLIKASI ECOMMERCE. Bandung : Politeknik Telkom, 2009. [5] Henry, S.E, M.SI., Laporan Keuangan. Jakarta : Kencana, 2009. [6] Danardatu, Aloysius Heru., "Pengenalan Customer Relationship Management (CRM)." Jakarta : IlmuKomputer, 2003. [1] Nugroho, Eddy Prasetyo dan Ratnasari, Komala., Rekayasa Perangkat Lunak. Bandung : Politeknik Telkom, 2009. SI-136 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember SI-007 (not yet) SI-206 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 PENGEMBANGAN PENDEKATAN MULTIPLE MINIMUM SUPPORT UNTUK MENGGALI FREQUENT CLOSED ITEMSET *Endah Purwanti, **Eva Hariyanti Program Studi Sistem Informasi, Fakultas Sains dan Teknologi, Universitas Airlangga Kampus C Unair Jl. Mulyosari Surabaya 60115 E-Mail: *[email protected], **[email protected] Abstrak Frequent closed itemsets merupakan himpunan itemset yang berperan dalam proses penggalian rule pada association rule mining. Penggalian frequent pattern seringkali menghasilkan sejumlah besar frequent itemsets dan rule, sehingga mengurangi efisiensi dan keefektifan dari proses mining karena user harus menyaring sejumlah besar rule hasil penggalian untuk menemukan rule yang penting. Oleh karena itu proses penggalian dapat diwakili hanya pada frequent closed itemsets. Penggunaan multiple minimum support bertujuan untuk menampung adanya perbedaan sifat dan frekuensi yang ada pada tiap item. Pada penelitian ini digunakan pengembangan pendekatan multiple minimum support untuk menggali frequent closed itemset. Multiple minimum support dihitung dengan memperhatikan nilai ‘support difference’ (SD). Pendekatan ini dilakukan agar item yang jarang bisa ikut tergali sebagai frequent itemset. Algoritma yang dikembangkan menggunakan struktur Multiple Item Support Tree (MIS-tree) untuk menyimpan pola yang ringkas dan penting tentang frequent pattern. Uji coba dilakukan pada tiga buah dataset, dengan memberikan nilai yang berbeda-beda pada parameter α yaitu 0.9, 0.5, dan 0.25, λ diisi dengan nilai rata-rata. Variasi nilai α menyebabkan nilai MIS juga bervariasi. Hasil uji coba menunjukkan bahwa frequent closed itemsets yang berhasil digali jumlah menurun selaras dengan meningkatnya nilai MIS. Kata kunci: datamining, association rule, frequent closed itemsets, multiple minimum support. Abstract Frequent closed itemset is an itemset set the play in the process of extracting the association rule mining rule. Mining frequent pattern often produces a large number of frequent itemsets and rules, thereby reducing the efficiency and effectiveness of the mining process because the user have a large number of rules. Therefore the mining process can be represented only on frequent closed itemsets. The use of multiple minimum support aims to accommodate the differences in the nature and frequency for each item. This paper used multiple minimum support development approach to explore frequent closed itemset. Multiple minimum support is calculated by taking into account the value of 'support difference’ (SD). This approach is a rare item that can come as a frequent itemset mined. The algorithm was developed using Multiple Item Support Tree structure (MIS-tree) to store a concise and important pattern of frequent patterns. Tests carried out on three datasets, by giving different values to the parameter α. The trial results showed that the frequent closed itemsets unearthed decreasing amount in line with the rising value of SD. Key word: datamining, association rule, frequent closed itemsets, multiple minimum support. SI-207 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 menyebabkan kesulitan bagi pengambil keputusan untuk memahami pola yang ada yang dihasilkan dari datamining. Untuk menyelesaikan masalah tersebut, [3] telah mengembangkan model association rule yang memperbolehkan user untuk menggunakan multiple minimum support. Multiple minimum support digunakan untuk menggambarkan sifat dasar dan frekuensi yang berbeda dari item-item yang ada. Pendekatan yang digunakan disebut dengan Multiple Support Apriori (MSApriori). Ternyata MSApriori masih belum bisa menangani ‘rule missing’ dan ‘rule explosion’. Jika nilai α tinggi, nilai MIS untuk item jarang secara relatif akan lebih mendekati nilai supportnya dibandingkan dengan frequent item. Akibatnya, itemset yang berisi item jarang akan gagal memenuhi nilai support. Sehingga himpunan frequent yang berisi item jarang akan terlewatkan. Selanjutnya apabila nilai α rendah, akan menyebabkan frequent item berasosiasi dengan semua item, akibatnya akan menghasilkan himpunan frequent item yang banyak. Pada penelitian ini akan dilakukan pengembangan pendekatan untuk menemukan multiple minimum support, yaitu dengan menggunakan notasi ‘support difference’ (SD) yang diusulkan oleh [8]. Nilai SD memastikan perbedaan konstan antara item support dan nilai minsup untuk setiap item. ukan penggalian frequent closed itemsets dengan menggunakan multiple minimum support. Penggalian akan dilakukan dengan menggunakan struktur Multiple Item Support Tree (MIS-Tree) dan algoritma CLOSET [4]. MIS-tree merupakan struktur pohon yang dikembangkan serupa dengan struktur FP-tree untuk menyimpan informasi yang ringkas dan penting mengenai frequent pattern. Algoritma CLOSET merupakan algoritma untuk menggali frequent closed itemsets, namun dengan menggunakan single minimum support. PENDAHULUAN Datamining merupakan proses penggalian pola yang penting dan tersembunyi dari data yang sangat besar. Salah satu topik penting dalam datamining adalah association rule mining. Association rule mining [1] digunakan untuk menemukan relasi antar item yang ada pada database transaksi. Sejak association rule mining dikenalkan, telah banyak penelitian yang dilakukan untuk menemukan metode yang efektif untuk melakukan penggalian frequent itemset. Telah diakui bahwa penggalian frequent pattern memegang peranan penting pada proses association rule mining. Frequent pattern mining seringkali menghasilkan sejumlah besar frequent itemsets dan rule, yang mengurangi tidak hanya efisiensi namun juga keefektifan dari proses mining karena user harus menyaring sejumlah besar rule hasil penggalian untuk menemukan rule yang penting. Pasquier dkk [2] telah melakukan penelitian dan menyatakan bahwa sebagai ganti mining complete set dari frequent itemset, association rule mining hanya perlu untuk menemukan frequent closed itemsets. Penggalian hanya pada frequent closed itemsets mampu mengurangi jumlah rule yang redundan yang dihasilkan dan menaikkan efisiensi dan keefektifan dari proses mining itu sendiri. Elemen kunci yang membuat association rule mining dapat dijalankan adalah minimum support (minsup). Minsup digunakan untuk memangkas atau memperkecil ruang pencarian frequent itemsets dan juga untuk membatasi jumlah rule yang akan dihasilkan. Menggunakan single minsup secara implisit mengasumsikan bahwa semua item pada database memiliki sifat dan frekuensi yang sama. Padahal tidak demikian pada kenyataannya. Pada basis data retail, biasanya item yang berhubungan dengan keperluan sehari-hari, barang konsumsi dan barangbarang dengan harga rendah akan dibeli lebih sering daripada barang mewah atau barang dengan harga mahal. Pada situasi tersebut, jika minsup yang digunakan terlalu tinggi, semua pola yang ditemukan akan berhubungan dengan barang-barang harga murah. Padahal barang tersebut hanya memberikan keuntungan sedikit. Namun jika minsup yang diberikan telalu rendah, maka rule yang dihasilkan akan sangat banyak, yang mungkin saja banyak yang tidak berguna. Dan akan Association Rule Mining Sebuah transaksi I={i1,i2,i3,…,id} adalah himpunan item yang ditransaksikan dan T={t1,t2,t3,…,tn} adalah himpunan transaksi. Setiap transaksi ti terdiri dari item yang merupakan subset dari I. Sebuah itemset X adalah himpunan bagian tidak kosong dari I. Support dari sebuah itemset X, disimbolkan dengan sup(X), adalah jumlah transaksi yang SI-208 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember nilai MIS yang berbeda untuk item-item yang berbeda. Dengan memberikan nilai MIS yang berbeda untuk setiap item, maka hal tersebut akan merefleksikan sifat alamiah dari item itu sendiri dan mengakomodasikan adanya variasi frekuensi dalam database. MIS-tree [5] adalah pengembangan dari struktur FP-tree, merupakan struktur pohon yang digunakan untuk menyimpan frequent item dengan multiple minimum support mengandung itemset X. Association rule R: X Y adalah implikasi antara dua itemset X dan Y dimana X, Y ⊂ I dan X I Y=Ø. Nilai support dari rule disebut dengan sup(X Y), didefinisikan sebagai sup(X ∪ Y). Confidence dari rule, disebut dengan conf(X Y), didefinisikan sebagai sup( X ∪ Y ) . Untuk sup( X ) menemukan association rule dari sebuah transaksi, diperlukan nilai batasan yaitu minimum support (minsup) dan minimum confidence (minconf). Multiple Item Support Misalkan I={a1, a2, ..., am} adalah himpunan item dan MIS(ai) menunjukkan nilai MIS untuk item ai. Maka nilai MIS dari itemset A={a1, a2, ..., ak} (1≤k≤m) adalah: min[MIS(a1), MIS(a2), ..., MIS(ak)]. [5] Frequent Closed Itemset Menurut Liu et al [3], sebuah itemset Y adalah closed itemsets jika Y adalah frequent dan tidak terdapat superset langsung Y’ ⊃ Y sedemikian hingga sup(Y’)=sup(Y). Frequent itemsets sendiri adalah itemsets yang nilai support-nya lebih besar atau sama dengan minsup yang telah ditentukan. Misalkan diketahui sebuah transaksi I={i1,i2,i3,…,id} adalah himpunan item yang ditransaksikan dan T={t1,t2,t3,…,tn} adalah himpunan transaksi. Setiap transaksi ti terdiri dari item yang merupakan subset dari I. Sebuah itemset X adalah himpunan bagian tidak kosong dari I. Support dari sebuah itemset X, disimbolkan dengan sup(X), adalah jumlah transaksi yang mengandung itemset X. Sebuah itemset Y adalah closed itemset jika Y adalah frequent itemset dan tidak terdapat superset langsung Y’ ⊃ Y sedemikian hingga sup(Y’)=sup(Y). Frequent closed itemset yang dapat digali dari database transaksi pada Tabel 1 yaitu {f, c, b, fb, cb, cp, fcam, fcamp}. TID 100 200 300 400 500 ISSN : 2302-7088 Contoh 1: Dalam database terdapat item bread, shoes, dan clothes. Dengan nilai MIS yang telah ditentukan sebagai berikut: MIS(bread)=2%, MIS(shoes)=0.1%, dan MIS(clothes)=0.2%. Jika nilai support dari itemset {clothes, bread}=0.15% maka itemset {clothes, bread} adalah infrequent. Karena nilai MIS dari itemset {clothes, bread} = min[MIS(clothes), MIS(bread)]=0.2%, yaitu lebih besar dari 0.15%. Tabel 2. Nilai MIS Tiap Item Item MIS F 4 (80%) C 4 (80%) A 3 (60%) B 3 (60%) G 3 (60%) M 3 (60%) P 2 (40%) D 2 (40%) I 2 (40%) N 2 (40%) Tabel 1. Database Transaksi Item terurut sesuai Item MIS acfmp fcamp acdfmp fcampd abcfgm fcabgm bfi fbi bcnp cbpn Berikut ini langkah-langkah untuk membuat MIS-tree dari data transaksi pada Tabel 1 dengan nilai MIS tiap item pada Tabel 2. Langkah pertama adalah membuat tabel header yang berisi nilai MIS tiap item. Pada MIS-tree, item-item yang infequent tetap dimasukkan dalam tabel header, namun nanti akan dihapus pada proses pruning. Setiap item pada tabel header dihubungkan ke node pada tree yang mempunyai nama yang sama melalui head of node-link. Setelah tabel header terbentuk langkah selanjutnya adalah membuat MIS-Tree Pada model ini, definisi umum dari minimum support diubah. Secara umum nilai minsup adalah sama untuk semua item, namun pada model ini setiap item dalam database dapat memiliki nilai minsup-nya sendirisendiri yang disebut dengan minimum item support (MIS). Artinya user dapat memberikan SI-209 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember root dengan nilai null. Kemudian baca transaksi pertama dari database untuk membuat cabang pertama dari MIS-tree: ((f:1), (c:1), (a:1), (m:1), (p:1)). Transaksi kedua (f, c, a, m, p, d) memiliki prefix yang sama (f, c, a, m, p) dengan jalur yang sudah ada. Sehingga count dari setiap node sepanjang prefix dinaikkan 1 dan sisa item (d) pada transaksi kedua akan dibuatkan node baru sebagai anak dari node p:2. Demikian seterusnya sampai dengan transaksi dalam database habis. Demikian seterusnya sampai dengan transaksi dalam database habis. Karena dalam tabel header masih terdapat item yang tidak frequent, maka diperlukan sebuah proses pemangkasan (pruning). Item yang tidak frequent yaitu {d, i, n} karena nilai support-nya lebih kecil daripada nilai MIS. Struktur pohon juga mengalami penyesuaian karena penghapusan item-item tersebut dari tabel header. Setelah proses pemangkasan, dimungkinkan node-node dari MIS-tree mempunyai nama yang sama, sehingga perlu dilakukan proses penggabungan (merge). Untuk membuat bentuk kompak dilakukan penelusuran pada pohon dan ditemukan bahwa node (m:2) mempunyai dua anak dengan nama yang sama yaitu p. Dilakukan penggabungan dua node tersebut menjadi sebuah node itemname = p, dan count diisi dengan jumlah count dari kedua node tersebut. Bentuk MIS-tree yang lengkap dan kompak bisa dilihat pada Gambar 1. Ide dasar untuk menggali frequent closed itemsets pada algoritma CLOSET adalah dengan menggunakan teknik devide and conquer. Caranya adalah sebagai berikut : Membuat conditional pattern base dan conditional FP-Tree untuk setiap item yang frequent secara bottom up dengan mengacu pada tabel header. Mengulangi proses pada langkah a untuk setiap conditional FP-Tree yang terbentuk sampai dengan FP-Tree kosong atau tinggal memiliki 1 jalur saja. Conditional pattern base harus dibangun untuk semua item yang terdapat pada tabel header. Dari conditional FP-tree yang terbentuk akan ditemukan kandidat frequent closed itemsets. Algoritma penggalian frequent closed itemsets dapat dituliskan seperti berikut ini: ALGORITMA: Frequent Closed Itemsets dengan Multiple minimum support (FCI_MIS) INPUT: 1. database transaksi, 2. nilai MIS untuk setiap item, 3. MIS-tree OUTPUT: himpunan lengkap frequent closed itemsets METODE: Panggil fungsi FCI_MIS(MIS-tree, null) Procedure FCI_MIS(tree, f) { for f anggota tabel header do { bangun proyeksi MIS-tree β dengan prefiks f Update tabel header If tree β ≠null then Get_FCI_MIS(tree β, f, MIS(f)) }} roo t f:4 F 4 C 4 A 3 B 3 G 3 M 3 P 2 c:1 c:3 b:1 b:1 a:3 m:2 p:2 ISSN : 2302-7088 b:1 g:1 Procedure Get_FCI_MIS(tree, f, MIS(f)) { for f anggota header tabel do { buat conditional database dengan prefiks f Update tabel header p:1 If tree β ≠null then { Get_FCI_MIS(tree β, f, MIS(f)) If f.support ≠ f.superset.support and f bukan subset dari frequent closed itemsets yang telah ditemukaan Close=true; }}} m:1 Support Difference Support difference (SD) merujuk pada simpangan yang masih dapat diterima oleh sebuah item dari frekuensi atau supportnya. Gambar 1. MIS-tree Lengkap dan Kompak Algoritma CLOSET SI-210 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Sehingga sebuah itemset dapat dianggap sebagai frequent itemset. Perhitungan minsup untuk setiap item ij (MIS(ij)) dapat dilihat pada persamaan (1). MIS(ij) = S(ij) – SD, jika (S(ij) – SD) < LS = LS , untuk yang lainnya (1) Keterangan: LS = nilai support terendah yang didefinisikan sebelumnya SD = λ(1-α) λ = parameter yang bisa diisi dengan nilai rata-rata, median, atau modus α = parameter yang bernilai antara 0 dan 1 yang ditentukan sendiri oleh user Nilai λ dan α memegang peranan penting dalam mendefinisikan SD. Kedua nilai tersebut dapat disesuaikan dengan sifat statistik dari data. ISSN : 2302-7088 Gambar 2. Grafik Jumlah Frequent Closed Itemsets dengan variasi nilai α Pada ketiga Dataset Hasil uji coba pada Gambar 2 menunjukkan bahwa jumlah frequent closed itemsets yang berhasil digali menurun selaras dengan meningkatnya nilai SD. Ketika nilai α=0.25, nilai MIS pada item jarang menjadi sama dengan LS, sehingga banyak frequent closed itemset yang berhasil digali. Sebaliknya ketika nilai α=0.9, nilai MIS mendekati nilai supportnya sehingga jumlah frequent closed itemsets yang berhasil digali menjadi kecil. Berkurangnya jumlah frequent closed itemsets menunjukkan bahwa penggunaan multiple minimum support mampu menaikkan efisiensi dari proses penggalian aturan asosiasi. Hasil frequent closed itemsets ini akan digunakan dalam proses penggalian aturan asosiasi selanjutnya. HASIL DAN PEMBAHASAN Uji coba dilakukan dengan menggunakan dataset yang biasa digunakan untuk menguji algoritma association rule mining yaitu basis data transaksi yang terdapat secara on-line. Dataset yang digunakan yaitu T1014D100K, Mushroom, dan Gazelle. Masing-masing dataset tersebut memiliki karakteristik yang berbeda. Karakteristik dari dataset-dataset besar ini dituliskan pada Tabel 2. Nilai α yang digunakan dalam uji coba adalah 0.9; 0.5; dan 0.25, sedangkan λ diisi dengan nilai rata-rata. Mula-mula digunakan α kecil (α=0.25), dengan persamaan (1) nilai SD mendekati nilai rata-rata (λ), untuk item jarang nilai MIS akan sama dengan LS. Hal ini dilakukan dengan harapan item jarang akan masuk dalam frequent itemsets. Pada α=0.9, nilai SD menjadi kecil sekali, sehingga MIS mendekati nilai support. Hal ini menyebabkan item jarang tidak akan berhasil masuk sebagai frequent itemset. Hasil penggalian frequent closed itemset dapat dilihat pada Gambar 2. KESIMPULAN Pada penelitian ini digunakan pengembangan pendekatan multiple minimum support untuk menggali frequent closed itemset. Multiple minimum support dihitung dengan memperhatikan nilai ‘support difference’ (SD). Pendekatan ini dilakukan agar item yang jarang bisa ikut tergali sebagai frequent itemset. Algoritma yang dikembangkan menggunakan struktur Multiple Item Support Tree (MIS-tree) untuk menyimpan pola yang ringkas dan penting tentang frequent pattern. Pada uji coba dipilih nilai α 0.9; 0.5; dan 0.25. Nilai ini dipilih untuk memberikan variasi pada nilai MIS, untuk α kecil, nilai MIS pada item jarang menjadi sama dengan LS. Sebaliknya pada α besar nilai MIS akan mendekati nilai supportnya. Hasil uji coba menunjukkan bahwa frequent closed itemsets yang berhasil digali jumlah meningkat selaras dengan menurunnya nilai MIS. Tabel 2. Karakteristik Dataset Dataset # Tuples # Item Mushroom 8124 120 Gazelle 59601 498 T1014D100k 100k 433329169 SI-211 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Untuk pengembangan lebih lanjut dari penelitian ini dapat dititikberatkan pada pemberian nilai LS (Low Support) dengan menggunakan suatu formula tertentu yang mampu mengakomodasi kepentingan itemitem yang jarang. SUMBER PUSTAKA [1] Agrawal, R., Imielinski, T., and Swami, A. (1993), “Mining association rules between sets of items in large databases”, In Proc. 1993 ACM-SIGMOD Int. Conf. Management of Data (SIGMOD’93), Washington, DC, pp. 207–216. [2] Han, J., Pei, J.dan Yin, Y., (2000), ”Mining Frequent Pattern Without Candidate Generation”, In Proc. 2000 ACM-SIGMOD Int. Conf. Management of Data (SIGMOD’00), Dallas, TX. [3] Liu, B., Hsu, W. dan Ma, Y., (1999)”Mining Association Rules with Multiple minimum support”, Proceedings of the ACM SIGKDD In. Conf. on Knowledge Discovery and Data Mining (KDD-99), San Diego, CA, USA. [4] Pasquier, N., Bastide, Y., Taouil, R., dan Lakhal, L., (1999), ” Discovering Frequent Closed Itemsets for association Rules”, In Proc. 7th Int. Conf. Database Theory (ICDT’99), pages 398-416, Jerusalem, Israel. ISSN : 2302-7088 [5] Pei, J., Han, J., Mao, R., (2000), "CLOSET: An efficient algorithm for mining frequent closed itemsets", Proceedings of the 2000 ACM SIGMOD Workshop on Research Issues in Data Mining and Knowledge Discovery, Dallas, Texas. [6] Purwanti, E., Arif, D., (2009) “Penggalian Frequent Closed Itemsets dengan Menggunakan Multiple Minimum Suppot”, Proceeding Seminar Nasional Pascasarjana ITS 2009, Surabaya. [7] Tan, P., Steinbach, M., Kumar, V.(2006), “Introduction to Data Mining”, Pearson Education, Boston. [8] Kiran U., Krishna R, (2009), “An Improved Multiple minimum support Based Approach to Mine Rare Association Rules”, Computational Intelligence and Data Mining, CIDM ’09, pages 340-347 [9] Wang, J. , Han, J., Pei J., (2003), “CLOSET+: Searching for Best Strategies for Mining Frequent Closed Itemset”, Proceedings of the 9th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD'03), Washington, D.C., USA, hal 236-345. [10] Ya-Han Hu, Yen-Liang Chen, (2006), “ Mining Association Rules with Multiple minimum supports: a New Mining Algorithm and a Support Tuning Mechanism ”, Decision Support Systems, Volume 42, Issue 1, Pages 1-24. SI-212 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 PEMANFAATAN TOGAF ADM UNTUKPERANCANGAN ARSITEKTUR E-GOVERNMENT BANGKALAN PADA DINAS PERINDUSTRIAN & PERDAGANGAN Norman, Yeni Kustiyahningsih, M. Kautsar Sophan Jurusan teknik Informatika, Fakutas Teknik, Universitas Trunojoyo Jl. Raya Telang PO. BOX 2 Kamal, Bangkalan, Madura, 691962 Abstrak Penyusunan E-Government padaDinas Perindustrian & Perdagangan (DISPERINDAG) Kabupaten Bangkalan dibuat untuk meningkatkan kualitas pelayanandan membantu proses kinerja dari dinas tersebut.Salah satu faktor pendorong pemanfaatan sistem informasi yang lebih baik adalah semakin meningkatnya kebutuhan fungsi pelayanan yang dijalankan. Tujuan dari penerapan Arsitektur Enterprise adalah menciptakan keselarasan antara bisnis dan teknologi informasi bagi kebutuhan instansi, penerapan arsitektur enterprise tidak terlepas dari bagaimana sebuah instansi merencanakan dan merancang arsitektur enterprise tersebut. TOGAF ADM merupakan metodologi yang lengkap, banyak instansi yang tidak memahami secara jelas tentang tahapan - tahapan dari metodologi tersebut diterjemahkan ke dalam aktivitas perancangan Arsitektur Enterprise. Tahapan dalam perancangan Arsitektur Enterprise sangatlah penting dan akan berlanjut pada tahapan berikutnya yaitu rencana implementasi. TOGAF ADM memiliki empat komponen utama: arsitektur bisnis, arsitektur data, arsitektur teknologi dan arsitektur aplikasi. Pada intinya TOGAF digunakan untuk membuat Arsitektur Enterprise dari semua aspek tersebut yang menghasilkan model dan kerangka dasar dalam mengembangkan sistem informasi yang terintegrasi untuk mendukung kebutuhan Dinas Perindustrian & Perdagangan sesuai dengan Peraturan Bupati Bangkalan Nomor 38 Tahun 2010 Tentang Uraian Tugas Jabatan Struktural pada Dinas Perindustrian dan Perdagangan. Kata Kunci: Arsitektur Enterprise, Togaf ADM, Disperindag Abstract Preparation of the E-Government on Dinas Perindustrian dan Perdagangan (Disperindag) Bangkalan made to improve the quality of service and assist in the performance of the agency. One factor driving the use of better information systems is the increasing needs of the service functionis executed. The purpose of the application of Enterprise Architectureis to create harmony between business and information technology for the needs of agencies, the application of enterprise architecture is inseparable from howan agency's plan and design the enterprise architecture. TOGAFADM is a comprehensive methodology, many agencies that do not understand clearly about the stage-the stage of the methodology are translated into the design of an Enterprise Architecture activities. Stagesin Enterprise Architecturedesignis very important and will continue at the nextstage of the implementation plan. TOGAFADM has fourmain components: business architecture, data architecture, technology architecture and application architecture. At the core TOGAF Enterprise Architecture is used to make all aspect soft here sulting model and the basic framework in developing integrated information systems to support the needs of Dinas Perindustrian dan Perdagangan Office in accordance with the decree No. 38 of 2010 Bangkalan On Structural Position Description Duties at the Dinas Perindustrian dan Perdagangan. Keywords: EnterpriseArchitecture, TOGAFADM, Disperindag pemerintah yang bergerak di bidang pelayanan Perindustrian & Perdagangan. Untuk meningkatkan kualitas pelayanan maka perlu adanya sebuah sistem informasi yang mampu PENDAHULUAN Dinas Perindustrian & Perdagangan (DISPERINDAG) merupakan instansi SI-213 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember memonitoring dan membantu proses kinerja dari dinas tersebut. Salah satu faktor pendorong pemanfaatan sistem informasi yang lebih baik adalah semakin meningkatnya kebutuhan fungsi pelayanan yang dijalankan. Dampak dari itu semua banyak SKPD yang berlomba-lomba untuk menerapkan sistem informasi dengan teknologinya dengan hanya memperhatikan kebutuhan sesaat dan memungkinkan penerapan sistem informasi yang saling tumpang tindih dan adanya sub sub sistem yang berbeda satu dengan yang lainya. Kondisi tersebut membuat sistem informasi tidak dapat dimanfaatkan sesuai yang diharapkan, berdasarkan misi dan tujuan penerapan sistem informasi, yaitu efesiensi dan efektifitas dalam pemenuhan kebutuhan dinas tersebut, mulai dari pemenuhan kebutuhan pada level yang tertinggi sampai pada kebutuhan yang paling bawah yaitu operasional. ISSN : 2302-7088 enterprise diantaranya adalah Zachman framework, TOGAF ADM, EAP dan lain – lain. Dalam studi kasus ini akan di bahas bagaimana menggunakan TOGAF ADM dalam merancang arsitektur enterprise, sehingga di dapatkan gambaran yang jelas bagaimana melakukan perancangan arsitektur enterprise untuk mendapatkan arsitektur enterprise yang baik dan biasa di gunakan oleh Dinas Perindustrian & Perdagangan untuk mencapai tujuannya. Keluaran yang dapat di capai dari perancangan arsitektur enterprise tersebut adalah menghasilkan model dan kerangka dasar dalam mengembangkan sistem informasi yang terintegrasi untuk mendukung kebutuhan Dinas Perindustrian & Perdagangan sesuai dengan Peraturan Bupati Bangkalan Nomor 38 Tahun 2010 Tentang Uraian Tugas Jabatan Struktural pada Dinas Perindustrian dan Perdagangan. Salah satu dari penyebab ini semua adalah kurangnya perencanaan dan tanpa memikirkan kunci utama dalam proses pengembangan sistem informasi yaitu perancangan, perancangan sistem informasi yang baik harus melihat dari berbagai macam sudut pandang pengembangan sistem, di mulai dari mendefinisikan arsitektur bisnis yang ada dalam instansi terkait, mendifinisikan arsitektur data yang akan di gunakan, mendifinisikan arsitektur aplikasi yang akan di bangun serta mendefinisikan arsitektur teknologi yang akan mendukung jalanya sistem informasi tersebut. STUDI PUSTAKA 1. Penelitian sebelumnya yang pertama : disusun oleh Roni Yunis, Kridanto Surendro, tahun 2009 dengan judul : ”PERANCANGAN MODEL ENTERPRISE ARCHITECTURE (EA) DENGAN TOGAF ARCHITECTURE DEVELOPMENT METHOD “Dalam penelitian ini di lakukan perancangan arsitektur enterprise yang di buat berdasarkan pada tahapan perancangan informasi strategis dan integrasi system dan memakai metode Togaf ADM. Perancangan arsitektur enterprise ini memberikan hasil berupa Blueprint atau cetak biru teknologi informasi yang terdiri dari fungsi aplikasi dan relasi, interaksi model dan proses model sebagai pedoman untuk perancangan teknologi informasi. Di samping itu penelitian ini juga memberikan hasil berupa roadmap perencanaan arsitektur enterprise untuk mencapai visi dan misi organisasi khususnya pada perguruan tinggi negeri. [1] 2. Penelitian yang kedua oleh Roni Yunis, Kridanto Surendro tahun 2010 dengan judul : “Implementasi Enterprise Architecture Perguruan Tinggi ” Dalam penelitian ini Implementasi EA untuk PT memerlukan perencanaan yang matang dan harus disusun secara integrasi, tidak hanya Keselarasan penerapan sistem informasi dengan kebutuhan DISPERINDAG hanya mampu dijawab dengan memperhatikan faktor integrasi di dalam pengembangnya, tujuan integrasi yang sebenarnya adalah untuk mengurangi kesenjangan yang terjadi dalam proses pengembangan sistem. Untuk menghilangkan kesenjangan tersebut, maka diperlukan sebuah paradigma dalam merencanakan, merancang, dan mengelola sistem informasi yang disebut dengan Arsitektur Enterprise. Arsitektur enterprise adalah sebuah pendekatan logis, komprehensif, dan holistic untuk merancang dan mengimplementasikan sistem dan komponen secara bersamaan. Berbagai macam dan metode yang biasa digunakan dalam perancangan arsitektur SI-214 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Teknologi Telkom, Yogyakarta, 20 Juni 2009 yang berjudul: “Pemilihan EA Framework “. Dalam penelitian ini membahas tentang melakukan pemilihan EA Framework berdasarkan 3 acuan yaitu: a. Tujuan dari EA dengan melihat bagaimana definisi arsitektur dan pemahamannya, proses arsitektur yang telah ditentukan sehingga mudah untuk diikuti, dukungan terhadap evolusi arsitektur b. Input untuk aktivitas EA seperti pendorong bisnis dan input teknologi c. Output dari aktivitas EA seperti model bisnis dan desain transisional utnuk evolusi dan perubahan. Dan hasil akhir dari penelitian ini adalah memilih Togaf ADM sebagai metode yang cocok dan jelas dalam permasalahan EA Framework. [4] terfokus pada arsitektur aplikasi dan teknologi saja, tetapi juga harus menyeluruh pada semua domain arsitektur yang ada dalam PT. Selain memperhatikan tantangan dan kendala yang mungkin ada pada saat pengembangan dan implementasi EA tersebut, juga diperlukan perbaikan kualitas dari SDM di bidang TI/SI dalam PT secara berkelanjutan, selain itu faktor eksternal yang mempengaruhi kebijakan PT dalam pengembangan EA juga harus diperhatikan, dengan harapan nantinya akan menghasilkan EA yang berkualitas dan dapat diukur dengan menggunakan metode Togaf ADM dalam perancangan EA tersebut. Untuk penelitian selanjutnya akan merumuskan suatu prinsip dan strategi pengembangan blueprint SI dari perguruan tinggi berdasarkan model EA yang sudah dihasilkan. Hasil penelitian ini, diharapkan dapat dijadikan oleh perguruan tinggi di Indonesia untuk pengembangan SI/TI PT yang terintegrasi. [2] 5. Penelitian Kelima disusun oleh: Roni Yunis, Krisdanto Surendro, Erwin S.Panjaitan dari Jurusan Sistem Informasi STMIK-Mikroskil, Sekolah tehnik elektro dan informatika, institut teknologi Bandung, yang berjudul: “Pemanfaatan TOGAF ADM untuk Perancangan Model Enterprise Architecture” dalam penelitian ini menjelaskan pemanfaatan metode Togaf ADM dalam perancangan model EA dengan alasan karena togaf adm dalam metode yang sangat lengkap dalam menyelesaikan permasalahan EA, pengaplikasian perancangan di aplikasikan kepada perancangan perguruan tinggi. Hasil akhirnya adalah mengharapkan model EA perguruan tinggi yang detil dan lengkap agar kedepannya lagi dapat dikembangkan blue print yang lebih detail. [5] 3. Pada penelitian selanjutnya disusun oleh Iyan Supriyanadari Bakosurtanal, Januari 2010 yang berjudul: “Perencanaan Model Arsitektur Bisnis, Arsitektur Sistem Informasi dan Arsitektur Teknologi Dengan Menggunakan TOGAF: Studi Kasus Bakosurtanal”. Membahas masalah perancangan Enterprise Arsitektur yang cocok untuk bakosurtanal, setelah dianalisis Enterprise architecture framework yang sesuai untuk BAKOSURTANAL adalah TOGAF. Tujuan yang ingin dicapai pada penelitian ini adalah enterprise architecture framework yang paling cocok untuk Bakosurtanal, rekomendasi model arsitektur bisnis, arsitektur sistem informasi, arsitektur teknologi serta solusi – solusi yang terbaik yang harus diterapkan didalam pembuatan blue print. didalam membangun blue print penelitian ini menerapkan suatu arsitektur berbasis service yaitu mengeikuti kerangaka Service Oriented Architecture (SOA), Enterprise Resources Planning (ERP) , Executive dashboard yang digunakan untuk pembailan keputusan bagi pejabat-pejabat structural dan Data Warehouse untuk integrasi data didalam pengembangan EGovernment. [3] 6. Penelitian ke enam, disusun oleh: Roni Yunis, Kridanto Surendro, Erwin S. Panjaitan, dari Jurusan Sistem Informasi, STMIK Mikroskil, Sekolah Teknik Elektro dan Informatika, Institut Teknologi Bandung. Yang berjudul: “ Pengembangan Model Arsitektur Enterprise untuk Perguruan Tinggi”. Penelitian ini membangun sebuah arsitektur enterprise yang nantinya bisa dijadikan oleh organisasi untuk mencapai tujuan strategisnya. Model arsitektur ini dapat dijadikan sebagai model dasar bagi institusi perguruan tinggi didalam pengembangan arsitektur enterprise. Dalam penelitian ini memilih TOGAF ADM sebagai metode 4. Penelitian ke empat disusun oleh: Erwin Budi Setiawan dari Fakultas Sains, Institut SI-215 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember pengembangan EA perguruan tinggi, karena metode ini merupakan metode pengembangan arsitektur enterprise yang bisa disesuaikan dengan kebutuhan, dengan syarat bahwa institusi mempunyai aturan dan prosedur yang jelas tentang proses bisnis untuk mendukung proses pengembangan sistem informasi terintegrasi. Hasil akhir adalah pengembangan EA perguruan tinggi dengan Togaf ADM. [6] 3. 7. Penelitian selanjutnya disusun oleh: Kuswardani Mutyarini, ST., dan Dr. Ir. Jaka Sembiring dari Teknik Elektro ITB Bandung. Dengan judul:” Arsitektur Sistem Informasi untuk Institusi Perguruan Tinggi di Indonesia”. Dalam penelitin ini menentukan perancangan sistem informasi PT di Indonesia yang tepat, penelitian ini menggunakan Togaf ADM melakukan perencanaan Arsitektur Sistem Informasi (SI) organisasi. Sedangkan COBIT (Control Objectives for Information and Related Technology) adalah suatu metodologi yang memberikan kerangka dasar untk menciptakan Teknologi Informasi (TI) yang sesuai dengan kebutuhan organisasi. Dengan menggunakan perpaduan prinsip-prinsip dalam TOGAF ADM dan COBIT dapat dirancang kerangka dasarsistem informasi untuk institusi pendidikan di Indonesia yang sekaligus mampu mengukur perfomansi dari hasilimplementasi kerangka dasar tersebut. [7] 4. 5. 6. METODOLOGI PENELITIAN Metodologi penelitian yang digunakan pada penelitian ini adalah sebagai berikut dan untuk grafik perancangannya dapat dilihat pada Gambar 1: 1. Architecture Vision Dalam Tahap ini Menciptakan keseragaman pandangan mengenai pentingnya arsitektur enterprise untuk mencapai tujuan Disperindag yang dirumuskan dalam bentuk strategi serta menentukan lingkup dari arsitektur yang akan dikembangkanberdasarkan dari tupoksi dari setiap bidang. 2. Business Architecture Mendefinisikan kondisi awal arsitektur bisnis, menentukan model bisnis atau 7. 8. SI-216 ISSN : 2302-7088 aktivitas bisnis yang diinginkan berdasarkan skenario bisnis. Pada tahap ini tools dan metode umum untuk pemodelan seperti: Usecase Diagram, Activity Diagram dan Squence Diagramdapat digunakan untuk membangun model yang diperlukan. Information Sistem Architecture Pada tahapan ini lebih menekankan pada aktivitas bagaimana arsitektur sistem informasi dikembangkan. Pendefinisian arsitektur sistem informasi dalam tahapan ini meliputi arsitektur data dan arsitektur aplikasi yang akan digunakan oleh organisasi. Arsitekur data lebih memfokuskan pada bagaimana data digunakan untuk kebutuhan fungsi bisnis, proses dan layanan. Teknik yang bisa digunakan dengan yaitu: ER-Diagram. Technology Architecture Membangun arsitektur teknologi yang diinginkan, dimulai dari penentuan jenis kandidat teknologi yang diperlukan. Meliputi perangkat lunak dan perangkat keras.Teknik yang digunakan meliputiarsitektur teknologi dan arsitektur jaringan. Opportunities and Solution Pada tahapan ini lebih menekan pada manfaatyang diperoleh dari arsitektur enterprise yang meliputi arsitektur bisnis, arsitektur data,arsitektur aplikasi dan arsitektur teknologi. Migration Planning Pada tahapan ini akan dilakukan penilaian dalam menentukan rencana migrasi dari suatu sistem informasi. Biasanya pada tahapan ini untuk pemodelannya menggunakaan matrik penilaian dan keputusan terhadap kebutuhan utama dan pendukung dalam organisasi terhadap impelemtasi sistem informasi. Implementation Governance Dalam tahap ini , harus diketahui dahulu kelebihan dan kekurangan dari sistem baru yang dibuat,dibawah ini identifikasi kelebihan dan kekurangan dari business proses yang telah dirancang. Arcitecture Change Management Dalam tahap ini dilakukan suatu pengawasan terhadap sistem baik itu dari segi teknologi dan perubahan lingkungan di sekitar sistem, baik internal maupun eksternal, setelah mendapatkan hasil Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember pengawasan dari sistem yang dibuat maka dibuat suatu manajemenarsitektur untuk pengembangan dari sistem yang dibuat dahulu dengan menggunakan metode yang lebih lengkap dan teratur. ISSN : 2302-7088 2. Business Architecture Mendefinisikan kondisi awal arsitektur bisnis, menentukan model bisnis atau aktivitas bisnis yang diinginkan berdasarkan skenario bisnis (dapat dilihat pada tabel 1). Pada tahap ini tools dan metode umum untuk pemodelan seperti: Usecase Diagram, Activity Diagram dan Squence Diagramdapat digunakan untuk membangun model yang diperlukan. Tabel 1. Bisnis Arsitektur No 1 2 3 Business Proses Surat menyurat Inventaris Pelatihan 4 Perindustrian 5 Perlindungan Usaha Konsumen Gambar 1.Architecture development method HASIL DAN PEMBAHASAN Tahapan dari Togaf ADM secara ringkas bisa dijelaskan sebagai berikut dan hal paling penting terletak pada Architecture Visiondan Business Architecturekarena rancangan dasar atau utama dari Togaf ADM. 6 Promosi 7 Stimulasi & Domain Pengguna Semua Domain Semua Domain • Sarana & Produksi Industri • Bina Usaha Industri • Bina Usaha Perdagangan • Perlindungan Usaha & Konsumen • Pelaku Industri • Pelaku Perdagangan • Sarana & Produksi Industri • Bina Usaha Industri • Pelaku Industri • Perlindungan Usaha & Konsumen • Pelaku Industri • Pelaku Perdagangan • Masyarakat • Sarana & Produksi Industri • Pelaku Industri • Pelaku Perdagangan • Masyarakat • Sarana & Produksi Industri • Pelaku Industri KESIMPULAN DAN SARAN 1. Architecture Vision Dalam Tahap ini Menciptakan keseragaman pandangan mengenai pentingnya arsitektur enterprise untuk mencapai tujuan Disperindag yang dirumuskan dalam bentuk strategi serta menentukan lingkup dari arsitektur yang akan dikembangkanberdasarkan dari tupoksi dari setiap bidang yang di dapat dari susunan organisasi (dapat dilihat di gambar 2). 1. Kesimpulan Kesimpulan dari penelitian ini adalah Enterprise Architecture Framework (EAF). Untuk pengembangan kedepan, didalam membangun blue print harus menerapkan suatu arsitektur berbasis obyek yaitu mengikuti kerangka TOGAF ADM yang digunakan untuk pengambilan keputusan bagi pejabat-pejabat struktural, dan Data Warehouse untuk integrasi data didalam pengembangan E-Gov baik data data spasial ataupun non spasial. Rancangan Enterprise Architectureini tunduk pada Peraturan Bupati Bangkalan nomor 38 tahun 2010 tentang Uraian Tugas Jabatan Struktural pada Dinas Perindustrian dan Perdagangan. 2. Saran Dari hasil perancangan business prosess ini, didapati bebarapa kelemahan perancangan yang kedepannya diharapkan dapat Gambar 2. Susunan Organisasi Disperindag SI-217 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember diperbaiki agar dapat berfungsi dengan lebih optimal, yaitu penambahan rancangan bagian keuangan [4] DAFTAR PUSTAKA [1] Yunis, R., Surendro, K. (2009). Perancangan Model Enterprise Architecture dengan TOGAF Architecture Development Method, Prosiding SNATI, ISSN : 1907-5022, (UII, Yogyakarta), E25-E31. [2] Yunis, R., Surendro, K. (2009). Model Enterprise Architecture Untuk Perguruan Tinggi Di Indonesia, Prosiding semnasIF, ISSN : 1979-2328, (UPN “Veteran”, Yogyakarta), E72-E79. [3] Supriyana, Iyan (2010). Perencanaan Model Arsitektur Bisnis, Arsitektur Sistem Informasi Dan Arsitektur Teknologi Dengan Menggunakan TOGAF: Studi Kasus Bakosurtanal, Prosiding Jurnal [5] [6] [7] SI-218 ISSN : 2302-7088 Generic, ISSN: 1907-4093, (Bakosurtanal, Jawa Barat), Vol. 5 No.1. Budi Setiawan, Erwin (2009). Pemilihan Ea Framework, Prosiding SNATI, ISSN: 1907-5022, (Institut Teknologi Telkom, Bandung), B114-B19. Yunis Roni, Surendro Krisdanto, Panjaitan Erwin S. Pemanfaatan TOGAF ADM untuk Perancangan Model Enterprise Architecture. Institut Teknologi Bandung, Bandung. Yunis Roni, Surendro Kridanto, Erwin Panjaitan S.. Pengembangan Model Arsitektur Enterprise untuk Perguruan Tinggi. Institut Teknologi Bandung, Bandung. Kuswardani Mutyarini, ST., dan Dr. Ir. Jaka Sembiring (2006). Arsitektur Sistem Informasi untuk Institusi Perguruan Tinggi di Indonesia. Institut Teknologi Bandung, Bandung. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember SI- 205 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 SISTEM PENDUKUNG KEPUTUSAN PEMILIHAN PENCAHAYAAN INSTALASI MEDIK DENGAN MENGGUNAKAN METODE PAPRICA Riza Alfita Fakultas Teknik Universitas Trunojoyo Madura E-Mail: [email protected] Abstrak Metode PAPRIKA adalah suatu metode yang digunakan untuk sistem pendukung keputusan multi-kriteria (MCDM) atau analisis conjoint berdasarkan preferensi dengan menggunakan peringkat alternatif. Sehingga, hasil dari program tersebut tergantung pada jumlah kriteria dan kategori, jumlah kriteria berpasangan dari semua alternatif yang mungkin berpotensi dijadikan suatu keputusan adalah kriteria yang mempunyai bobot terbesar setelah dihitung menggunakan matrik berpasangan. Pedoman pencahayaan di rumah sakit sudah lama diharapkan, karena pencahayaan merupakan salah satu parameter kesehatan lingkungan rumah sakit yang harus memenuhi persyaratan dan nilai tertentu, dari aplikasi yang telah dirancang maka dapat disimpulkan bahwa program tersebut telah dapat diaplikasikan untuk menghitung besarnya intensitas cahaya yang dibutuhkan di rumah sakit. Pedoman pencahayaan di rumah sakit sudah lama diharapkan, karena pencahayaan merupakan salah satu parameter kesehatan lingkungan rumah sakit yang harus memenuhi persyaratan dan nilai tertentu. Pencahayaan yang kurang dapat mengganggu pelayanan kesehatan di rumah sakit dan dapat menimbulkan gangguan terhadap kesehatan. Kata kunci: PAPRIKA, Multi Criteria Decision Making Abstract PAPRIKA is a method used for decision support system of multi-criteria (MCDM) or conjoint analysis of preference based decision making using alternative ranking. thus, the results of the program depends on the number of criteria and categories, the number of pairs of all the alternative criteria that may potentially be used as a decision criterion is to have the greatest weight as calculated using pairwise matrix. Guidelines for lighting in hospitals has long been expected, because the lighting is one of the health parameters hospital environment must meet certain requirements and value, of the applications that have been designed, it can be concluded that the program has to be applied to calculate the intensity of light needed at hospital. Guidelines for lighting in hospitals has long been expected, because the lighting is one of the health parameters hospital environment must meet certain requirements and values. Less lighting can disrupt health services in hospitals and can cause disruption to health. Key words: PAPRIKA, Multi Criteria, Decision Making CI-206 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 karena tidak terasipkan secara lengkap dan lain-lain), dan hal-hal yang terkait manajemen energi pada bangunan gedung tersebut. Melihat kondisi tersebut, maka diperlukan adanya sistem pendukung keputusan pemilihan pencahayaan yang sesuai dengan kondisi instalasi medik di rumah sakit. PENDAHULUAN Pedoman pencahayaan di rumah sakit sudah lama diharapkan, karena pencahayaan merupakan salah satu parameter kesehatan lingkungan rumah sakit yang harus memenuhi persyaratan dan nilai tertentu Pencahayaan yang kurang dapat mengganggu pelayanan kesehatan di rumah sakit dan dapat menimbulkan gangguan terhadap kesehatan. Kriteria yang terdapat dalam penelitian ini didasarkan atas pertimbangan norma-norma kesehatan lingkungan rumah sakit dan hospital engineering, dengan demikian diharapkan bila kriteria pencahayaan di rumah sakit diterapkan dan dipenuhi oleh pengelola rumah sakit akan dapat memperlancar dan meningkatkan pelayanan rumah sakit dan menambah citra rumah sakit dari segi kualitas lingkungan sebagai tempat yang nyaman, terang dan aman.[1] Pencahayaan di rumah sakit pada umumnya menggunakan sumber listrik yang berasal dari PLN atau pembangkit tenaga listrik yang dimiliki oleh rumah sakit. Sistem pencahayaan harus dipilih dan mudah penggunaannya, efektif, nyaman untuk penglihatan, tidak menghambat kelancaran kegiatan, tidak mengganggu kesehatan terutama dalam ruang-ruang tertentu dan menggunakan energi seminimal mungkin. Indonesia telah memiliki standart audit energi pada bangunan gedung yaitu SNI 036196-2000. Standart prosedur audit energi bangunan gedung memuat prosedur audit energi yang diperuntukkan bagi semua pihak yang terlibat dalam perencanaan, pelaksanaan, pengawasan, dan pengelolaan gedung. Bangunan gedung disini mencakup perkantoran, hotel, pertokoan, rumah sakit, apartemen, dan rumah tinggal. Pada Standart prosedur audit energi bangunan gedung didefinisikan sebagai teknik yang dipakai untuk menghitung besarnya konsumsi energi pada bangunan gedung dan mengenali caracara untuk pengehamatannya. Praktek pelaksanaan dilapangan, banyak sekali bangunan yang tidak siap untuk diaudit, dalam arti tidak menyediakan/sulit menyediakan kelengkapan-kelengkapan data dasar yang dibutuhkan untuk pelaksanaan teknis audit terarsipkan (misalnya karena data instalasi listrik as built drawing tidak ada TUJUAN PENELITIAN Tujuan penelitian ini adalah - Membuat aplikasi sistem pendukung keputusan pencahayaan menggunakan metode PAPRICA. - Membuat aplikasi perhitungan Iluminasi berdasarkan standart Departemen Kesehatan RI dan SNI 03-6196-2000. TINJAUAN PUSTAKA Audit Energi Listrik Standart prosedur audit energi pada bangunan gedung rumah sakit ini dimaksudkan sebagai pedoman bagi semua pihak yang terlibat dalam perencanaan, pelaksanaan, pengawasan dan pengelolaan bangunan gedung rumah sakit dalam rangka peningkatan efisiensi penggunaan energi dan menekan biaya energi tanpa harus mengurangi kualitas kinerjanya. Audit energi bertujuan mengetahui "Potret Penggunaan Energi" dan mencari upaya peningkatan efisiensi penggunaan energi. Pembahasan audit energi meliputi : prosedur audit energi, audit energi awal, audit energi rinci, identifikasi peluang hemat energi, analisis peluang hemat energi, laporan dan rekomendasi.[2] Konsumsi energi listrik disuatu Rumah Sakit harus dipikirkan sejak perencanaan dan merupakan hasil pemikiran dari perencana, pemilik dan pelaksana. Perencanaan sebuah bangunan termasuk konsumsi energi listrik memperhatikan pula perkembangan kebutuhan pada masa yang akan datang. Akibat keterbatasan dana dan aspek sosial yang lain, segala aspek perencanaan tidak dapat dilaksanakan oleh pemilik maupun pelaksana. Tidak sesuainya perencanaan dengan pelaksanaan perlu adanya evaluasi agar dapat menggunakan energi listrik seefisien mungkin sehingga biaya operasional dapat ditekan serendah-rendahnya. Evaluasi pemakaian energi listrik merupakan penelitian secara menyeluruh dari aspek historis dan aspek pengukuran di lapangan mengenai peralatan SI-207 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember dan konsumsi energi listrik yang dikenal dengan audit energi. Audit energi ini dimaksudkan untuk mengetahui tingkat pemakaian energi listrik, sehingga dapat diketahui efisien dan tidaknya konsumen dalam pemakaian energi listrik dan diketahui peluang penghematan yang dapat dilaksanakan. ISSN : 2302-7088 alat bantu bagi para pengambil keputusan untuk memperluas kapabilitas mereka, namun tidak untuk menggantikan penilaian. DSS ditujukan untuk keputusan-keputusan yang memerlukan penilaian atau pada keputusankeputusan yang sama sekali tidak dapat didukung oleh algoritma. Komponen-komponen DSS[3] - Subsistem Manajeman Data Subsistem manajeman data Memasukkan satu database yang berisi data yang relevan untuk situasi dan dikelola oleh perangkat lunak yang disebut sistem manajemen database (DBMS). Subsistem manajemen data dapat diinterkoneksikan dengan data warehouse, suatu data yang relevan untuk pengambil keputusan. Biasanya data disimpan atau diakses via server web database - Subsistem Manajemen Model. Merupakan paket perangkat lunak yang memasukkan model keuangan, statistik, ilmu manajemen atau model kuantitatif lainnya yang memberikan kapabilitas analitik dan manajemen perangkat lunak yang tepat. Bahasa pemodelan untuk membangun model-model kustom yang dimasukkan. Perangkat lunak ini sering disebut sistem manajeman basis model (MBMS) komponen ini dapat dikoneksikan ke penyimpnan yang ada pada model. - Subsistem Antarmuka Pengguna. Pengguna berkomunikasi dengan dan memerintahkan DSS melalui subsistem ini. Pengguna adalah bagian yang dipertimbangkan dari sistem. Para peneliti menegaskan bahwa beberapa kontribusi unik dari DSS berasal dari interaksi yang intensif antara komputer dan pembuat keputusan. - Subsistem Manajemen Berbasis Pengetahuan. Subsistem ini dapat mendukung semua subsistem lain atau bertindak sebagai suatu komponen independent. Ia memberikan intelligensi untuk memperbesar pengetahuan si pengambil keputusan Gambar 1. Bagan Alur Audit Energi dan Implementasi (SNI 03- 6196-2000) Penelitian tentang audit energi yang akan dilaksanakan di Departemen Kesehatan RI dilakukan dengan mengikuti prosedur audit energi Standar Nasional Indonesia (SNI 036196–2000). Parameter IKE (Intensitas Konsumsi Energi) menggunakan Pedoman Pelaksanaan Konservasi Energi dan Pengawasan di lingkungan Departemen Kesehatan RI sebagai tolak ukur tingkat pemakaian energi listrik. Proses audit energi meliputi audit awal, audit rinci, implementasi dan peluang hemat energi. METODE PAPRIKA Decision Support System Definisi DSS menunjukkan DSS sebagai sebuah sistem yang dimaksudkan untuk mendukung para pengambil keputusan manajerial dalam situasi keputusan semi terstruktur. DSS dimaksudkan untuk menjadi Metode paprika adalah suatu metode yang digunakan untuk pengambil keputusan multi kriteria/multicriteria decision making (MCDM) atau analisis conjoint berdasarkan keputusan-keputusan preferensi yang SI-208 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember D E F dinyatakan dengan peringkat berpasangan alternatif. Metode paprika digunakan untuk menghitung nilai pada kriteria atau atribut untuk keputusan yang melibatkan perangkingan, seperti namanya, model nilai aditif multi-atribut dengan kategori kinerja merupakan model yang terdiri dari beberapa kriteria (atau atribut), dengan dua atau lebih kategori atau tingkatan dalam setiap kriteria, yang digabungkan additively. Setiap kategori akan mempunyai nilai yang mencerminkan penting atau tidaknya kriteria nilai-nilai tersebut dijumlahkan terhadap seluruh kriteria untuk mendapatkan skor total. PAPRIKA adalah singkatan dari untuk Potentially All Pairwise Ranking of All Possible Alternatives. Metode PAPRIKA diperlukan untuk model nilai alternatif tertentu peringkat yang diketahui para pengambil keputusan. Oleh karena itu, untuk sebagian besar tujuan praktis pembuat keputusan tidak mungkin mendefinisikan lebih dari dua kriteria, sehingga mengurangi beban elisitasi. Metode PAPRIKA dapat diandalkan dengan jumlah kriteria yang kurang dari 100 dan eksekusi program dapat relatif cepat. 200 500 1000 300 700 1500 500 1000 2000 Sumber : Departemen Kesehatan RI Adapun yang termasuk kategori tersebut adalah : A : Kamar Gelap Spesi B : X Ray, Mamography, Card Ography C : Bed Waiting, Panel listrik, Gudang Film X Ray & Kimia, Moktimany (R. Jenasah) D : Kamar Mandi Jenazah, R. Administrasi E : R. Operative Dentistry, Odotektomy, R, Injeksi F : Minor Surgery, Bedah Forensik Tabel 2. Kriteria dan Sub Kriteria Kriteria Sub Kriteria Intensitas dan Distribusi Baik (3) Cahaya (A) Kurang (2) Lebih (1) Efikasi (B) Baik (3) Kurang (2) Lebih (1) Efisiensi (C) Baik (3) Sedang (2) Jelek (1) Umur Lampu (D) Lama (3) Sedang (2) Singkat (1) Efek Kejelasan Jelas (3) Warna/Rendering (E) Sedang (2) Tidak Jelas (1) PEMBAHASAN Pedoman pencahayaan yang diterapkan dalam penelitian ini harus memperhatikan hal-hal berikut : - Keselamatan pasien dan tenaga medis/paramedis - Peningkatan kecermatan - Kesehatan yang lebih baik - Suasana yang lebih nyaman Pemilihan kriteria yang akan diinputkan dalam metode PAPRIKA adalah sebagai berikut : - Intensitas penerangan dan Distribusi Cahaya - Efikasi - Efisiensi - Umur Lampu - Efek kejelasan warna/Rendering Perhitungan pencahayaan di rumah sakit ini memuat penjelasan dan teori pencahayaan yang disesuaikan dengan bidang kerja. Tabel 1. Daftar Penerangan Karateristik Lux Ruangan Min Diharapkan A 20 30 B 50 75 C 100 150 ISSN : 2302-7088 Gambar 2. Capture Input Jenis Ruang beserta Kategori Pencahayaan Mak. 50 100 200 SI-209 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 KESIMPULAN 1. Aplikasi yang telah dibuat dapat digunakan sebagai sistem pendukung keputusan pemilihan peralatan penerangan yang sesuai dengan standart Departemen Kesehatan RI. 2. Aplikasi tersebut telah dapat diaplikasikan untuk menghitung Illuminasi yang dibutuhkan dalam instalasi medik rumah sakit 3. Metode PAPRIKA dapat digunakan sebagai salah satu metode untuk sistem pendukung keputusan Gambar 3. Capture Jenis Penerangan Gambar 4. Capture Hasil Perhitungan Matrik Berpasangan Dengan Metode PAPRIKA SARAN A3+B3+C3+D3+E3 > A3+B3+C3+D3+E2 > A3+B3+C3+D2+E3 > A3+B3+C2+D3+E3 1. Perlu adanya kajian lebih lanjut mengenai kehandalan metode PAPRIKA 2. Aplikasi yang dibuat perlu ditambahkan kriteria yang lebih spesifik Dari perhitungan perbandaingan matrik pada program diatas maka dapat disimpulkan bahwa sistem penerangan yang dapat digunakan adalah kriteria yang mempunyai nilai terbesar DAFTAR PUSTAKA Use Case [1] Wasisto, Broto. Pedoman Pencahayaan Di Rumah Sakit. Jakarta : Departemen Kesehatan Republik Indonesia. [2] Endro, Herman. Teknik Penghematan Energi Pada Sistem Pencahayaan. Jakarta: Departemen Pendidikan Nasional. 2003. [3] Turban, Efraim. Decision Support System and Intelligent Systems. Yogyakarta : Andi Publisher. 2005 [4] Audit Energi dan Implementasi (SNI 036196-2000) Login Manajemen Data Kriteria Admin Laporan Pimpinan Proyek Manajemen Data Intensitas Cahaya Input Data Dari Flux Meter Hitung Jumlah Armatur Gambar 3. Use Case Diagram SI-210 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 DATA MINING : METODE HARD CLUSTERING STUDI KASUS ANALISA PELANGGAN PERUSAHAAN DAERAH AIR MINUM KOTAMADYA SURABAYA Taufik Departemen Matematika, Fak. Sains dan Teknologi Universitas Airlangga E-mail : [email protected] Abstrak Dunia bisnis yang penuh persaingan membuat para pelakunya harus selalu memikirkan strategi-strategi terobosan yang dapat menjamin kelangsungan bisnis mereka. Salah satu aset utama yang dimiliki oleh perusahaan masa kini adalah data bisnis dalam jumlah yang luar biasa banyak. Ini melahirkan kebutuhan akan adanya teknologi yang dapat memanfaatkannya untuk membangkitkan “pengetahuan-pengetahuan” baru, yang dapat membantu dalam pengaturan strategi bisnis. Teknologi data mining hadir sebagai solusi. Penelitian ini memberikan alternatif pengelompokan data pdam kota Surabaya dengan menerapkan metode Algoritma Clustering, K-Means. Dengan adanya fakta-fakta tersebut maka penelitian ini akan menerapkan rekategori pengelompokkan pelanggan, untuk kelompok pelanggan rumah tangga selain berdasar lebar jalan/kelas jalan juga berdasarkan nilai NJOP, daya listrik dan luas bangunan. Dengan klasifikasi kelompok pelanggan yang baru ini, diharapkan dari sisi keadilan dapat tercapai tepat sasaran. Pengujian yang telah dijalankan menunjukkan bahwa pencapaian algoritma K-mean adalah baik. Dengan Adanya aplikasi ini dapat menyediakan informasi untuk membantu menganalisa karakteristik pelanggan Perusahaan Daerah Air Minum (PDAM) Kota Surabaya. Kata kunci : Data mining, Cluster, K-Means, karakteristik pelanggan Abstract The business world is full of competition makes the perpetrators should always think about breakthrough strategies that can ensure the continuity of their business. One of main assets owned by the company today is a business data in many outstanding quantities. This led to the need for technology that can use it to generate new knowledges, which can help in setting business strategy.Present data mining technology as a solution. This study provides an alternative grouping of data PDAM Surabaya by applying clustering algorithm, K-Means. Given these facts, this study will apply the re -grouping categories of customer, for the customer's household in addition based on road width / road grade is also based on the value of NJOP, electrical power and building area. With the classification of a new group of customers, are expected from the side of justice can be achieved on target. Tests that have been carried out showing that the achievement of K-means algorithm is good. With the existence of this application can provide information to help analyze customer characteristics Regional Water Company (PDAM) Surabaya. Key words: Data mining, Cluster, K-Means, customer characteristics SI-1 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 dan jumlah kran. Bagaimana mendapatkan pola dan pengetahuan dari data-data yang banyak seperti data kuesioner pelanggan pada Perusahaan Daerah Air Minum Kota Surabaya. Perencanaan diskriminasi tarif air diantara kelompok pelanggan Perusahaan Daerah Air Minum Kota Surabaya. Adapun tujuan dari perancangan dan pembuatan data mining ini adalah sebagai berikut : Untuk mengetahui pengelompokan pelanggan Perusahaan Daerah Air Minum Kota Surabaya berdasarkan guna persil, luas tanah, luas bangunan, jumlah lantai bangunan, lebar jalan, daya listrik, NJOP dan jumlah kran dengan menggunakan metode k-means clustering. Untuk mengetahui informasi diskriminasi tarif diantara kelompok pelanggan Perusahaan Daerah Air Minum Kota Surabaya berdasarkan pengelompokan pelanggan yang telah ditentukan. Sedangkan manfaat dari perancangan Data Mining Dengan Metode K-Means Clustering Untuk Menganalisa Karakteristik Pelanggan PDAM Kota Surabaya ini adalah: Membantu organisasi-organisasi khususnya Perusahaan Daerah Air Minum Kota Surabaya untuk mengetahui karakteristik dari pelanggan sehingga dapat menghasilkan informasi diskriminasi tarif air yang berguna. Membantu Perusahaan Daerah Air Minum dalam melakukan pengelompokan (clustering) pelanggan dari data-data kuesioner yang telah terkumpul. Mempermudah kinerja manajer dalam menentukan diskriminasi tarif air Perusahaan Daerah Air Minum Kota Surabaya. PENDAHULUAN Data perkembangan harga air riil (tahun 1983) selama periode 1991 hingga 1999 bergerak tidak continue (rata-rata tumbuh 1.6 persen per tahun) dan mencapai titik terendah pada tahun 1999. Fenomena krisis ekonomi mengakibatkan hampir keseluruhan, 29 dari 37 PDAM tidak menaikkan harga dan menghadapi persoalan keuangan. Dalam posisi ini PDAM Kota Surabaya umumnya tidak punya pilihan untuk berinvestasi dan mengembangkan kegiatannya. Langkah operasional untuk meningkatkan pendapatan adalah dengan mendiskriminasi tarif air terutama di dalam kelompok pelanggan. Diskriminasi tarif air dilakukan berdasarkan guna persil, luas tanah, luas bangunan, jumlah lantai bangunan, lebar jalan, daya listrik, NJOP (Nilai Jual Objek Pajak) dan jumlah kran. Diskriminasi tarif ini dimaksudkan untuk memperbaiki krisis ekonomi yang sedang dialami PDAM Kota Surabaya. Kondisi ini melahirkan kebutuhan akan adanya teknologi yang dapat memanfaatkan data pelanggan yang luar biasa banyak untuk membangkitkan informasi-informasi baru yang berguna seperti informasi diskriminasi tarif air pada pelanggan PDAM Kota Surabaya. Teknologi data mining dan metode kmeans clustering merupakan solusi yang tepat. Metode k-means clustering merupakan solusi yang tepat bagi permasalahan diatas, karena metode kmeans clustering memiliki akurasi estimasi jumlah kelompok yang lebih baik dibandingkan metode yang lainnya. Mengacu kepada latar belakang masalah diatas maka rumusan masalah dapat dijabarkan sebagai berikut : Bagaimana pengelompokan pelanggan berdasarkan guna persil, luas tanah, luas bangunan, jumlah lantai bangunan, lebar jalan, daya listrik, NJOP MATERI DAN METODE Data Mining SI-1 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Data mining adalah suatu teknik yang terotomasi dan mudah digunakan untuk mendapatkan pola dan pengetahuan dari data-data yang banyak seperti dari database yang besar, gudang data suatu perusahaan, atau tempat-tempat penyimpanan data yang lainnya. Tanpa data mining, kita hanya akan mempunyai sekumpulan/segudang data yang sangat banyak namun tidak tahu data tersebut harus diapakan. Kita tidak tahu bagaimana cara menganalisis data tersebut, baik karena banyaknya data tersebut maupun karena kompleksnya data tersebut. Bila tidak diolah, akan tercipta suatu kondisi yang disebut “Data rich but information poor” dan orangorang biasa menyebut databasenya sebagai “kuburan data”. Data mining bisa mengubah semua itu menjadi pengetahuan-pengetahuan yang ditambang dari data yang ada. Data mining berkaitan dengan ilmu probabilitas dan statistik, sedangkan machine learning menjadi alat analisis dalam data mining. Bidang-bidang ini berkaitan antara yang satu dengan yang lain, seperti pada gambar di bawah ini. ISSN : 2302-7088 Salah satu metode dalam data mining yang sering dipakai adalah clustering. Clustering mengidentifikasi orang-orang yang memiliki kesamaan karakteristik tertentu berdasarkan kategori atau cluster, dan kemudian menggunakan karakteristik tersebut sebagai vektor karakteristik atau centroid. Kategorikategori ini dapat bersifat eksklusif dan ekshaustif mutual, atau mengandung representasi yang lebih kaya seperti kategori yang hirarkis atau saling menumpu (overlapping). Pengelompokan ini digunakan oleh perusahaan untuk membuat laporan mengenai karakteristik umum dari pelanggan (customer) yang berbeda. Tujuan utama dari metode clustering adalah pengelompokan sejumlah data/objek ke dalam cluster (grup) sehingga dalam setiap cluster akan berisi data yang semirip mungkin. Dalam clustering kita berusaha untuk menempatkan objek yang mirip (jaraknya dekat) dalam satu cluster dan membuat jarak antar cluster sejauh mungkin. Ini berarti objek dalam satu cluster sangat mirip satu sama lain dan berbeda dengan objek dalam cluster-cluster yang lain. Dalam teknik ini kita tidak tahu sebelumnya berapa jumlah cluster dan bagaimana pengelompokannya. Clustering adalah salah satu teknik unsupervised learning dimana kita tidak perlu melatih metode tersebut atau tidak ada fase learning. Unsupervised learning adalah metode-metode yang tidak membutuhkan label ataupun keluaran dari setiap data yang kita investigasi. Gambar 1. Data Mining Merupakan Irisan Dari Berbagai Disiplin Perbedaan dari gambar di atas sebagai berikut: Statistik : lebih berdasarkan teori, lebih fokus pada pengujian hipotesis. Machine Learning : lebih bersifat heuristik, fokus pada perbaikan performansi dari suatu teknik learning. Data Mining : gabungan teori dan heuristik, fokus pada seluruh proses penemuan knowledge/pola termasuk data cleaning, learning, dan visualisasi dari hasilnya. K-Means K-means merupakan salah satu metode yang paling sederhana dan umum dikenal. K-means berusaha mempartisi data yang ada ke dalam bentuk satu atau lebih cluster/kelompok. Metode ini mempartisi data ke dalam cluster/kelompok sehingga data yang memiliki karakteristik yang sama dikelompokkan ke dalam satu cluster Clustering SI-2 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember yang sama dan data yang mempunyai karakteristik yang berbeda dikelompokkan ke dalam kelompok yang lain. Adapun kelebihan dari metode kmeans ini adalah sebagai berikut: K-means sangat cepat dalam proses clustering. Meminimalisasikan objective function yang diset dalam proses clustering. Meminimalisasikan variasi di dalam suatu cluster dan memaksimalisasikan variasi antar cluster. Sering digunakan pada data mining karena kesesuaian untuk pengolahan klasifikasi data dalam ukuran besar. Sedangkan beberapa kelemahan yang sering muncul pada saat menggunakan metode k-means adalah sebagai berikut: 1. K-means sangat sensitif pada pembangkitan centroids awal secara random. 2. Hasil clustering dengan k-means bersifat tidak unik (selalu berubahubah). Terkadang baik, terkadang jelek. 3. K-Means sangat sulit untuk mencapai global optimum. Untuk melakukan clustering ini, nilai k harus ditentukan terlebih dahulu. Secara detail kita bisa menggunakan ukuran ketidakmiripan untuk mengelompokkan objek. Ketidakmiripan bisa diterjemahkan dalam konsep jarak. Jika jarak dua objek atau data titik cukup dekat, maka dua objek itu mirip. Semakin dekat berarti semakin tinggi kemiripannya. Semakin tinggi nilai jarak, semakin tinggi ketidakmiripannya. Dasar metode k-means adalah sebagai berikut: 1. Tentukan jumlah k cluster. 2. Inisialisasi k pusat cluster (centroid), dapat diperoleh secara acak. 3. Tempatkan setiap data ke centroid terdekat. Kedekatan dua data ditentukan berdasar jarak kedua data tersebut. Dalam tahap ini perlu dihitung jarak tiap data ke tiap centroid. Jarak paling dekat antara satu data dengan satu cluster tertentu akan menentukan suatu data masuk ISSN : 2302-7088 dalam cluster mana. Untuk menghitung jarak digunakan metode pengukuran jarak euclidean distance. n ∑= (x dxy = i − yi ) 2 ……(1) i 1 4. Hitung kembali centroid dengan keanggotaan cluster yang sekarang. centroid baru adalah mean (ratarata) dari semua data/objek dalam satu cluster. Kemudian hitung jumlah square Error. ci = 1 mi ∑ x ………….(2) xεCi k SSE = ∑ ∑ ci − x 2 …(3) i =1 x∈Ci 5. Ulangi langkah 3 dan 4 hingga konvergen. Kriteria konvergen adalah fungsi SSE berada di bawah batas error ( ξ ) atau jumlah iterasi berada pada batas maksimal iterasi. METODOLOGI PENELITIAN Perancangan data mining ini menggunakan model proses pengembangan sistem perangkat lunak yaitu model System Development Life Cycle (SDLC). Menurut Kendall and Kendall dalam buku Analisis dan Perancangan Sistem Jilid 6 [2003:11], SDLC adalah pendekatan melalui beberapa tahap untuk menganalisa dan merancang sistem dimana sistem tersebut telah dikembangkan dengan sangat baik melalui penggunaan siklus kegiatan penganalisis dan pemakai secara spesifik. SI-3 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Kelas-kelas tersebut adalah kelas halaman utama, koneksi database, kmeans dan output klasterisasi. Dari gambar 4 di atas terlihat bahwa kelas koneksi database dan kelas k-means berasal dari kelas halaman utama. Satu halaman utama bisa digunakan untuk melakukan satu koneksi database. Satu halaman utama bisa melakukan satu kmeans. Satu k-means bisa menghasilkan satu atau lebih output klasterisasi. Satu output klasterisasi bisa dihasilkan satu atau lebih k-means. . Gambar 2. Tujuh Tahap System Development Life Cycle (SDLC) PERANCANGAN SISTEM Use Case Diagram Pada perancangan data mining ini terdapat satu aktor yaitu pemakai, sedangkan use case yang dibutuhkan ada tiga yaitu: use case koneksi database, klasterisasi dan hasil klaster. Use case koneksi database bersifat include terhadap use case klasterisasi, yang artinya sebelum klasterisasi harus dilakukan koneksi database terlebih dahulu. Use case hasil klaster juga bersifat include terhadap use case klasterisasi. Tabel 1. Tabel Use Case No Nama Proses 1. Koneksi database 2. Klasterisasi 3. Hasil klaster Keterangan Use case ini digunakan untuk mengatur koneksi aplikasi ke DBMS. Use case ini digunakan untuk melakukan proses klasterisasi dataset. Use case ini digunakan untuk menampilkan hasil analisa klasterisasi. Gambar 4. Class Diagram Entity Relationship Diagram Data Mining ini menggunakan 9 tabel dalam database. Sembilan tabel tersebut dibagi menjadi dua kelompok yaitu kelompok tabel dimensi dan tabel fakta. Kelompok tabel dimensi meliputi tabel persil, tanah, bangunan, lantai_bangunan, jalan, listrik, njop dan kran. Dan yang termasuk dalam kelompok tabel fakta meliputi tabel kuesioner. HASIL DAN PEMBAHASAN Teknologi Untuk mengimplementasikan data mining ini, maka dibutuhkan beberapa hardware pendukung dan software pendukung sebagai berikut: Kebutuhan hardware Perangkat keras (hardware) yang dibutuhkan untuk mengimplementasikan data mining ini antara lain: • PC Pentium (Minimal Pentium IV). Gambar 3. Use Case Diagram Class Diagram Pada class diagram terdapat empat kelas yang digunakan dalam aplikasi ini. SI-4 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember • • • ISSN : 2302-7088 Dalam implementasi sistem ini, yang dapat dilakukan pada Data Mining Dengan Metode K-Means Clustering Untuk Menganalisa Karakteristik Pelanggan PDAM Kota Surabaya ini yaitu: Bisa menghasilkan informasi pengelompokan pelanggan PDAM Kota Surabaya berdasarkan guna persil, luas tanah, luas bangunan, jumlah lantai bangunan, lebar jalan, daya listrik, NJOP dan jumlah kran dengan menggunakan metode k-means clustering. Bisa menghasilkan informasi diskriminasi tarif diantara kelompok pelanggan PDAM Kota Surabaya berdasarkan pengelompokan pelanggan yang telah ditentukan. Sistem Operasi Windows XP Profesional atau Windows Vista. Memory dengan kapasitas minimal 512 Mega byte. Harddisk minimal 40 Giga byte. Kebutuhan software Untuk mejalankan Data Mining Dengan Metode K-Means Clustering Untuk Menganalisa Karakteristik Pelanggan PDAM Kota Surabaya, maka komputer yang digunakan harus sudah terinstal software yang digunakan yaitu Java Development Kit 1.6, Netbeans 6.1 dan Microsoft SQL Server 2005 dengan sistem operasi Windows XP Profesional atau Windows Vista. Implementasi Sistem Gambar 5. Entity Relationship Diagram SI-5 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Kebutuhan hardware Perangkat keras (hardware) yang dibutuhkan untuk mengimplementasikan data mining ini antara lain: • PC Pentium (Minimal Pentium IV). • Sistem Operasi Windows XP Profesional atau Windows Vista. • Memory dengan kapasitas minimal 512 Mega byte. • Harddisk minimal 40 Giga byte. ISSN : 2302-7088 Langkah-langkah Sebelum melakukan proses klasterisasi, pemakai harus melakukan koneksi database terlebih dahulu. Dari halaman utama pilih menu file → koneksi database. Kebutuhan software Untuk mejalankan Data Mining Dengan Metode K-Means Clustering Untuk Menganalisa Karakteristik Pelanggan PDAM Kota Surabaya, maka komputer yang digunakan harus sudah terinstal software yang digunakan yaitu Java Development Kit 1.6, Netbeans 6.1 dan Microsoft SQL Server 2005 dengan sistem operasi Windows XP Profesional atau Windows Vista. Gambar 6. Halaman Utama Masukkan nama server untuk koneksi pada database. Setelah koneksi pada database berhasil, pemakai bisa menekan tombol ok. Isi konfigurasi klasterisasi sesuai dengan kasus di atas seperti yang ditunjukkan pada Gambar 8. Setelah menentukan konfigurasi klasterisasi, pemakai bisa menekan tombol start klaster untuk memulai proses klasterisasi. Pada saat proses klasterisasi, program akan mengelompokkan data kuesioner tersebut berdasarkan jarak terdekat dengan centroid, menghitung lamanya waktu yang diperlukan, dan menghitung prosentase sum of the squared error. Implementasi Sistem Dalam implementasi sistem ini, yang dapat dilakukan pada Data Mining Dengan Metode K-Means Clustering Untuk Menganalisa Karakteristik Pelanggan PDAM Kota Surabaya ini yaitu: Bisa menghasilkan informasi pengelompokan pelanggan PDAM Kota Surabaya berdasarkan guna persil, luas tanah, luas bangunan, jumlah lantai bangunan, lebar jalan, daya listrik, NJOP dan jumlah kran dengan menggunakan metode k-means clustering. Bisa menghasilkan informasi diskriminasi tarif diantara kelompok pelanggan PDAM Kota Surabaya berdasarkan pengelompokan pelanggan yang telah ditentukan. Contoh Kasus: Tentukan informasi pengelompokan pelanggan dan diskriminasi tarif PDAM Kota Surabaya berdasarkan dari data-data kuesioner yang telah terkumpul. Misalkan: • Jumlah pengelompokan yang diinginkan sebanyak 10 pelanggan. • Nilai Batas Error yang diinginkan adalah 20%. • Nilai iterasi maksimal sebanyak 3 iterasi. Gambar 7. Halaman Koneksi Database SI-2 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Gambar 10. Halaman Pengelompokan Pelanggan Gambar 8 Halaman Klasterisasi Setelah proses klasterisasi selesai, hasil dari klasterisasi tersebut akan ditampilkan pada FrmHasil.java dan disimpan ke dalam database dalam bentuk pengelompokan. Tabel 2. Pelanggan Spesifikasi Pengelompokan Cluster Spesifikasi Guna persil : tempat tinggal Luas tanah : >= 300 m2 Luas bangunan : >= 300 m2 Jumlah lantai : 1 Lantai 1 Lebar jalan : 5 m <= Lebar Jalan < 6.5 m Daya listrik : 2200 VA <= Daya Listrik < 4400 VA Njop : >= Rp 500 juta Jumlah kran : 2 Guna persil : tempat tinggal Luas tanah : 36 m2 <= Luas Tanah < 120 m2 Luas bangunan : 120 m2 <= Luas Bangunan < 200 m2 2 Jumlah lantai : 1 Lantai Lebar jalan : 6.5 m <= Lebar Jalan < 12 m Daya listrik : 2200 VA <= Daya Listrik < 4400 VA Njop : Rp 250 juta <= NJOP < Rp 500 juta Jumlah kran : 2 Guna persil : Usaha Luas tanah : 36 m2 <= Luas Tanah < 120 m2 Luas bangunan : 36 m2 <= Luas Bangunan < 120 m2 3 Jumlah lantai : 1 Lantai Lebar jalan : 6.5 m <= Lebar Jalan < 12 m Daya listrik : 2200 VA <= Daya Listrik < 4400 VA Njop : Rp 150 juta <= NJOP < Rp 250 juta Jumlah kran : 4 Guna persil : tempat tinggal Luas tanah : 36 m2 <= Luas Tanah < 120 m2 Luas bangunan : 200 m2 <= Luas Bangunan < 300 m2 Jumlah lantai : 2 Lantai 4 Lebar jalan : 5 m <= Lebar Jalan < 6.5 m Daya listrik : 2200 VA <= Daya Listrik < 4400 VA Njop : Rp 250 juta <= NJOP < Rp 500 juta Jumlah kran : 2 Guna persil : Rumah & Usaha/ Toko Luas tanah : 36 m2 <= Luas Tanah < 120 m22 Luas bangunan : 200 m2 <= Luas Bangunan < 300 m2 5 Jumlah lantai : 1 Lantai Lebar jalan : 5 m <= Lebar Jalan < 6.5 m Daya listrik : 2200 VA <= Daya Listrik < 4400 VA Njop : Rp 150 juta <= NJOP < Rp 250 juta Jumlah kran : 6 HASIL IMPLEMENTASI SISTEM History Klasterisasi Pada halaman ini akan ditampilkan history dari proses klasterisasi mulai dari inisialisasi awal sampai akhir iterasi. Data pada tabel menunjukkan data jarak tiap objek dengan masing-masing centroid. Data pada text area menunjukkan jumlah data pada masing-masing cluster. Estmasi waktu merupakan waktu yang dibutuhkan untuk menghasilkan cluster. Pengelompokan Pelanggan Pada halaman ini akan ditampilkan hasil klasterisasi berupa informasi spesifikasi pengelompokan pelanggan berdasarkan parameter yang telah ditentukan pemakai sebelumnya. Gambar 9. Halaman History Klasterisasi SI-3 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Tabel 3. Lanjutan Spesifikasi Pengelompokan Pelanggan Cluster 6 7 8 9 10 Spesifikasi Guna persil : Rumah & Usaha/ Toko Luas tanah : 120 m2 <= Luas Tanah < 200 m2 Luas bangunan : >= 300 m2 Jumlah lantai : 3 Lantai Lebar jalan : 6.5 m <= Lebar Jalan < 12 m Daya listrik : >= 4400 VA Njop : >= Rp 500 juta Jumlah kran : 3 Guna persil : tempat tinggal Luas tanah : 36 m2 <= Luas Tanah < 120 m2 Luas bangunan : 36 m2 <= Luas Bangunan < 120 m2 Jumlah lantai : 1 Lantai Lebar jalan : 3 m <= Lebar Jalan < 5 m Daya listrik : 2200 VA <= Daya Listrik < 4400 VA Njop : Rp 50 juta <= NJOP < Rp 150 juta Jumlah kran : 2 Guna persil : tempat tinggal Luas tanah : 36 m2 <= Luas Tanah < 120 m2 Luas bangunan : 120 m2 <= Luas Bangunan < 200 m2 Jumlah lantai : 1 Lantai Lebar jalan : 3 m <= Lebar Jalan < 5 m Daya listrik : < 1300 VA Njop : Rp 50 juta <= NJOP < Rp 150 juta Jumlah kran : 5 Guna persil : Tempat tinggal Luas tanah : 120 m2 <= Luas Tanah < 200 m2 Luas bangunan : >= 300 m2 Jumlah lantai : 2 Lantai Lebar jalan : 5 m <= Lebar Jalan < 6.5 m Daya listrik : >= 4400 VA Njop : >= Rp 500 juta Jumlah kran : 6 Guna persil : tempat tinggal Luas tanah : 36 m2 <= Luas Tanah < 120 m2 Luas bangunan : 36 m2 <= Luas Bangunan < 120 m2 Jumlah lantai : 1 Lantai Lebar jalan : 5 m <= Lebar Jalan < 6.5 m Daya listrik : < 1300 VA Njop : Rp 50 juta <= NJOP < Rp 150 juta Jumlah kran : 1 Gambar 11. Halaman Gambar Clustering Diskriminasi Tarif Pada halaman ini akan ditampilkan informasi diskriminasi tarif air berdasarkan pengelompokan pelanggan yang telah terbentuk. Gambar 12. Halaman Diskriminasi Tarif Dari gambar diatas, dapat disimpulkan bahwa hasil pengujian diskriminasi tarif air pelanggan PDAM Kota Surabaya sebagai berikut: Tabel 4. Diskriminasi Tarif Cluster Gambar Clustering Pada halaman ini akan ditampilkan gambar dari hasil clustering. Gambar sebelah kiri merupakan gambar klasterisasi untuk iterasi pertama sedangkan gambar sebelah kanan merupakan gambar akhir klasterisasi. Kode Tarif 1 4C 2 4C 3 3B 4 1 5 4D 6 4C Pemakaian 0-10 11-20 21-30 0-10 11-20 21-30 0-10 11-20 21-30 Non Progressif 0-10 11-20 21-30 0-10 11-20 21-30 Tarif 4000 6000 7500 4000 6000 7500 1500 3500 6000 600 6000 8000 9500 4000 6000 7500 Tabel 5. Lanjutan Diskriminasi Tarif SI-4 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Cluster Kode Tarif 7 4C 8 1 9 4C 10 4A Pemakaian 0-10 11-20 21-30 Non Progressif 0-10 11-20 21-30 0-10 11-20 21-30 Tarif 4000 6000 7500 600 4000 6000 7500 1000 1500 2500 7. ISSN : 2302-7088 jumlah maksimal iterasi. Semakin besar jumlah record atau maksimal iterasi yang ditentukan, semakin lama waktu yang dibutuhkan untuk menghasilkan cluster. Pemakai harus melakukan proses klasterisasi berulang-ulang untuk mendapatkan hasil cluster yang sesuai. Karena hasil cluster tergantung dari penentuan centroid awal. DAFTAR PUSTAKA KESIMPULAN [Rob06] Robert Schneider, “SQL Server 2005 Express Edition For Dummies”, Wiley Publishing, Canada 2006. [Bal06] Balter Alison , “Teach Yourself Microsoft SQL Server 2005 Express in 24 Hours”, Sams Publishing, America 2006. [Pao03] Paolo Giudici, “Applied Data Mining Statistical Methods for Business and Industry”, Wiley Publishing, England 2003. [Mic04] Michael J.A. Berry dan Gordon S. Linoff, “Data Mining Techniques For Marketing, Sales, and Customer Relationship Management”, Wiley Publishing, Canada 2004. [Zhao05] Zhao Hui Thang dan Jamie MacLennan, “Data Mining With SQL Server 2005”, Wiley Publishing, America 2005. [San07] Santosa Budi, “Data Mining Teknik dan Pemanfaatan Data Untuk Keperluan Bisnis”, Graha Ilmu, Yogyakarta 2007. [Ken03] Kendall & Kendall, “Analisa dan Perancangan Sistem”, jilid 1, PT.Prenhallindo, Jakarta, 2003. [Wah06] Wahana computer, “Aplikasi Database Dengan Java 2”, Andi Offset, Yogyakarta, 2006. Setelah Data Mining Dengan Metode Kmeans Clustering Untuk Menganalisa Karakteristik Pelanggan PDAM Kota Surabaya ini selesai dibuat, dapat diambil kesimpulan sebagai berikut: 1. Kelebihan Data Mining Dengan Metode Kmeans Clustering Untuk Menganalisa Karakteristik Pelanggan PDAM Kota Surabaya adalah: 2. Data mining ini sangat bermanfaat untuk mempermudah pengelompokan pelanggan PDAM Kota Surabaya berdasarkan parameter yang telah ditentukan sebelumnya. 3. Mempermudah dalam penentuan diskriminasi tarif air berdasarkan dari pengelompokan pelanggan yang sudah terbentuk. 4. Kelemahan Data Mining Dengan Metode Kmeans Clustering Untuk Menganalisa Karakteristik Pelanggan PDAM Kota Surabaya adalah: 5. Penentuan parameter atau dataset pada data mining ini masih dilakukan pada satu tabel fakta. Sehingga pembacaan dataset dilakukan mulai dari awal kolom hingga akhir kolom. 6. Estimasi waktu proses klasterisasi tergantung dari jumlah record dan SI-5 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 1 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 PERENCANAAN DESAIN SISTEM PENDUKUNG KEPUTUSAN BERBASIS EAGRIBUSINESS PADA KOMODITAS KEDELAI Zainul Arham Dosen Program Studi Sistem Informasi Fakultas Sains dan Teknologi UIN Syarif Hidayatullah Jakarta E-Mail: [email protected], [email protected] Abstrak Tantangan perdagangan global merupakan tuntutan di setiap lini transaksi perdagangan, termasuk di komoditas kedelai yang mengharuskan transaksi cepat dan akurat. Perluasan jangkauan pasar untuk komoditas kedelai dapat dilakukan dengan menggunakan teknologi informasi berbasis e-Agribisnis. Sebuah pangsa pasar yang besar akan memberikan kesempatan kepada petani dan pengusaha kedelai untuk meningkatkan produk dan untuk memperluas jangkauan pasar. Untuk membangun sistem transaksi yang cepat, prototipe e-Agribisnis dilengkapi dengan sistem pendukung keputusan dan sistem keamanan diperlukan untuk memudahkan transaksi dalam pasar. Sampai saat ini, teknologi informasi belum dimanfaatkan secara optimal dalam pengembangan pasar komoditas kedelai di Indonesia, khususnya dalam merespon tantangan perdagangan global dan persaingan produk dengan negaranegara lain. Kata Kunci: e-Agribisnis, komoditas kedelai, sistem penunjang keputusan Abstract Global trade challenges require all trading transactions, including those in soybean commodity, to be conducted at a high speed and accuracy. Expansion of market reach for soybean commodity may be done by using information technology in the form of eAgribusiness. A large market share would give an opportunity to the farmers and soybean entrepreneurs to increase their product and to expand their market reach. To build a fast transaction system, an e-Agribusiness prototype completed with a Decision Support System and a security system is required in order to ease the transactions within markerters. Until now, information technology has not been utilized optimally in the market development of soybean commodity in Indonesia, in particular in response to global trade challenges and product competition with other countries. Key words: E-Agribusiness, Soybean commodity , Decision Support System. 2 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember PENDAHULUAN Pengembangan pasar komoditas pertanian dengan menerapkan teknologi informasi telah dilakukan di beberapa negera Asia. Pada tahun 1983 Jepang mengembangkan sistem informasi agribisnis berbasis jaringan melalui sistem informasi pasar versi NAPASS (Nationwide Agricultural Product) yang didukung oleh 63 pasar induk dengan 156 komoditas pertanian baik dari dalam negeri maupun luar negeri (Nanseki, 2003). Selanjutnya Hoa (2004) menjelaskan bahwa sejak tahun 1996 Taiwan mulai mengembangkan sistem informasi harga dan pemasaran berkelompok yang didukung oleh 78 pasar induk, sedangkan Vietnam mengembangkan sistem informasi produk pertanian tahun 1993 dengan versi VINAMET (Vietnam Market Information Network). Penelitian yang terkait dengan rancang bangun sistem informasi di Indonesia antara lain dilakukan oleh Eriyatno (2005) yang menghasilkan prototipe Sistem Informasi Agroindustri (SIAGRI) dengan karakterisrik sistem multi konteks, multi komoditi, multi relasi dan multi user. Sistem informasi ditujukan untuk penyediaan informasi yang berhubungan dengan sarana produksi, nilai ekonomi, situasi pasar, komoditi ekspor potensial dan proses pengolahan. Informasi dan pendukung keputusan yang berhubungan dengan produk pertanian belum tercakup dalam sistem tersebut. Posisi Indonesia sebagai negera pengimpor kedelai tidak menguntungkan secara ekonomis terutama dilihat dari sisi penerimaan negara. Secara umum Indonesia memiliki potensi pengembangan kedelai dengan pangsa pasar domestik dan regional yang besar. Pangsa pasar yang besar akan memberikan peluang kepada petani dan pengusaha olahan kedelai untuk meningkatkan produksi dan memperluas jangkauan pasar. Perluasan jangkauan pasar dapat dilakukan dengan berbagai terobosan diantaranya melalui peningkatan peranan teknologi informasi untuk kepastian stok komoditas kedelai dan hasil olahan kedelai dalam bentuk e-agribusiness. Peranan teknologi informasi dalam sistem perdagangan produk kedelai cukup besar dalam mempercepat proses transaksi antara produsen dan konsumen. Penyediaan ISSN : 2302-7088 infrastruktur teknologi informasi di Indonesia untuk sistem transaksi berbasiskan elektronik (electronic transaction) cukup memadai meskipun diperlukan perluasan terutama di wilayah sentra produksi kedelai. Sampai saat ini, pengembangan pasar komoditas kedelai di Indonesia kurang optimal memanfaatkan peranan teknologi informasi terutama dalam menjawab tantangan pasar global dan persaingan produk dengan negara lain. Tujuan dari penelitian ini adalah desain perencanaan sistem penunjang keputusan berbasis e-agribusiness pada komoditas kedelai, sedangkan uraian tujuan secara spesifik adalah: (1) Menganalisis sistem pemasaran komoditas kedelai melalui indentifikasi target pengguna dan kebutuhan informasi produk agribisnis unggulan. (2) Mendesain Sistem Pendukung Keputusan (SPK) pemasaran komoditas kedelai dan (3) Mendesain prototipe e-agribusiness yang berasal dari tujuan pertama dan kedua dalam bentuk rancangan logika ke dalam bentuk rancangan fisik berupa software yang dilengkapi dengan manajemen RBAC. LANDASAN TEORI Saragih (2004) menyatakan sistem agribisnis merupakan totalitas atau kesatuan kinerja agribisnis yang terdiri dari subsistem agribisnis hulu yang berupa kegiatan input produksi, informasi dan teknologi seperti tampak pada Gambar 1. Gambar 1. Lingkup Pembangunan Sistem dan Usaha Agribisnis. Membangun sistem dan usaha yang berdaya saing dipengaruhi oleh dua faktor strategis yakni permintaan dan penawaran. Daya saing dicirikan oleh tingkat efisiensi, mutu, harga dan biaya produksi, kemampuan untuk menerobos pasar, meningkatkan pangsa 3 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember pasar dan memberikan pelayanan yang professional. Menurut Kothler (1994) pemasaran pada hakekatnya adalah suatu aktivitas usaha niaga yang bersangkutan dengan penyaluran barangbarang dan jasa dari titik-titik produksi hingga ke titik-titik konsumsi. O’Brein (2004) menjelaskan bahwa peran sistem informasi dalam suatu organisasi berkembang sesuai dengan kebutuhan pengguna akhir (end user). Sistem informasi terdiri dua sistem yaitu sistem informasi pendukung operasi bisnis dan sistem informasi pendukung keputusan manajerial. Sistem informasi pendukung keputusan menajerial terdiri dari sistem manajemen, sistem pendukung keputusan dan sistem informasi eksekutif. Menurut Schunter dan Waidner (2002), Sistem pengolah transaksi adalah sistem yang menyimpan dan mengolah data hasil transaksi bisnis seperti sistem yang mengolah data penjualan, pembelian dan perubahan persediaan. Sistem pengendali proses adalah sistem pendukung keputusan yang bersifat rutin untuk mengontrol suatu proses seperti keputusan pemesanan kembali secara otomatis dan keputusan pengendalian produksi. Hooker et al. (2001) memberikan terminologi e-agribusiness sebagai suatu bisnis elektronik (e-business) yang memfokuskan pada produk dan layanan bidang pertanian atau kegiatan agribisnis yang dilakukan secara eletronik melalui media internet. Ilustrasi mengenai e-agribusiness tampak pada Gambar 2. ISSN : 2302-7088 Gambar 2. Konsep Dasar E-Agribusiness. Lebih lanjut Ferraiolo (2001), menyatakan bahwa model-model eagribusiness yang banyak digunakan di negara-negara maju dan berkembang antara lain: 1) katalog on-line (online catalogs); 2) lelang (auctions); 3) bursa (exchange) dan; 4) komunitas online (on line communities). Menurut Thompson et al. (2000) eagribusiness telah banyak digunakan di negara-negera maju dan berkembang dengan menggunakan model dan sistem yang mengacu pada sistem bisnis elektronik (ebusiness) dan perdagangan elektronik (ecommerce). Sistem distribusi dan pemasaran komoditas pertanian di Indonesia dikelompokkan menjadi dua, yaitu sistem distribusi untuk komoditas kelas satu (first grade) dan sistem distribusi untuk komoditas kelas dua (second grade). Komoditas kelas satu adalah komoditas dengan mutu terbaik yang umumnya dilakukan penanganan pascapanen terlebih dahulu sebelum siap dipasarkan (Departemen Pertanian, 2004). Menurut Darmawati (2004) kendala yang dihadapi oleh petani dalam memasarkan produknya secara langsung ke pasar institusi antara lain: 1) informasi tentang persyaratan mutu, harga penawaran dan volume permintaan tidak mudah diperoleh oleh petani produsen; 2) sistem pembayaran yang dilakukan oleh pasar institusi pada umumnya menggunakan pembayaran mundur antara 7 sampai 15 hari. 4 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 keputusan terdiri dari perangkat keras (hardware) dan perangkat lunak (software). Pembangunan program akan menggunakan Java Script dan HTML (HiperText Markup Language) dan Dreaweaver. Pembangunan data menggunakan Microsoft Access, sedangkan untuk komunikasi data dalam jaringan menggunakan ASP (Active Server Page) dan XML Document Access Control. METODOLOGI PENELITIAN Tempat Penelitian Penelitian ini akan dilaksanakan di Propinsi Jawa Barat dan DKI Jakarta dengan pengambilan data lapang dan interview. Data dan Alat Penelitian Data penelitian akan diperoleh melalui beberapa metode yaitu: (a) data primer dengan langsung mewawancarai kepada para produsen, konsumen, lembaga pemasaran; dan (b) data sekunder berupa studi pustaka/jurnal ilmiah dan data statistik pertanian. Alat yang digunakan untuk perancangan e-agribusiness dan sistem pendukung Kerangka Penelitian Alur kerangka penelitian sebagaimana pada Gambar 3. Studi Pustaka Pendekatan Masalah Indentifikasi Target Pengguna Analisa Kebutuhan Jenis Informasi Pentahapan Rancangan Model Optimasi Pemasaran Pembangunan E-agribusiness Perancangan SPK Komponen Data Optimasi Pemasaran Distribusi: MODEL GUIDS Pembuatan Web Site Implementasi Shopping Cart Perancangan Pada sasaran Sub Sistem Catalog Online Uji Coba Perancangan User Interface Sub Sistem Shopping Basket Request Box Rancangan Implementasi Sub Sistem Check Out Evaluasi & Perbaikan Rancangan Data Sub Sistem Maintenance Sistem Sekuriti dengan Manajemen Role Base Access Control (RBAC) Biaya Pemasaran Biaya Volume Biaya Pengolahan Biaya iklan Keuntungan Strategi Pembangunan Software Development Competitve Advantage for E-Agribusiness Software (Comptage Agri 1.0) Sistem E-Agribusiness Keterangan: = Alur yang langsung = Alur yang tidak langsung Gambar 3. E-AGRIBUSINESS ONLINE Bagan Alir Kerangka Kerja Penelitian Disain E-Agribusiness kedelai HASIL DAN PEMBAHASAN Pendekatan Masalah 5 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Desain e-agribusiness dilakukan melalui pendekatan bottom-up yakni rancangan akan dimulai dari obyek-obyek yang ada di dalam sistem. Obyek sistem yang kali pertama harus ditetapkan adalah target pengguna sistem, kemudian dilanjutkan dengan analisa kebutuhan informasi dan bentuk/jenis keputusan yang akan diambil oleh pengguna. Setelah target pengguna sistem ditetapkan, maka harus dilakukan identifikasi kebutuhan jenis informasi yang didasarkan pada pendekatan kebutuhan masing-masing target pengguna untuk merancang Sistem Pengambilan Keputusan (SPK) Tabel 1. Hasil idenrtifikasi Target Pengguna Sistem dan Analisis Kebutuhan Informasi Produsen dan Konsumen Target Pengguna Kebutuhan Informasi Penentuan harga optimal Database konsumen Saluran pemasaran Produsen Promosi Penanganan produk dan distribusi Riset pasar Penentuan harga optimal Database produsen - Konsumen Saluran pemasaran Perencanaan pembelian Penanganan produk dan distribusi - Jenis-jenis Informasi Harga permintaan (harga pasar) Kondisi persaingan Pola pemasaran (borongan, partai) Karakteristik konsumen Indentifikasi produk yang dibutuhkan Identifikasi rantai pemasaran Jumlah saluran pemasaran Biaya promosi & iklan Target pasar Lokasi pasar Jasa angkutan Harga sewa Pergudangan Hasil penelitian Strategi pemasaran Harga penawaran Volume dan mutu produk Pola pemasaran Karakteristik produsen Identifikasi produk yang ditawarkan (mutu, volume) Identifikasi rantai pemasaran (pemborong, grosir, pengecer) Jumlah saluran pemasaran potensi produksi harga penawaran kondisi persaingan Lokasi pasar Jasa angkutan Harga sewa Pergudangan Tabel 2. Hasil idenrtifikasi Target Pengguna Sistem dan Analisis Kebutuhan Informasi Lembaga Pemasaran - Harga penawaran Pemborong Database produsen & produk - Volume dan mutu produk - Lokasi produsen - Harga penawaran Pedagang pengumpul Database pemborong dan produk - Volume dan mutu produk - Lokasi pemborong - Harga penawaran Database pedagang pengumpul dan Pusat pengumpul - Volume dan mutu produk produk - Lokasi pedagang pengumpul - Harga penawaran Pedagang pusat grosir Database pusat pengumpul - Volume dan mutu produk - Lokasi pusat pengumpul - Harga penawaran Pusat distribusi Database pusat grosir - Volume dan mutu produk - Lokasi pusat grosir Tabel 3. Hasil idenrtifikasi Target Pengguna Sistem dan Analisis Kebutuhan Informasi Pemasaran Target Pengguna Kebutuhan Informasi Pusat pemasaran Database pusat distributor Pengecer Database pusat pemasaran - Jenis-jenis Informasi Harga penawaran Volume dan mutu produk Lokasi pusat distributor Harga penawaran Volume dan mutu produk Lokasi pusat distributor Tabel 4. Hasil idenrtifikasi Target Pengguna Sistem dan Analisis Kebutuhan Informasi Lembaga Penunjang 6 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Database produsen Perbankan Database konsumen Asuransi Database produsen dan konsumen Pusat Informasi Database saluran pemasaran Pemerintah Database target pengguna ISSN : 2302-7088 - Skala usaha (besar, menengah, kecil) - Karakteristik produsen - Volume & mutu produksi - Jaminan perbankan - Karakteristik konsumen - Kategori transaksi - Resiko usaha - Kontinuitas - Jaminan perbankan - Legal transaction Semua informasi yang dibutuhkan oleh target pengguna (data warehouse) Database jenis informasi target pengguna (data warehouse) Model Optimasi Pemasaran Produk Kedelai Menurut Ernst dan Ehmke (2003), model optimasi pemasaran untuk menentukan distribusi yang optimum meliputi: a) biaya pemasaran; b) biaya volume yang didistribusikan ke lokasi tujuan; c) biaya pengolahan dan pengemasan agar produk memenuhi kreteria sesuai dengan permintaan; d) keuntungan yang diperoleh dan; e) biaya promosi dan iklan. Perancangan SPK Menurut Ninghui (2004), Perancangan SPK sistem e-agribusiness dilakukan dengan model GUIDS (Goal-centered design, User-interface design, Implementation-centered design, Data Design, Strategic for contruction). Proses rancangan aplikasi SPK untuk e-agribusiness akan dilakukan melalui tujuh langkah seperti tampak pada Gambar 4. Analisis Sistem E-Agribusiniss Langkah 2 Mendefinisikan permasalahan Langkah 3 Menetukan perangkat lunak & keras Langkah 4 Membangun prototipe sistem e-agribusiness Langkah 7 Perlu dirancang ulang Menentukan domain permasalahan Perlu dirancang ulang Langkah 1 Target Pengguna E-Agribusiness Langkah 5 Menguji & mengevaluasi model Langkah 6 Menggunakan model e-agribusiness Memelihara sistem e-agribusiness Gambar 4. Bagan Alir Perancangan Aplikasi SPK untuk E-Agribusiness Pembangunan Prototipe E-Agribusiness Prototipe e-agribusiness dibangun dengan sistem sekuriti berbasiskan manajemen RBAC untuk menghasilkan sistem pengambilan kuputusan yang memiliki tingkat keamanan sistem yang baik. Rancangan e-agribusiness untuk keunggulan dilakukan melalui tahapan berikut ini: 1. Pembuatan web site dengan Shopping Cart, tujuan tahapan ini untuk mewujudkan aplikasi dengan menggunakan bahasa scripting PHP3 dan server database MySQL dan konektifitas ke server database MySQL. Menurut Rowley (2003), rancangan e-agribusiness di bagi menjadi beberapa subsistem yaitu: 1) subsistem catalog online; 2) sub sistem shopping basket (pemesanan); c) subsistem check-out (pembayaran) dan; 4) subsistem maintenance. 7 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 2. Implementasi Shopping Cart yang akan diujicobakan dengan membangun website untuk melihat respon terhadap sistem yang telah dirancang (Qingfeng, 2003). Dalam rancangan e-agribusiness nantinya akan dibuat umpan balik respon pengguna yang terdiri dari kotak permintaan (request box) dan kontak saran. Uji coba e-agribusiness akan berlangsung selama satu bulan sejak rancangan selesai. Barkley dan Cincotta (2002) menganjurkan aplikasi access control menggunakan konsep Role Based Access Control (RBAC). RBAC dapat menggambarkan struktur suatu organisasi, hal ini dapat dilakukan dengan membuat suatu fungsi yang dikelompokkan kedalam role dan user. Meskipun bukan konsep yang baru, tetapi RBAC terus mendapat pengakuan dari dunia komersial seperti perbankan. RBAC bertujuan untuk menyederhanakan definisi, auditing dan administrasi dari keamanan hak akses dari setiap pengguna informasi di internet. Ilustrasi mengenai konsep RBAC dapat dilihat pada Gambar 5. Gambar 5. Konsep Role Base Access Control (RBAC) DAFTAR PUSTAKA Nanseki T. 2003. Development and Applications of Nationwide Marketing Information Database for Vegetabless and Fruit in Japan. Proceeding of the First Asian Conference for Information Technology in Agriculture, January 24-26, 2003. Wakayaman, Japan. Hoa T. 2004. Database for Agriculture in Information Center for Agriculture and Rural Development. Proceeding of the First Asian Conference for Information Technology in Agriculture, January 24-26, 2004. Wakayaman, Japan. Eriyatno. 2005. Ilmu Sistem: Meningkatkan Mutu dan Efektivitas Manajemen. IPB Press, Bogor. Saragih B. 2004. Pembangunan Sistem Agribisnis Sebagai Penggerak Ekonomi Nasional (Deptan). http://www.deptan.go.id/konsep/konsep.htm [21 Sep 2004]. Kothler P. 1994. Manajemen Pemasaran, Perencanaan dan Pengendalian. Penerbit Erlangga. Jakarta. O'Brein. 2004. Management Information Systems: Managing Information Technology in the Business Enterprise, 6th Edition, McGraw-Hill. Schunter M, Waidner M. 2002. The Platform For Enterprise Privacy: Practices-Privacy-Enabled Management of Customer Data. Proc. of the 2002 Workshop on PrivacyEnhancing Technologies, San Francisco, CA. Hooker NH, Heilig J, Ernst S. 2001. What is Unique About E-Agribusiness?. Department of Agricultural, Environmental, and Development Economics The Ohio State University, Columbus, USA. Ferraiolo D, Barkley J. 2001. Specifying and Managing Role-Based Access Control within a Corporate Intranet, National Institute of Standards and Technology. Thompson S, Hayenga M, Hayes D. 2000. E-agribusiness. Department of Economics, Iowa State University Ames, Iowa, USA. [Deptan] Departemen Pertanian. 2004. Rencana Pembangunan Pertanian Tahun 2005. Jakarta. 8 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Darmawati E. 2004. Desain Sistem Pendukung Keputusan Distribusi Hortikultura dengan Pendekatan Objek [Disertasi]. Bogor: Program Pascasarjana, Institut Pertanian Bogor. Ernst S, Ehmke C. 2003. E-Commerce in Agribusiness Research Project. The Ohio State University. Ninghui L, Tripunitara MV. 2004. Security Analysis in Role-Based Access. Center for Education and Research in Information Assurance and Security and Department of Computer Sciences Purdue University, Oval Drive, West Lafayette. Rowley J. 2003. Remodelling Marketing Communications in an Internet Environment. Electronic Networking Applications and Policy, Volume 11, Number 3, pp 203-212. Qingfeng. 2003. Privacy Enforcement with an Extended Role-Based Access Control Model. Department of Computer Science North Carolina State University Raleigh, NC 27695-8207, USA Barkley J, Cincotta A. 2002. Role Based Access Control for the World Wide Web, National Institute of Standards and Technology Gaithersburg Maryland. 9 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 IMPLEMENTASI APLIKASI MOBILE LEARNING DO’A HARIAN UNTUK ANAK PRA SEKOLAH BERBASIS ANDROID Parno 1, Puji Utami 2 Program Studi Manajemen Informatika1, Program Studi Sistem Informasi2 Universitas Gunadarma, Jl Margonda Raya No 100 Pondok Cina, Depok 1 [email protected], [email protected] Abstrak Kurikulum pendidikan masa kini selalu selangkah lebih maju, sehingga anak-anak modern jaman sekarang lupa akan do’a sehari-hari. Untuk itu dengan perkembangan teknologi dibidang telekomunikasi khususnya telepon genggam, maka sumber informasi dapat di akses secara online yang kemudian dapat digunakan sebagai sarana proses belajar dan dapat mengatasi masalah kurangnya minat belajar anak-anak pada pembelajaran do’a sehari-hari. Aplikasi Mobile Learning Do’a Harian Anak (pra sekolah) Berbasis Android adalah aplikasi berbasis mobile untuk mengetahui informasi mengenai do’a sehari-hari. Aplikasi ini dibangun dalam beberapa tahap, yaitu tahap pertama dimulai dengan membuat metode perancangan dengan UML, tahap kedua perancangan input output, tahap ketiga pengkodingan, tahap keempat kompilasi kode program, tahap implementasi aplikasi pada emulator Android. Aplikasi pembelajaran do’a harian untuk anak ini juga dapat digunakan sebagai sarana proses belajar dan dapat mengatasi masalah kurangnya minat belajar bagi anak apalagi untuk pembelajaran do’a sehari-hari mengingat pentingnya penerapan pendidikan do’a untuk anak-anak dari kecil. Pada penggunaannya, Android memberi kemudahan untuk membuat dan mengembangkan aplikasi, karena Android adalah sistem operasi yang berbasis open source. Kata Kunci : Aplikasi, Do’a Harian, Android. Abstract The present curriculum is always one step ahead, so that modern children of today often forget the daily prayers. For those purpose, with technological developments in the field of telecommunications, particularly mobile phones, the sources of information can be accessed online which can then be used as a learning tool and can overcome the problem of lack of interest in children's learning on learning daily prayers. Mobile Application Learning Daily Prayer Children (pre-school) Based Android is a mobile based application to find information about the daily prayers. The application is built in several stages, beginning with the first stage of making the UML design method, the second phase of design input output, coding in the third stage, the fourth stage of compiling the source code, the implementation phase of the application on the Android emulator. Daily prayer learning applications for children can also be used as a learning tool and can overcome the problem of lack of interest in learning for children especially for learning prayers daily prayer to remember the importance of the implementation of education for small children. In use, Android provides an easy way to create and develop applications, because Android is an operating system based on open source. Keywords: Applications, Daily prayer, Android. peningkatan. Kurikulum yang diterapkan selalu selangkah lebih maju. Sehingga anakanak modern jaman sekarang lupa akan do’a sehari-hari. Pendidikan do’a untuk anak-anak merupakan hal yang perlu diperhatikan, mengingat pentingnya berdo’a bagi setiap PENDAHULUAN Dunia pendidikan di jaman sekarang sangatlah berbeda dengan pendidikan jaman dahulu. Tingkat kesulitan yang dihadapi oleh anak-anak setiap tahunnya akan mengalami SI-10 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember umat muslim bila hendak melakukan sesuatu dimanapun berada. Tujuan berdo’a tidak hanya sekadar meminta kepada Tuhan untuk mewujudkan keinginan saja, tetapi agar berbagai kegiatan yang dilakukan mendapatkan berkah dan keridhoan dari Sang Pencipta. Pendidikan do’a dapat diterapkan dimana saja dan dengan cara apa saja. Seperti misalnya di sekolah dengan bimbingan guru maupun di rumah dengan bimbingan orangtua anak-anak tetap mendapatkan pendidikan yang layak. Namun pendidikan yang disampaikan oleh guru kepada anak-anak di sekolah, tidak sepenuhnya diterima dan dimengerti oleh anak-anak. Kebanyakan guru hanya menggunakan buku sebagai panduan dan menjelaskan secara ringkas. Sehingga anakanak merasa jenuh dengan pendidikan yang disampaikan oleh guru dan menimbulkan kurangnya minat belajar bagi anak-anak. Kurangnya minat belajar bagi anak tentunya menjadi masalah bagi para orangtua dirumah untuk meningkatkan semangat belajar anakanak. Oleh karena itu, akan dibuat sebuah aplikasi kumpulan do’a harian yang dalam pembelajarannya akan menyajikan cara yang berbeda. Dengan didukungnya oleh perkembangan sistem operasi pada mobile khususnya android, masalah yang di hadapi para orangtua dapat teratasi. Orangtua tidak perlu repot-repot membuka buku sebagai panduan belajar untuk anak-anak, cukup dengan membuka telepon genggam maka orangtua dapat memberikan bimbingan belajar di rumah dan meningkatkan pembelajaran akan do’a sehari-hari bagi anak. Pembelajaran interaktif dengan tampilan yang menarik tentunya menjadi metode pembelajaran yang menyenangkan untuk anak anak sehingga anak-anak dapat dengan mudah mengingat dan mendapatkan informasi dengan cara yang berbeda dalam pengenalannya terhadap do’a sehari-hari yang diajarkan dalam agama Islam menumbuhkan minat anak-anak untuk menghafal do’a dan mengucapkan do’a tersebut dengan baik serta diharapkan dapat membantu orangtua dalam memberikan pembelajaran yang menyenangkan bagi anakanak dengan menggabungkan beberapa elemen multimedia, seperti gambar dan suara. Aplikasi ini juga menampilkan bahasa Arab sebagai pengucapan pada saat memanjatkan do’a, dan agar pembacaan do’a-do’a yang ISSN : 2302-7088 dipresentasikan dalam bahasa Arab diucapkan dengan benar, disediakan audio yang akan diperdengarkan sehingga memudahkan dalam belajar mengucapkan dan membaca do’a.. Ruang lingkup di dalam aplikasi ini hanya mencakup pengenalan do’a sehari-hari untuk anak-anak dengan dua puluh do’a dan lima pertanyaan untuk latihan soal. Dimana pembacaan do’a-do’a tersebut menggunakan fitur audio yang membantu pengucapan bahasa Arab pada do’a yang hendak dibaca. Agar anak-anak tertarik untuk terus belajar dan menghapal, aplikasi ini menggunakan menu kartun anak-anak yang disesuaikan dengan tema do’a yang dihadirkan, misalnya do’a bangun tidur ikon yang tersedia adalah seorang anak yang sedang bangun tidur. Anak-anak pun dapat memilih sendiri menu dari do’a mana yang hendak dibaca. Aplikasi android do’a harian untuk anak ini menggunakan tools (software) seperti Adobe Photoshop CS 3, Eclipse IDE, Android Virtual Device seperti emulator, ADT Plugin, dan Android SDK sebagai environment untuk menjalankan aplikasi. Salah satu sistem operasi yang mendukung untuk tercapainya pembuatan aplikasi tersebut adalah sistem operasi android. Pengguna android dari waktu ke waktu semakin meningkat sesuai dengan penelitian dari ComScore Mobilens yang diumumkan pada Selasa (3/4/2012). Riset dilakukan terhadap 234 juta pengguna ponsel berusia di atas 13 tahun di Amerika Serikat. Hasilnya android menempati urutan teratas dalam prosentase kenaikan pengguna dari 47,3% di desember 2011, naik 3,7% menjadi 51% di maret 2011 [http://tekno.kompas.com.,6 Mei 2012]. Android merupakan subset perangkat lunak untuk perangkat mobile yang meliputi sistem operasi, middleware dan aplikasi inti yang di rilis oleh google, sedangkan android SDK (software development kit) menyediakan tools dan API yang di perlukan untuk mengembangkan aplikasi pada platform android dengan menggunakan bahasa pemprograman java [Mulyadi, 2010)]. Karena perkembangan tersebut mengakibatkan meningkatnya aplikasi-aplikasi mobile berbasis android [Safaat, 2011]. Android ada di mana-mana. Nantinya, Android akan berada di mobil dan semua jenis tempat-tempat lain juga [Murphy, 2011]. Oleh karena itu nantinya aplikasi yang akan dibuat dapat dijalankan di ponsel bersistem operasi android agar dapat SI-11 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember memenuhi kebutuhan masyarakat yang pada umumnya ingin informasi yang mudah diakses dan cepat serta informasinya tepat. ISSN : 2302-7088 3. Integrated browser berdasarkan open source engine webkit 4. Grafis yang dioptimalkan dan didukung oleh library grafis 2D yang terkustomisasi, grafis 3D berdasarkan spesifikasi openGL ES 1,0 (Opsional akselerasi hardware) 5. SQLite untuk penyimpanan data 6. Media Support yang mendukung audio,video, dan gambar (MPEG4, H.264, MP3, AAC, AMR,JPG,PNG, GIF) 7. GSM Telephony (tergantung hardware) 8. Bluetooth, EDGE,3G, dan WIFI (Tergantung hardware) 9. Dukungan Perangkat tambahan : Android dapat memanfaatkan kamera, layar sentuh, accelometers, magnetometers, GPS, Akselerasi 2D(dengan perangkat Orentasi, Scalling, konversi format piksel) dan akselerasi grafis 3D 10. Multi-touch kemampuan layaknya handset modern yang dapat mengguraikan dua jari atau lebih untuk berinteraksi dengan perangkat. 11. Lingkungan Development yang lengkap dan kaya termasuk perangkat emulator, tools untuk debugging, profil dan kinerja memori, dan plugin untuk Eclipse IDE 12. Market seperti kebanyakan Handphone yang memiliki tempat penjualan aplikasi, Market pada android merupakan katalog aplikasi yang dapat di download dan di install pada Handphone melalui internet METODE PENELITIAN Dalam membuat aplikasi ini, metode penelitian yang dilakukan berupa pengamatan interaksi langsung dengan anak–anak. Mencari tahu seberapa jauh anak-anak tersebut mengerti dan menghafalkan do’a-do’a tersebut. Sedangkan data dan informasi yang didapat berdasarkan buku-buku yang berkaitan dengan kumpulan do’a-do’a serta memanfaatkan jaringan internet yang tersedia. Selanjutnya penulis menganalisis data yang telah dikumpulkan untuk membuat aplikasi ini secara bertahap: 1. Perancangan system dengan menggunakan UML. 2. Perancangan tampilan dari aplikasi tersebut (interface). 3. Pengkodingan dengan menggunakan bahasa pemrograman java. 4. Kemudian melakukan uji coba aplikasi yang didahului dengan prosesdebugging, program yang sudah valid dan terverifikasi selanjutnya dijalankan. 5. Pengimplementasian aplikasi pada emulator Android dan Perangakat Genggam dengan Sistem Operasi Android PEMBAHASAN Arsitektur Android Mulyadi (2010) menjelaskan bahwa arsitektur android terdiri dari : 1. Linux Kernel 2. Libraries 3. Android-Runtime 4. Framework-aplikasi 5. Applications Android telah menyertakan aplikasi inti seperti email client, sms, kalender, peta, browser, kontak, dan lain-nya. Semua aplikasi tersebut ditulis dengan menggunakan bahasa pemrograman java. Mengenal Komponen Android Siregar (2010) menjelaskan komponenkomponen dasar pada android yang sangat sering digunakan yaitu edittext,button, spinner, checkbox, radio group, dan ticker. Fitur yang tersedia pada platform android Mulyadi (2010) menjelaskan fitur yang tersedia pada platform android saat ini antara lain : 1. Framework aplikasi yang mendukung penggantian komponen dan reusable 2. Mesin virtual dalvik berjalan diatas linux kernel dan dioptimalkan untuk perangkat mobile SI-12 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Gambar 1. Arsitektur Android Gambar 2 Rancangan Use Case Diagram Dalam Al-Quran banyak sekali kata-kata do’a dalam pengertian yang bebeda. Abû AlQasim Al-Naqsabandî dalam kitab syarah AlAsmâ’u al- Husnâ menjelaskan beberapa pengertian dari kata do’a. Pertama, dalam pengertian “Ibadah.” Seperti dalam Al-Quran surah Yûnûs ayat 106 di bawah ini. Do’a Do’a adalah suatu ibadah. Do’a merupakan salah satu tanda kerendahan diri seorang hamba terhadap Tuhannya. Do’a dapat pula diartikan sebagai suatu ucapan permohonan kepada Allah SWT dengan rendah diri dari hati yang jujur dan ikhlas untuk mendapatkan rahmat dan perlindungan Allah agar terhindar dari bahaya dan segala sesuatu yang dimurkai Allah. SI-13 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Masa kanak-kanak tentunya saat yang paling tepat untuk menanamkan budi pekerti yang baik. Dimulai dari kebiasaan sehari-hari dengan memberikan pembelajaran yang rutin pada setiap aktivitas yang dilakukan anak-anak akan menanamkan sifat yang baik pula untuk anak-anak. Pentingnya do’a sehari-hari bagi setiap muslim merupakan suatu wujud rasa syukur dari segala rahmat dan karunia yang Allah limpahkan kepada umatnya tentunya agar diberikan kemudahan serta kelancaran untuk melakukan berbagai aktivitas seharihari. Untuk itu betapa pentingnya penerapan do’a sehari-hari dari sejak kecil agar terbiasa untuk mensyukuri rahmat dan karunia Allah. Artinya : “Dan janganlah kamu beribadah, kepada selain Allah, yaitu kepada sesuatu yang tidak dapat mendatangkan manfaat kepada engkau dan tidak pula mendatangkan madarat kepada engkau.” Kedua, do’a dalam pengertian “Istighatsah” (memohon bantuan dan pertolongan). Seperti dalam Al-Quran surah Al-Baqarah ayat 23. PERANCANGAN DAN IMPLEMENTASI Artinya: “Dan berdo’alah kamu (mintalah bantuan) kepada orang-orang yang dapat membantumu.” Pada bab ini akan dijelaskan mengenai perancangan aplikasi pembelajaran do’a sehari-hari yang akan dibuat dengan beberapa tahap seperti perancangan UML, perancangan interface, pengkodean, kompilasi, dan implementasi. Pada tahap perancangan UML akan dijelaskan mengenai suatu rancangan model sistem aplikasi. Perancangan interface yaitu perancangan antarmuka untuk apilkasi ini. Berikutnya tahap pengkodean, tahap ini berisi pembuatan dan penjelasan kode program. Setelah tahap pengkodean selanjutnya yaitu tahap kompilasi kode program. Tahap terakhir yaitu tahap pengimplementasian aplikasi pembelajaran do’a sehari-hari ke dalam ponsel berbasis Android. Ketiga, Do’a dalam pengertian “permintaan” atau “permohonan.” Seperti dalam Al-Quran surah Al-Mu’minûn ayat 60 ini. Artinya: “Mohonlah (mintalah) kamu kepada-Ku, pasti Aku perkenankan (permintaan) kamu itu.” Keempat, Do’a dalam pengertian “percakapan”. Seperti dalam Al-Quran surah Yûnûs ayat 10. Kelima, Do’a dalam pengertian “memanggil.” Dan keenam, Do’a dalam pengertian “memuji.” Seperti dalam Al-Quran surah Al-Isrâ’ ayat 110. Maka atas dasar uraian tersebut, diambil kesimpulan bahwa do’a adalah ucapan permohonan dan pujian kepada Allah SWT dengan cara-cara tertentu disertai kerendahan hati untuk mendapatkan kemaslahatan dan kebaikan yang ada disisiNya. Atau dengan istilah Al-Tîbî seperti dikutip Hasbi Al-Shidiq do’a adalah melahirkan kehinaan dan kerendahan diri serta menyatakan kehajatan (kebutuhan) dan ketundukan kepada Allah SWT. Rancangan Use Case Diagram Gambar 2 adalah contoh dari diagram use case, dimana diagram use case akan menjelaskan mengenai aktor yang berinteraksi dengan sistem. Perancangan diagram ini menggambarkan suatu fungsionalitas sebuah sistem yang ditekankan pada apa yang diperbuat oleh sistem. Rancangan Activity Diagram Selanjutnya perancangan activity diagram (Gambar 3) untuk aplikasi pembelajaran do’a sehari-hari anak dengan berbagai alir aktivitas yang digunakan. Do’a Sehari-hari SI-14 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Gambar 3. Activity Diagram Implementasi Setelah proses kompilasi pada logika program telah berhasil dan tidak ada lagi pesan kesalahan maka hasilnya dapat dilihat pada emulator Android. Kemudian langkah selanjutnya yaitu mengimplementasikan aplikasi Mobile Learning Do’a Harian untuk Anak Pra Sekolah pada ponsel Android. Selanjutnya untuk membuka atau menjalankan aplikasi tersebut, pengguna dapat langsung mengklik ikon pada menu emulator atau pada menu di dalam ponsel berbasis android. Tampilan pertama saat membuka aplikasi tersebut adalah tampilan splash screen seperti pada gambar 4 Gambar 4 Tampilan Splash Screen Setelah tampilan pembuka, yaitu splash screen, kini tampilan berganti pada xml selanjutnya, yaitu tampilan awal. Terdapat sebuah image button untuk masuk ke dalam menu, seperti pada gambar 5. SI-15 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 aplikasi pembelajaran do’a sehari-hari untuk anak, seperti pada gambar 7 berikut ini. Gambar 5 Tampilan Awal Setelah user menekan image button bertuliskan ‘Klik Tombol Ini Untuk Mulai Belajar ^.^’, maka user akan menuju pada aktivitas dari menu-menu yang terdapat pada aplikasi tesebut (Gambar 6), yaitu sebagai berikut ini. Gambar 7 Tampilan Pilih Do’a Sehari-hari Button buka digunakan untuk membuka do’a yang telah dipilih dari spinner. Kemudian untuk list do’a-do’a yang ada di dalam spinner adalah pada gambar 8. sebagai berikut. Gambar 6 Tampilan Menu Gambar 8 Tampilan list do’a pada spinner Tampilan menu terdapat lima pilihan menu dari beberapa image button, semua button tersebut digunakan untuk mengakses masingmasing aktifitas yang ingin dibuka, yang pertama, image button Do’a Sehari-hari berisi tentang list do’ado’a yang terdapat pada Gambar 8 merupakan tampilan untuk daftar nama-nama do’a yang ada pada spinner. Penggunaan spinner disini dimaksudkan untuk membantu pengguna untuk mencari namanama do’a yang telah disediakan. Tampilan dari nama-nama do’a akan dapat dengan mudah untuk dicari sesuai dengan kebutuhan. SI-16 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Hanya dengan memilih dan mengklik salah satu list maka nama do’a yang dipilih tersebut, misalnya do’a bangun tidur, setelah menekan tombol buka pada tampilan pemilihan do’a sehari-hari, program akan membuka pilihan user dari spinner yaitu do’a bangun tidur, seperti pada gambar 9 berikut ini. ISSN : 2302-7088 Tampilan pemutaran suara do’a tersebut disertai dengan gambar tulisan arab do’a, tulisan latinnya, dan juga arti dari do’a yang sedang diputar. Apabila pengguna ingin kembali ke menu sebelumnya, cukup dengan mengklik atau menekan tombol back (seperti keterangan pada gambar 10) pada jendela emulator ataupun pada telepon seluler. Selanjutnya, jika pengguna memilih image button games pada tampilan menu sebelumnya, maka akan muncul tampilan seperti pada gambar 11 berikut ini. Gambar 9 Tampilan Do’a Bangun Tidur Jika pengguna menekan tombol sound, maka program akan memutar do’a bangun tidur beserta dengan toast yang memberitahukan do’a apa yang sedang diputar, dan jika menekan tombol stop maka suara do’a yang diputar akan berhenti, seperti gambar 10 berikut. Gambar 11 Tampilan Games Gambar 11 menunjukkan tampilan games dimana pengguna telah menjawab pilihan jawaban yang menghasilkan jawaban benar, berikut adalah penjelasannya. Button sound digunakan untuk memutar do’a yang sedang diputar dan button stop digunakan untuk menghentikan suara do’a sebelum menuju ke form selanjutnya. Setelah pengguna menekan tombol sound dan menebak do’a yang diputar, pengguna di hadapkan pada pilihan jawaban a, b, dan c yang masingmasing memberikan sebuah text view pada setiap button. Jika pengguna memilih salah satu button yang menurutnya adalah jawaban yang benar, maka program akan memberikan toast berupa hasil dari jawaban user, yaitu berupa toast jawaban benar atau salah. Setelah selesai menjawab pertanyaan pada tampilan games pertama ini, pengguna dapat melanjutkan pertanyaan berikutnya dengan menekan image button next, jika tidak, pengguna dapat menekan Gambar 10 Tampilan Pemutaran Suara Do’a SI-17 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 tombol back pada handphone android. Jika pengguna memilih tombol next, maka pertanyaan selanjutnya akan ditampilkan sampai pada pertanyaan games yang terakhir yang ditandai dengan bergantinya image button next menjadi image button finish yang akan menuju ke halaman tampilan menu. Berikut tampilan pertanyaan dari tampilan games yang terakhir sebelum membawa user kembali pada tampilan menu. Gambar 13 Tampilan Help Jika ingin kembali ke menu sebelumnya, pengguna hanya perlu menekan tombol back pada emulator atau pada handphone android. Menu yang terakhir pada tampilan menu adalah exit dimana menu ini digunakan untuk keluar aplikasi pembelajaran do’a sehari-hari. Pada menu ini terdapat alert dialog berupa setmessage yang menanyakan kembali apakah user benar-benar ingin keluar dari aplikasi, jika memilih button tidak, maka tampilan tetap pada tampilan menu dan user dapat terus mengakses program, jika memilih button ya, maka user akan keluar dari aplikasi pembelajaran do’a sehari-hari, seperti pada tampilan dari image button exit berikut. Gambar 12 Tampilan Terakhir pada Games Setelah menekan tombol finish dan tampilan kembali pada tampilan menu, selanjutnya jika pengguna memilih tombol help maka akan muncul tampilan help berupa alert dialog dimana pada alert dialog ini dijelaskan secara detail fungsi dari masingmasing tombol yang terdapat pada aplikasi ini serta cara penggunaan aplikasi pembelajaran do’a sehari-hari secara ringkas dan jelas, berikut adalah gambar dari tampilan help: Gambar 14 Tampilan Exit SI-18 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 games alangkah baiknya jika aplikasi menggunakan penilaian berupa score tertinggi atau terendah dengan soal-soal latihan yang lebih banyak lagi untuk mengukur kemampuan pengguna dalam menjawab setiap pertanyaan dari aktifitas games. Untuk itu kritik dan saran sangat diperlukan bagi penulis untuk dapat mengembangkan aplikasi ini agar lebih baik lagi di masa yang akan datang. SIMPULAN DAN SARAN Kesimpulan Dari keseluruhan penulisan ini, dapat disimpulkan bahwa aplikasi mobile learning do’a harian untuk anak prasekolah berbasis android ini memberikan informasi dari do’a sehari-hari mengingat pentingnya berdo’a bagi setiap umat muslim bila hendak melakukan sesuatu dimanapun berada. Aplikasi ini memberikan tampilan do’a dengan tulisan arab dan latinnya, serta arti dari setiap do’a, tampilan background yang disesuaikan dengan anak-anak pada aplikasi ini digunakan untuk membantu semangat belajar anakanak yang juga dilengkapi dengan suara do’a dari do’a yang telah dipilih oleh pengguna. Uji coba aplikasi pembelajaran do’a seharihari untuk anak berbasis android ini paling optimal pada handphone android dengan layar 3.2 inchi yaitu pada Samsung Galaxy Gio S5660. Dengan aplikasi ini pengguna terutama para orang tua akan lebih praktis mendapatkan informasi tentang do’a sehari-hari untuk pembelajaran akan do’a sehari-hari bagi anakanak, karena hanya dengan genggaman ponsel yang dapat dibawa kemana saja dan kapan saja, pengguna dapat langsung menggunakan aplikasi tersebut. DAFTAR PUSTAKA [1] Agus Haryanto. Categories Android. http://agusharyanto.net/wordpress. 5 Juli 2011. [2] Safaat, Nazrudin. Pemrograman Aplikasi Mobile Smartphone dan Tablet PC Berbasis Android. Bandung: Informatika, 2011. [3] Michael, Ivan.Mengembangkan Aplikasi Enterprise Berbasis Android.Jakarta:Gava Media.2011. [4] Mulyadi.Membuat Aplikasi Untuk Android.Yogyakarta:Multimedia Center Publishing.2010. [5] Murphy, Mark L.Beginning Android.United States of America: Apress. 2009 [6] Sony Hanifudin. Review Android AppMuslim Kids:Kumpulan Doa Sehari-hari [7] http://www.jagatreview.com/2012 /01/review-android-appmuslim-kidskumpulan-doa-sehari-hari/. 25 Januari 2011. [8] URL: http://duniabaca.com/bacaan-doasehari-hari-islam-bahasa-arabindonesialengkap.html, 17 Mei 2011. [9] URL : http://tekno.kompas.com.,6 Mei 2012 Saran Aplikasi ini masih bisa dikembangkan lebih lanjut . Untuk membuat tampilan do’a lebih menarik, alangkah baiknya jika pada aplikasi ini dibuatkan teks berjalan berupa tulisan latin dari do’a yang sedang diputar guna memberikan kemudahan bagi anak-anak untuk tidak hanya membaca do’a, tetapi juga mempelajarinya. Selain itu untuk aktifitas SI-19 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember SI-019 (wahyu) SI-20 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember SI-020 (wahyu) SI-21 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember SI-021 (wahyu) SI-22 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember SI-022 (wahyu) SI-23 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember SI-024 (wahyu) SI-24 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember SI-026 (wahyu) SI-25 ISSN : 2302-7088 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 IMPLEMENTASI ALGORITMA PRIM DAN DEPTH FIRST SEARCH PADA PEMBUATAN MAZE GAME BERBASIS ANDROID OS MOBILE M Khoiril Anwar 1, Cucun Very Angkoso 2 , Arik Kurniawati 3 Jurusan Teknik Informatika, Fakultas Teknik, Universitas Trunojoyo Madura Jl. Raya Telang, PO. BOX. 2 Kamal, Bangkalan-Madura 1 [email protected],[email protected], [email protected] 1,2,3 Abstrak Teknologi mobile game beroperating system open source berkembang dengan sangat pesat. Operating system google android menjadi operating system yang sedang ramai dikembangkan para developer game. Karena keragaman variasinya, mobile game memiliki banyak peminat dari berbagai kalangan, hal inilah yang menjadi dasar bagi para pengembang untuk terus mengembangkan mobile game. Game yang sederhana/simple dengan target pengguna yang tidak dibatasi umur menjadi orientasi para pengembang game sehingga mampu menarik sebanyak mungkin pengguna. Pada penelitian ini dirancang sebuah maze mobile game berbasis operating system Android untuk mengasah kemampuan berfikir dikembangkan dengan mengimplementasikan algoritma Prim dan Depth First Search. Dalam perancangan game, algoritma Prim diterapkan untuk pembuatan lintasan dari maze sedangkan algoritma Depth First Search diterapkan pada saat melakukan proses pencarian solusi permasalahan dalam game. Dalam pengujian telah dilakukan pada beberapa perangkat mobile dan selanjutnya hasilnya dapat disimpulkan bahwa algoritma Prim dan Depth First Search dapat berfungsi dengan baik pada resolusi screen 320 x 480 pixels dalam pembentukan lintasan dan pencarian solusi dari maze. Kata kunci : Mobile Game, Android, Algoritma Prim, Algoritma Depth First Search. Abstract Mobile game technology with an open source operating system has grown rapidly. A Google Android is one of the most popular open source operating system which being intensively discuss among game developer. Mobile game has a lot of interest from various parties, because of the diversity of its variations. This is the basis for the developers to continue to develop mobile games. In this study, a mobile game to hone thinking ability has been developed to implement the algorithm Prim and Depth First Search. Game developing is starting with applying Prim algorithm at the time creating the track of the maze then the process go through by applying Depth First Search algorithm for searching the best solution of the game. From the experiment that was done, we can make a conclusion of the test results is that the algorithm Prim and Depth First Search can perform best when creating formation of the track and searching for the solutions of the maze at the screen resolutions of the mobile device with 320 x 480 pixels. Key words : Mobile Game, Android, Prim Algorithm, Depth First Search Algorithm. PENDAHULUAN Perkembangan teknologi game sangatlah pesat, tidak hanya pada komputer dan perangkat-perangkat yang khusus di desain untuk memainkan game seperti Playstation, X-box dan sejenisnya melainkan juga pada handphone. Kebanyakan orang memainkan game untuk menghilangkan stress dan mengisi MD-26 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember waktu luang. Karena handphone memiliki kepraktisan untuk dibawa kemana-mana dibandingkan dengan perangkat elektronik lainnya, maka saat ini telah banyak pihak yang berminat untuk mengembangkan fitur-fitur yang ada di handphone termasuk fitur game. Dalam pengembangan teknologi handphone, hal mendasar yang perlu di pertimbangkan adalah masalah operating system yang dipakai, karena sudah tentu suatu aplikasi tidak akan bisa berjalan di operating system yang berbeda, para pengembang pun sudah pasti memilih untuk memgembangkan suatu aplikasi pada handphone yang memiliki operating system yang dianggap terbaik. Operating system Android adalah operating system yang free dan open source. Hal inilah yang menjadi dasar perkembangan teknologi Android yang begitu pesat dibandingkan dengan teknologi-teknologi handphone yang lainnya. Pada proyek akhir ini, penulis ingin membuat sebuah aplikasi mobile game tentang permainan maze / labirin yang nantinya akan di implementasikan pada Android OS mobile. Game engine yang dipakai untuk membantu dalam pembuatan aplikasi ini adalah LIBGDX yaitu salah satu framework 2D dan 3D untuk Android yang berbasis OpenGL. LIBGDX di kembangkan oleh Badlogic games yang bersifat open sources dan menggunakan bahasa java sebagai bahasa pemrogramannya. Perumusan Masalah Dari latar belakang yang sudah dijelaskan sebelumnya dimunculkan sebuah masalah yaitu membuat sebuah maze game berbasis Android OS mobile dengan mengimplementasikan algoritma Prim dan Depth First Search. Tujuan Proyek 1. Dapat mengimplementasikan algoritma Prim pada pembentukan lintasan maze. 2. Dapat mengimplementasikan algoritma Depth First Search dalam ISSN : 2302-7088 pencarian solusi dari maze yang telah terbentuk. 3. Dapat mengimplementasikan maze game pada Android OS mobile. TEORI PENUNJANG Maze game Maze game adalah sebuah permainan yang bertujuan untuk mencari jalan keluar dari labirin / jalan yang membingungkan. Terdapat banyak sekali variasi dari maze game untuk membuatnya menjadi lebih menarik. Pada penelitian kali ini akan di buat sebuah maze game klasik yaitu pencarian jalan keluar dengan dibatasi oleh waktu tertentu yang nantinya akan diterapkan pada Android OS mobile. Di bawah ini adalah contoh tampilan lintasan dari maze game. Android Android adalah operating system untuk handphone yang berbasis Linux. Android menyediakan platform terbuka bagi para pengembang untuk menciptakan aplikasi mereka sendiri,Awalnya Google Inc. membeli Android Inc., pendatang baru yang membuat peranti lunak untuk ponsel. Kemudian untuk mengembangkan Android, dibentuklah Open Handset Alliance, konsorsium dari 34 perusahaan peranti keras, peranti lunak, dan telekomunikasi, termasuk Google, HTC, Intel, Motorola, Qualcomm, T-Mobile, dan Nvidia. Pada saat perilisan perdana Android, 5 November 2007, Android bersama Open Handset Alliance menyatakan mendukung pengembangan standar terbuka pada perangkat seluler. Di lain pihak, Google merilis kode–kode Android di bawah lisensi Apache, sebuah lisensi perangkat lunak dan standar terbuka perangkat seluler. Di dunia ini terdapat dua jenis distributor operating system Android. Pertama yang mendapat dukungan penuh dari Google atau Google Mail Services (GMS) dan kedua adalah yang benar– benar bebas distribusinya tanpa MD-27 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember dukungan langsung Google atau dikenal sebagai Open Handset Distribution (OHD) [1]. LIBGDX 4. LIBGDX adalah salah satu framework 2D&3D untuk Android yang berbasis OpenGL. LIBGDX ini dikembangkan oleh BadLogic Games dan bersifat Open Source dengan lisensi Apache 2.0 sehingga dapat digunakan untuk proyek game komersil. LIBGDX menggunakan bahasa Java sebagai bahasa pemrogramannya dan dapat berjalan di semua platform yang mendukung Java (Windows, Mac, Linux, Android). Saat ini LIBGDX telah mencapai versi 0.9.2 dan masih terus berlanjut perkembangannya didukung oleh komunitas yang sangat aktif [2]. ISSN : 2302-7088 a. Rusuk tersebut menghubungkan salah satu simpul V(T). b. Rusuk tersebut mempunyai bobot minimal. Ulangilah langkah tersebut (langkah 2-3) hingga diperoleh (n-1) rusuk dalam E(T) dengan n adalah banyaknya simpul dalam G. Algoritma Depth First Search Pencarian dengan algoritma Depth First Search (DFS) dilakukan dari node awal secara mendalam hingga yang paling akhir atau sampai ditemukan tujuan. Dengan kata lain simpul cabang atau anak terlebih dahulu yang dikunjungi. Sebagai ilustrasi dapat dilihat pada gambar 1. Algoritma Prim Algoritma Prim digunakan untuk mencari pohon pembangkit minimum dari graph terhubung berbobot dengan cara mengambil sisi / ruas garis yang memiliki bobot terkecil dari graph, dimana ruas garis tersebut bersisian dengan pohon terentang yang telah dibuat dan yang tidak membentuk siklus [3]. Untuk mencari pohon pembangkit minimum T dari graph G dengan Algoritma Prim dapat dilakukan dengan langkah-langkah sebagai berikut: 1. Ambilah satu simpul sembarang (misalnya v1 € G) dan masukkan simpul tersebut ke dalam graph T yang merupakan graph kosong. 2. Tambahkanlah satu rusuk yang terhubung dengan v dengan bobot yang paling minimum (misalnya e ) dan titik ujung lainnya ke T sehingga T terdiri dari sebuah rusuk e dan dua buah simpul yang merupakan titik-titik ujung dari rusuk e (salah satu titik ujung harus memuat simpul v ). 3. Pada langkah berikutnya, pilihlah sebuah rusuk dalam E(G) yang bukan E(T) dengan syarat yang harus dipenuhi sebagai berikut: Gambar 1 Pencarian dengan DFS ( Sumber: Pratiwi, 2011 ) Berdasarkan gambar, proses pencarian dilakukan dengan mengunjungi cabang terlebih dahulu hingga tiba di simpul terakhir. Jika tujuan yang diinginkan belum tercapai maka pencarian dilanjutkan ke cabang sebelumnya, turun ke bawah jika masih ada cabangnya. Begitu seterusnya sampai ditemukan tujuannya (goal). DFS memiliki kelebihan diantaranya adalah cepat mencapai kedalaman ruang pencarian. Jika diketahui lintasan solusi permasalahan akan panjang maka DFS tidak akan memboros waktu untuk melakukan sejumlah besar keadaan ‘dangkal’ dalam permasalahan graph / pohon. DFS jauh lebih efisien untuk ruang pencarian dengan banyak cabang karena tidak perlu mengevaluasi semua simpul pada suatu level tertentu [4]. MD-28 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember 4. Apabila sel menemui tembok atau wall, maka kembali ke sel sebelumnya. 5. Lakukan langkah-langkah ini sampai menemukan sel yang menjadi selesai atau pintu keluar. PERANCANGAN SISTEM Pada perancangan sistem menjelaskan tentang uraian dan bahan yang akan digunakan dan cara kerja system dalam tugas akhir implementasi algoritma Prim dan Depth First Search pada pembuatan maze game berbasis Android os mobile . Deskripsi Sistem Sistem ini dirancang dengan menggunakan software Android SDK, Eclipse dengan tambahan plugin ADT(Android development tools) untuk mengembangkan aplikasi Android dan LIBGDX sebagai frameworknya. Aplikasi yang dibuat berupa game labirin, dimana inti dari permainannya adalah menemukan jalan keluar dari labirin dengan waktu secepat cepatnya. Berikut adalah penerapan algoritma Prim dalam proses pembentukan maze: 1. Pilih random sel sebagai titik awal 2. Jadikan random sel tersebut sebagai titik mulai 3. Pilih random sel sebagai titik selesai 4. Jadikan tepi-tepi dari kotak lintasan sebagai wall 5. Pilih random sel tetangga 6. Jika sel yang terpilih kosong lakukan langkah 7, jika tidak ulangi langkah 4 7. Jadikan sel tetangga yang dipilih = path 8. Jadikan sel tetangga sebelah samping belakang path = wall 9. Ulangi langkah 5, 6, 7, 8 sampai tidak ada sel yang kosong Dalam pencarian solusinya, di gunakan algoritma Depth First Search, berikut algoritma penyelesaiannya : 1. Pilih titik mulai sebagai titik awal, akan dikenali sebagai current sel 2. Pilih secara acak sel terdekat yang bisa dikunjungi, sama seperti proses pembuatan maze. Hanya ada 4 gerakan yang diperbolehkan yaitu atas, bawah, kiri dan kanan. 3. Apabila sel belum pernah di datangi maka pindah current sel ke sel tersebut. Pilih lagi sel tetangga secara acak. ISSN : 2302-7088 Skenario Game Pada penelitian tugas akhir maze game ini skenario disusun berdasarkan waktu. 1. Pada level pertama dan kedua, waktu tidak dibatasi, jadi seorang player akan dituntut untuk mencari jalan keluar dengan waktu secepat cepatnya yang nantinya waktu tercepatlah yang akan ditulis di menu nilai tertinggi / highscore. 2. Pada level ketiga, waktu dibatasi hanya 1,5 menit.Jika dalam waktu 1,5 menit player dapat menemukan pintu keluar, maka player memenangkan permainan. 3. Sebaliknya, Jika dalam waktu 1,5 menit player tidak dapat menemukan pintu keluar dari labirin, maka player dinyatakan kalah. IMPLEMENTASI DAN ANALISIS Uji Coba Skenario Untuk memastikan bahwa sistem berjalan sebagaimana mestinya, penulis akan menyusun skenario yang akan diuji coba antara lain : 1. Pengujian dengan menggunakan emulator. 2. Pengujian dengan handphone android. Dalam bab ini dibahas mengenai skenario hasil uji coba yang telah dirancang oleh penulis. Uji coba dilakukan untuk mengetahui apakah sistem dapat berjalan sebagaimana mestinya dengan lingkungan uji coba yang telah ditentukan serta dilakukan sesuai dengan sekenario uji coba. Pengujian Dengan Emulator 1. MD-29 Main Menu Maze Game Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 Gambar 2 menampilkan menu utama dari maze game yaitu menu mulai, petunjuk dan pembuat Gambar 4 Nilai tertinggi Gambar 2 Main menu 2. Tampilan Pilih Level Jika tombol mulai pada gambar 2 diklik, maka akan muncul screen baru yaitu screen pilih level seperti di tunjukkan oleh gambar 3. 4. Level Pertama Gambar 5 menunjukkan level pertama dari maze game. Pada level pertama, ukuran dimensi dari labirin adalah 20 x 20 dengan waktu tak terbatas. Pada game ini terdapat menu ganti lintasan, lihat solusi,gerak otomatis dan menu utama. Jika menu gerak otomatis di klik, maka kotak hijau / player akan bergerak secara otomatis mencari jalan keluar dengan mengimplementasikan algoritma DFS. Gambar 3 Pilih Level Perbedaan antara level pertama,kedua dan ketiga adalah pada besar dimensi lintasan dan waktunya. Untuk level pertama, besar lintasannya adalah 20 x 20 sedangkan level kedua dan ketiga adalah 30 x 30. Pada level pertama dan kedua,waktu yang diberikan tidak terbatas, player dituntut untuk mencari jalan keluar dengan waktu secepatcepatnya agar bisa mengalahkan nilai tertinggi/highestscore. Sedangkan pada level ketiga, waktu dibatasi hanya 1,5 menit. Jika dalam waktu tersebut player tidak dapat menemukan jalan keluar, maka player dinyatakan kalah. Gambar 5 Level Pertama Level Kedua Gambar 6 menunjukkan level kedua dari maze game. Pada level kedua, ukuran dimensi dari labirin adalah 30 x 30 dengan waktu tak terbatas. Tiap level memiliki menu yang sama yaitu menu ganti lintasan, lihat solusi, gerak otomatis dan menu utama. Dengan waktu yang tak terbatas, seorang player berusaha menemukan jalan keluar dengan waktu secepat- cepatnya untuk di catat pada menu nilai tertinggi. 3. Tampilan Nilai Tertinggi Waktu terbaik akan dicatat tiap level pada menu nilai tertinggi. Seperti di tunjukkan pada gambar 4. MD-30 5. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 algoritma Depth First Search. Seperti di tunjukkan pada gambar 9. Gambar 6 Level Kedua 6. Level Ketiga Gambar 7 menunjukkan level ketiga dari maze game. Pada level ketiga, ukuran dimensi dari labirin adalah 30 x 30 dengan waktu yang dibatasi hanya dengan 1,5 menit. Jika dalam waktu tersebut seorang player tidak dapat menemukan jalan keluar, maka player dinyatakan kalah. Gambar 9 Tampilan gerak otomatis Pengujian Dengan Handphone Untuk pengujian pertama digunakan handphone Samsung Galaxy Ace dengan resolusi 480 x 320 pixels, Android versi 2.3.4. 1. Main Menu Maze Game Pada Samsung Untuk main menu dapat tampil dengan normal seperti di tunjukkan oleh gambar 10. Semua menu dapat berfungsi dengan baik, mulai dari menu mulai, menu petunjuk dan menu pembuat. Tampilan pada main menu sesuai dengan tampilan yang ada di emulator. . Gambar 7 Level ketiga 7. Menu Petunjuk Gambar 8 menunjukkan menu petunjuk dari maze game. Pada menu ini akan ditampilkan informasi mengenai aturan dan bagaimana cara memainkan maze game ini. Gambar 10 Main menu pada Samsung galaxy ace Gambar 8 Menu Petunjuk 8. Tampilan Gerak Otomatis Jika menu solusi otomatis diklik maka player akan bergerak secara otomatis mencari jalan keluar dengan menerapkan 2. Tampilan Maze Game Pada Samsung Pada pengujian dengan menggunakan handphone Samsung galaxy ace, pembentukan lintasan dari maze game dengan mengimplementasikan algoritma Prim dapat berjalan dengan baik seperti di tunjukkan pada gambar 11. 3. Tampilan Gerak Otomatis Pada Samsung MD-31 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Jika menu solusi otomatis diklik maka player akan bergerak secara otomatis mencari jalan keluar dengan menerapkan algoritma Depth First Search seperti di tunjukkan pada gambar 12. ISSN : 2302-7088 dengan resolusi yang berbeda. Semua menu dapat berfungsi dengan baik, mulai dari menu mulai, menu petunjuk dan menu pembuat. Tampilan pada main menu sesuai dengan tampilan yang ada di emulator. 2. Tampilan Pilih Level Pada Motorola Pada tampilan pilih level, tampilan hanya muncul pada sisi pojok bawah sebelah kiri seperti di tunjukkan oleh gambar 14. Menu-menu yang ada pada tampilan pilih level tidak bisa berjalan dengan baik. Gambar 11 maze game pada Samsung galaxy ace Gambar 14 Pilih level pada Motorola Gambar 12 Solusi otomatis pada Samsung galaxy ace Untuk pengujian kedua digunakan handphone Motorola droid X dengan resolusi 840 x 420 pixels, Android versi 2.3.3. 2. Main Menu Maze Game Pada Motorola 3. Tampilan Maze Game Pada Motorola Sama seperti tampilan pilih level, tampilan maze game juga hanya muncul pada sisi pojok bawah sebelah kiri dengan tombol-tombol menu semuanya tidak berfungsi. Seperti di tunjukkan pada gambar 15. Gambar 13 Main menu pada Motorola Gambar 13 menunjukkan tampilan main menu dari maze game. Untuk tampilan main menu dapat berjalan dengan baik sesuai harapan walau MD-32 Gambar 15 Maze Game pada Motorola 4. Tampilan Motorola Menu Petunjuk Pada Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Tampilan menu petunjuk hanya berada pada sisi pojok bawah sebelah kiri dengan tombol-tombol menu tidak berfungsi dengan baik. Seperti di tunjukkan pada gambar 16. ISSN : 2302-7088 Tabel 2 Spesifikasi untuk maze game Type Processor RAM Resolusi Screen OS Requirements 800 MHz 278MB 320 x 480 pixels Android 2.3 Gingerbread KESIMPULAN Gambar 16 Petunjuk pada Motorola ANALISA HASIL UJI COBA Setelah dilakukan uji coba dengan beberapa perangkat dapat dijelaskan pada Tabel 1 di bawah ini. Tabel 1 Perbedaan resolusi screen Algori tma DFS (Pen carian solusi) Tipe Smart phone Resolu si Screen Tampil an Algoritm a Prim (Generat e Labirin) Emulat or Samsun g Galaxy Ace Motorol a Droid X 320 480 sesuai sesuai sesuai 320 x 480 pixels sesuai sesuai sesuai 420 x 820 pixels Tidak sesuai Tidak sesuai Tidak sesuai x Dari hasil pengujian dan analisa pada bab sebelumnya maka diambil kesimpulan 1. Dari hasil pengujian dan analisa maze game dapat berjalan dengan baik pada smartphone android yang memiliki resolusi screen 320 x 480 pixels. Aplikasi game ini masih belum bisa berjalan lancar pada tipe smartphone android yang memiliki resolusi screen lebih besar dari 320 x 480 pixels. 2. Algoritma Prim dapat berfungsi dengan baik dalam pembentukan lintasan dari labirin pada handphone dengan resolusi 320 x 480 pixels. 3. Algoritma DFS dapat berfungsi dengan baik dalam pencarian jalan keluar dari labirin yang telah terbentuk pada handphone dengan resolusi 320 x 480 pixels. DAFTAR PUSTAKA Setelah dicoba ternyata smartphone android tipe Motorola Droid X dengan resolusi 420 x 820 pixels tidak bisa menjalankan perangkat lunak ini dengan sempurna (tampilan game hanya berada di pojok bawah sebelah kiri). Karena dalam pembuatannya sangat ditentukan oleh koordinat. Perubahan ukuran layar dapat membuat game tidak berjalan dengan semestinya. Berdasarkan hasil pengujian, “maze game” membutuhkan standart spesifikasi untuk dapat berjalan dengan baik. Untuk lebih jelas melihat spesifikasi tersebut daapt dilihat pada tabel 2 MD-33 [1] Bernard Y.A. Arti Android beserta fasilitas yang ada di dalamnya. April 2011. URL: http://www.infoteknologi .com/selular/apa-itu-Android/. Diakses tanggal 14 Desember 2011. [2] Zechner M. Introduction. Agustus 2011.URL:http://code.google.co m/p/libgdx/wiki/Introduction. Diakses tanggal 14 Desember 2011. [3] Emut. Aplikasi algoritma Prim dalam menentukan pohon pembangkit minimum pada suatu Graph. Pendidikan Matematika. Universitas Negeri Yogyakarta. 1: 3-5. 2008 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember [4] Pratiwi E.A., Efendi R dan Malik R.F. Penyelesaian Game Puzzle Hashiwokakero dengan teknik MD-34 ISSN : 2302-7088 Solving Hashi dan Depth First Search. Teknik Informatika. Universitas Sriwijaya. 1: 2. 2011 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember ISSN : 2302-7088 APLIKASI EDITOR SKENARIO UNTUK PROSES PRODUKSI FILM Nelly Oktavia Adiwijaya Program Studi Sistem Informasi, Universitas Jember E-mail: [email protected] Abstrak Dukungan teknologi dan sistem komputer dalam suatu pekerjaan sangat diperlukan begitu pula dalam proses produksi film. Pengembangan sistem informasi untuk tahapan produksi film dapat membantu memudahkan para pekerja tim produksi film menyelesaikan tugasnya dan menyajikan hasilnya.Editor skenario merupakan suatu aplikasi yang dapat membantu seorang penulis skenario mengetik ide kreatif skenario untuk sebuah film. Permasalahan pada penelitian ini adalah, editor skenario ini mampu menyediakan tool pemformatan khusus skenario film yang tidak didapatkan pada aplikasi editor teks biasa. Aplikasi editor skenario ini dibuat berbasis web yang dapat dijalankan menggunakan web browser. Hasil penelitian ini dapat membantu melancarkan dan memudahkan para penulis skenario dalam menuangkan idenya tanpa harus direpotkan dengan pemformatan yang harus memenuhi aturan penulisan skenario film. Fitur pemformatan dalam aplikasi editor skenario ini dapat digunakan dengan langsung memilih jenis format sesuai kategori yang akan digunakan, sehingga proses penulisan skenario sekaligus pemformatannya dapat dilakukan secara mudah dan cepat. Kata kunci: Sistem Informasi, produksi film, editor skenario Abstract Technology support and computer system in a completing various job(s) is needed as well as in the film production process. Development of information system for movie production stages can help the film production team to complete their task and to present the result. Scenario editor is an application that is useful to the screenwriter(s) which help them to type their creative ideas in film making. In this research, we propose scenario editor with screenplay tool and format which is not found in ordinary text application. This application is web-based. Moreover, this application facilitate the writers in expressing their ideas without having bothered with the screenplay writing format. Formatting features in this application can be used to directly select the category format, therefore the process of screenplay writing as well as text formatting can be done easily and quickly. Key words: Information system, film production, scenario editor PENDAHULUAN Proses produksi film memiliki empat fase tahapan besar, yaitu development, praproduksi, produksi, dan post-produksi (Cleve, 2006). Dalam fase pertama, produser menyiapkan dan memahami suatu ide untuk film kemudian dikembangkan menjadi paket rapi dan mencoba untuk meningkatkan produksi dana untuk mendapatkan proyek menjadi praproduksi. Pada tahap development ini pula sebuah skenario disiapkan. Permasalahan yang dihadapi penulis skenario khususnya di Indonesia adalah tool untuk menulis. Studi kunjungan pernah dilakukan ke studio animasi Kojo Anima di Bandung. Proses pembuatan film animasi 3D secara umum sama dengan proses pembuatan film pada umumnya, perbedaannya adalah pada bagian produksinya tidak dilakukan syuting dengan pemeran film tapi dengan membuat animasi digital. Untuk proses development dan pra produksi khususnya pemnyusunan skenario, mereka masih menggunakan cara manual untuk penulisan skenario dan pemformatannya, serta pengalokasian waktu untuk masing-masing adegan masih dihitung manual. Pada saat diajukan perancangan untuk MD-35 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember aplikasi editor skenario, respon yang didapat sangat baik. Wawancara juga dilakukan terhadap penulis scenario Indonesia, Salman Aristo, yaitu bagaimana seorang scriptwriter melakukan pekerjaannya. Dari hasil wawancara yang dilakukan di Jakarta pada saat acara Indonesia International Fantastic Film Festival, Salman Aristo mengatakan bahwa menulis skenario bisa muncul kapan saja dan sebisanya langsung dituangkan agar ide yang muncul tidak lupa. Kendalanya adalah penulisan skenario mempunyai aturan pemformatan tersendiri. Pemformatan skenario cukup banyak dan untuk menghindari hilangnya ide, penulisan dilakukan secara langsung tanpa format, baru kemudian ditata ulang sesuai dengan format baku. Saat ditanyakan tentang perlu tidaknya disediakan tool yang dapat membantu pekerjaannya menulis, tanggapannya adalah, sangat perlu. Tool yang ada yang pernah dipakai, masih sangat mahal dan kekurangannya adalah harus diinstal terlebih dahulu dan menggunakan format tersendiri untuk hasil penyimpanan filenya. Ketika file skenario tersebut dikirim atau dibuka dalam computer lain maka computer tersebut harus pula menginstal software editor skenario tersebut. Dari hasil wawancara dan kunjungan studi tersebut, maka penelitian ini dilakukan dengan permasalahan bagaimana seorang penulis skenario dapat menulis skenario dengan menggunakan suatu aplikasi yang otomatis menyediakan fitur-fitur khusus dalam pemformatan skenario film. Tujuan penelitian ini adalah merancang dan mengimplementasikan suatu aplikasi berbasis web untuk editor skenario. Harapannya disini adalah dapat membantu mempermudah pekerjaan penulis skenario dalam menuliskan idenya menjadi sebuah skenario. Aplikasi ini dilengkapi dengan tool formatting serta berbasis web sehigga dapat dibuka dari browser dan tidak harus menginstal di setiap computer untuk membuka file yang tersimpan. FORMAT SKENARIO FILM Format dari screenplay atau skenario adalah sebuah penyajian secara seksama apa yang terjadi dalam setiap adegan dalam setiap scene. Manager produksi dapat mengidentifikasi elemen-elemen dalam skrip (karakter, lokasi/background, props, dll) yang ISSN : 2302-7088 akan berpengaruh pada jadwal dan dana, para actor juga dapat menemukan tugas dan posisinya dengan mudah, dan sutradara akan mempunyai sebuah blueprint dimana dia dapat membuat shooting script. Pengaturan formatnya adalah sebagai berikut (Antonini.L, 2005): 1. Aturan 1 – teks hitam pada kertas berukuran 8.5” x 11” atau seukuran dengan kertas kwarto 2. Aturan 2 – font Courier 12pt 3. Aturan 3 – rule 1 dan rule 2 tidak boleh dilanggar 4. Aturan 4 – Margin : Untuk setiap halaman (dapat bervariasi, namun harus standar pada keseluruhan skrip): - left margin = 1.5” dan right margin = 1.0”; - top margin = 1.0” dan bottom margin = 1.0”. Margin kiri lebih besar untuk area penjilid-an, dapat juga disamakan semua ukuran margin. Untuk kata-kata dalam setiap halaman, pemenggalan baris dan deskripsi scene adalah rata kiri dan kanan. Dialog mempunyai left margin = 2.5” dan right margin = 2.5” Nama karakter di atas dialog yang berkaitan mempunyai left margin = 3.5” Parenthetical direction (arahan) dalam dialog mempunyai left margin dan right margin sebesar 3”. Transisi scene seperti CUT TO dan FADE OUT mempunyai left margin 6” atau rata kanan. 5. Aturan 5 – nomor halaman. Diletakkan di pojok kanan atas halaman. Halaman pertama tanpa nomor halaman, dimulai dari halaman kedua. Hal umum dan bermanfaat adalah meletakkan periode setelah nomor halaman untuk menghindari kebingungan dengan nomor scene. 6. Aturan 6 – SPASI, deskripsi scene dan blok dialog berspasi satu/single. Semua yang lain dipisah oleh spasi ganda. 7. Aturan 7 – NOMOR SCENE, untuk sebuah shooting script yang ditujukan untuk memberi catatan khusus, maka harus diberi nomor scene. Nomor scene adalah berurut dimulai dari 1 dan ditempatkan pada baris yang sama dengan judul scene, baik di kanan dan di MD-36 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember kiri. Ketika sebuah scene ditambahkan diantara scene yang telah ada, scene tersebut diberi label sama yang kemudian diikuti dengan A (kemudian B jika ada tambahan lagi). Scene yang dihilangkan masih disajikan dalam shooting script dengan diberi tanda pada nomor scene yaitu dengan kata “OMIT”. Hal ini untuk memberi tahu setiap orang tentang adanya perubahan yang terjadi. 8. Aturan 8 – JUDUL SCENE, untuk setiap scene baru- misalnya ketika ada perubahan lokasi dalam action (fisik atau sementara), ada sebuah judul scene baru. Judul menyatakan 3 hal yaitu Setting, Lokasi dan Time of Day. Semuanya selalu ditulis capital. Contoh: INT. KIT’S CLASSROOM – NIGHT (setting) (lokasi) (Time of Day) SETTING: Ada 2 pilihan yaitu INT (interior) dan EXT (exterior). Semua yang tertutup masuk dalam INT, semua yang berada di luar masuk dalam EXT. LOKASI: dua spasi kemudian nama lokasi singkat, menjelaskan tipe tempat yang digunakan. TIME OF DAY: selalu ada strip antara lokasi dan time of day. Secara umum dinyatakan sebagai DAY atau NIGHT walaupun sedang fajar atau senja- jika diperlukan penjelasan tambahan letakkan dalam deskripsi scene. 9. Aturan 9 – SCENE BREAK, setiap rangkaian (kumpulan scene yang memuat klimaks action) diakhiri dengan sebuah scene break. Hal ini membantu anda mempercepat ritme cerita anda. Secara umum digunakan hal berikut dan tempatkan di margin kanan: CUT TO: dan 2 baris kosong berarti sangat sedikit waktu dipakai. DISSOLVE TO: dan 2 baris kosong berarti beberapa waktu dipakai. FADE OUT: dan 2 baris kosong berarti banyak waktu dipakai. 10. Aturan 10 – CONTINUED atau CONT’D, digunakan ketika baris karakter atau deskripsi scene harus muncul pada halaman berikutnya. Gunakan CONT’D pada bagian bawah halaman, rata kanan; dapat juga ditambahkan CONT’D pada bagian atas halaman berikutnya, rata kiri. ISSN : 2302-7088 11. Aturan 11 – DESKRIPSI SCENE, menyatakan apa yang dilakukan karakter, relasi terhadap yang lain dan lingkungannya. Juga dapat untuk menjelaskan karakter. Terlalu banyak detail akan memperlambat kecepatan pembaca. Buatlah tepat dan lancar. Semua diberi spasi tunggal. Ketika memperkenalkan karakter baru dalam skenario, nama karakter ditulis dalam huruf kapital. Hanya sekali, hal ini akan memberi tanda pada pembaca bahwa karakter tersebut adalah baru. Juga tulis dalam kapital untuk props dan suara penting. Dalam scenario dihindari deskripsi arahan kamera. 12. Aturan 12 – DIALOG, nama karakter selalu dalam huruf capital. Jika karakter tidak tampak dalam scene, dapat ditambahkan sebuah vocal arahan yang selalu ada dalam parenthesis dan mengikuti nama aktor – (Off screen) (Voice over). Di bawah nama karakter dalam parenthesis dapat ditambahkan arahan khusus untuk karakter tersebut. Catatan, hal ini hanya dilakukan ketika benarbenar dibutuhkan untuk menyoroti sebuah kesan emosional atau aksi spesifik plot. Contoh: (Shaking) atau (cracking gum). Kemudian diberi pindah baris lalu menuliskan dialog menggunakan margin dari Aturan 3. Jangan pernah menuliskan nama karakter di bagian paling bawah halaman lalu dialognya pada halaman berikutnya. 13. Aturan 13 – JUDUL HALAMAN, berada di tengah sekitar 1/3 bagian halaman ke bawah kemudian 4-6 baris ke bawah, masih rata tengah. Pada bagian bawah, sudut kanan harus ada nama orang/perusahaan yang mengeluarkan skenario tersebut dilengkapi dengan kontak informasi. TinyMCE Pada pembuatan aplikasi editor skenario ini, digunakan engine TinyMCE. TinyMCE adalah platform editor WYSIWYG kontrol berbasis web independen Javascript HTML yang dirilis sebagai Open Source di bawah LGPL oleh Moxiecode Sistem AB. Memiliki kemampuan untuk mengkonversi field HTML textarea atau elemen HTML lain menjadi MD-37 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember obyek editor. TinyMCE sangat mudah untuk diintegrasikan ke dalam Sistem Manajemen Konten lainnya. ISSN : 2302-7088 Spesifikasi Kebutuhan Sistem Komputer Pentium dengan RAM 128MB untuk menjalankan web browser, kapasitas memori utama (Hard Disk) 1GB. Web browser untuk membuka aplikasi, lebih disarankan menggunakan Opera untuk mendukung kemampuan tampilan aplikasi. Basis data MySQL 5.0 yang bersifat freeware. Pemodelan sistem Secara garis besar aliran kerja proses pada aplikasi editor skenario dapat digambarkan dalam blok diagram dan sequence diagram seperti pada gambar 2 dan gambar 3 berikut Gambar 1. Contoh skenario dengan format standar Fitur TinyMCE: - mudah diintegrasi, hanya diperlukan beberapa baris kode saja untuk mengintegrasikannya; - dapat dikustomisasi, theme dan plugin, elemen-elemen blok yang tidak sah dan elemen atribut; - browserfriendly, dapat menggunakan browser Mozilla, MSIE, FireFox, Opera, Safari dan Chrome; - mendukung teknologi AJAX, dapat menggunakan teknologi ajax dengan mudah untuk menyimpan dan memanggil isi; - internasional, mendukung berbagai bahasa menggunakan paket language; - opensource, free di bawah lisensi LGPL (AB.M.S, 2009). Gambar 2. Blok diagram editor skenario Sequence diagram digunakan untuk menggambarkan rangkaian langkah yang dilakukan sebagai respon dari sebuah event untuk menghasilkan keluaran tertentu (Donald.B, 2003). Sequence diagram diawali dari apa yang memicu aktifitas tersebut, proses dan perubahan apa saja yang terjadi secara internal dan keluaran apa yang dihasilkan. aplikasi editor skenario editor control database : penulis skenario 1 : buka aplikasi() 2 : request page() 3 : tampilkan halaman() 4 : buat skenario() 5 : kirim data() ANALISIS KEBUTUHAN SISTEM DAN PERANCANGAN 6 : tag komponen skenario() 7 : simpan data() 8 : kirim data() 9 : simpan data() Kebutuhan fungsional aplikasi editor skenario: 1. Sistem mampu menyediakan tempat bagi penulis skenario untuk menulis skenario; 2. Editor skenario dilengkapi tool pemformatan sesuai standar penulisan skenario; Gambar 3. Sequence diagram penulisan skenario Implementasi Implementasi dari perancangan system menggunakan perangkat implementasi sebagai berikut: MD-38 Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember Perangkat Lunak Untuk mendukung pembuatan aplikasi sistem, digunakan beberapa software sebagai berikut. 1. Bahasa pemrograman, digunakan bahasa pemrograman PHP 5.2.4 sebagai script server, Javascript sebagai script dinamis client, CSS sebagai script style. 2. Web Design, dalam membuat desain tampilan ini digunakan Adobe Photoshop CS3 dan digunakan Adobe Dreamweaver CS3 serta microsoft Frontpage 2003 tergantung dari kebutuhan auto licence pada saat melakukan coding script. 3. Basis data, basis data yang dipakai adalah aplikasi MySQL 5.0 yang bersifat freeware. Dengan editor MyDeveloper Studio memudahkan dalam perancangan dan pembangunan database. 4. Web server, web server yang digunakan adalah Apache 2.2.6 dengan sisitem operasi yang digunakan adalah Windows XP. 5. Web browser, web browser yang dipakai adalah Opera 9. Perangkat keras Lingkungan perangkat keras yang digunakan dalam pengimplementasian sistem berspesifikasi: 1. processor Intel Pentium Dual Core 1.7 Ghz; 2. RAM 1024 MB Tampilan Antarmuka Antarmuka pengguna atau yang biasa disebut user interface merupakan bentuk tampilan grafis yang berhubungan langsung dengan pengguna (user). Antarmuka berfungsi untuk menghubungkan informasi antara pengguna dengan sistem, sehingga tersebut dapat digunakan. Pada gambar 4 merupakan antarmuka untuk editor skenario. ISSN : 2302-7088 Gambar 4. Antarmuka editor skenario Penulis mengharapkan penelitian ini dapat dikembangkan lebih lanjut, diantaranya: 1. Kemampuan aplikasi yang didukung dengan fasilitas resume komponen dan kategori dalam sebuah scenario film, untuk kemudahan dalam pelaksanaan tahapan produksi film berikutnya yaitu pra produksi. 2. Kemampuan aplikasi untuk mencetak dokumen scenario misalnya ke dalam bentuk PDF atau berdasarkan filter scene. DAFTAR REFERENSI KESIMPULAN DAN SARAN Berdasarkan hasil perancangan serta implementasi aplikasi editor scenario film, dapat diperoleh kesimpulan sebagai berikut: 1. Aplikasi editor scenario ini mampu memberikan fitur pemformatan khusus penulisan scenario yang mudah digunakan. 2. Aplikasi editor scenario ini dijalankan melalui web browser untuk kemudahan penggunaannya. MD-39 [1] AB, M. S., http://tinymce.moxiecode. com/index.php, 27 januari 2009 [2] Antonini, L. (2005), 4 Juni 2009, Screenplay Formatting, http://www.mediachops.com/producer_ch ops/1_Production_Cycle/PDFs/screenplay _formatting.pdf [3] Bell, Donald. (2003). UML Basics:An introduction to the Unified Modeling Language. http://www.ibm.com/developerworks/ratio nal/library/769.html . 3 Agustus 2012 [4] Cleve, B. (2006). Film Production Management 3rd ed. USA: Focal Press. Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012) Bangkalan, 13-14 Nopember MD-005 (not yet) MD-40 ISSN : 2302-7088