Download all paper senastik 2012 - Universitas Trunojoyo Madura

Document related concepts
no text concepts found
Transcript
DAFTAR ISI
RINGKASAN MULTI DOKUMEN BERBASIS ISI DENGAN ..................................................................... 1
PENGKLASTER SEKUENSIAL DAN ALGORITMA GENETIKA .............................................................. 1
*
Dewi Yanti Liliana, **Tiara Arinta Dewi ..................................................................................................... 1
PENENTUAN RUTE TERPENDEK BERSEPEDA ........................................................................................ 7
DI AREA KOTA MALANG MENGGUNAKAN ALGORITMA SEMUT ..................................................... 7
Dian Eka Ratnawati, Sindy Yudi Prakoso, Yusi Tyroni Mursityo ................................................................ 7
PENJADWALAN FLOWSHOP ..................................................................................................................... 14
DENGAN METODE HEURISTIK MULTIPLE OBJECTIVE TERBOBOTI ............................................... 14
Dyah Herawatie, Eto Wuryanto .................................................................................................................. 14
i
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Komputasi Cerdas
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
RINGKASAN MULTI DOKUMEN BERBASIS ISI DENGAN
PENGKLASTER SEKUENSIAL DAN ALGORITMA GENETIKA
*Dewi Yanti Liliana, **Tiara Arinta Dewi
Program Studi Ilmu Komputer, Program Teknologi Informasi dan Ilmu Komputer, Universitas
Brawijaya, Jl. Veteran Malang, Jawa Timur, 65141
E-mail: *[email protected]
Abstrak
Peringkasan dokumen diperlukan untuk mengekstrak intisari atau bagian penting dari
keseluruhan dokumen untuk mempermudah menangkap informasi yang disampaikan
pada suatu dokumen tunggal. Permasalahan yang dihadapi adalah bagaimana jika
pengguna menginginkan ringkasan informasi dari berbagai dokumen (ringkasan multi
dokumen). Berbagai macam dokumen tidak dapat diringkas menjadi satu, hanya
dokumen-dokumen yang memiliki kesamaan isi yang dapat menghasilkan satu
ringkasan. Untuk itu sebelum diringkas, dokumen-dokumen tersebut dikelompokkan
terlebih dahulu menggunakan algoritma pengklaster sekuensial. Selanjutnya
peringkasan dokumen dilakukan dengan ekstraksi kalimat dan perangkingan berbasis
algoritma genetika. Ekstraksi kalimat berfungsi untuk mengidentifikasi kalimatkalimat penting berdasarkan fitur-fitur yang ditentukan, dan dari nilai fitur tersebut
kalimat akan dirangking secara optimal dengan algoritma genetika. Hasil dari
ringkasan tiap dokumen dalam satu klaster digabung menjadi satu ringkasan.
Penelitian ini diujikan pada beberapa klaster dokumen dengan ukuran ringkasan 25%,
50%, dan 75%. Berdasarkan pengujian yang dilakukan dihasilkan rata-rata precision
0.710491, rata-rata recall 0.70388, dan rata-rata F-measure yang merepresentasikan
akurasi sistem 0.7069. Dengan akurasi yang dihasilkan maka metode yang diusulkan
dapat membantu memperoleh ringkasan infomasi secara efektif.
Kata kunci: algoritma genetika, ekstraksi fitur, pengklaster sekuensial, peringkasan
multi dokumen
Abstract
Document summarization is required to extract the essential part of the whole
document to facilitate the capture of information presented in a single document. The
problem faced is what if the user wants to summarize from the various documents
(multi-document summarization). Various kinds of documents cannot be condensed
into one, only documents that have similar content can generate a summary. For that
reason before summarized, these documents are grouped first using sequential
clustering algorithms. Furthermore document summarization is done by sentence
extraction and ranked-based genetic algorithms. Sentence extraction serves to identify
important sentences based on determined features, and the value of those features will
rank sentences optimally with genetic algorithms. The result of a summary of each
document in the cluster is combined into a single summary. This study tested on
several clustering documents with a summary measure of 25%, 50%, and 75%. Based
on tests performed its yield 0.710491 average precision, average recall 0.70388, and
the average F-measure system accuracy representing 0.7069. With the resulting
accuracy of the proposed method can help to obtain an information summary
effectively.
Key words: genetic algorithms, feature extraction, sequential clustering, multi
documents summarization
SI- 1
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
masukan. Sebelum diringkas dokumendokumen
masukan
tersebut
akan
dikelompokkan
terlebih
dahulu.
Pengelompokkan
dokumen
dilakukan
berdasarkan kesamaan konten yang dimiliki
karena hanya dokumen yang memiliki banyak
kesamaan konten yang dapat diringkas
menjadi satu [2]. Pengelompokkan dilakukan
menggunakan metode pengklaster sekuensial.
Selanjutnya, peringkasan untuk masingmasing dokumen dilakukan dalam dua bagian
yaitu ekstraksi kalimat dan perangkingan
kalimat berbasis algoritma genetika. Hasil dari
ringkasan tiap dokumen akan digabung. Proses
penggabungan dilakukan terhadap ringkasan
suatu dokumen dengan ringkasan dokumen
lain dalam satu klaster, sehingga dihasilkan
teks ringkasan gabungan untuk multi
dokumen. Dokumen-dokumen yang berada
dalam satu klaster akan menghasilkan sebuah
ringkasan, jadi jumlah ringkasan sama dengan
jumlah klaster. Hasil ringkasan multi dokumen
akan dievaluasi menggunakan tiga parameter
yaitu precision, recall, dan F-measure [6].
PENDAHULUAN
Perkembangan informasi online menjadi
media yang semakin penting untuk
menemukan dan merepresentasikan informasi
tekstual. Mengingat dokumen teks sekarang ini
begitu banyak, maka diperlukan suatu cara
yang mudah untuk mendapatkan informasi
yang dibutuhkan. Salah satu cara yang dapat
ditempuh adalah dengan meringkas dokumen
[1].
Tersedianya sumber informasi yang tidak
terbatas mengakibatkan perolehan sumber
informasi dan pertukaran data berupa teks
melibatkan banyak sumber informasi sehingga
memicu
penelitian
mengenai
metode
peringkasan dokumen yang semula ditujukan
untuk membuat sebuah ringkasan dari
dokumen tunggal menjadi metode peringkasan
multi dokumen [2].
Dokumen-dokumen yang akan diringkas
menjadi satu harus memiliki keterkaitan topik
atau isi [3, 4]. Untuk itu, sebelum diringkas
dokumen-dokumen tersebut dikelompokkan
terlebih dahulu sesuai kesamaan konten, dalam
penelitian ini menggunakan Pengklaster
sekuensial. Kemudian, dokumen diekstrak
menggunakan enam fitur [3]. Hasil dari
ekstraksi kalimat akan dirangking untuk
menentukan
kalimat-kalimat
penting.
Perangkingan kalimat dilakukan dengan
pendekatan algoritma genetika. Algoritma
genetika dapat bekerja secara optimal untuk
mengolah keenam nilai tersebut agar menjadi
satu nilai tunggal dimana semua nilai fitur
dapat terpenuhi bersamaan. Dengan nilai
tunggal yang dihasilkan, kalimat dapat
diurutkan dari yang paling besar nilainya.
Nilai mengindikasikan tingkat kepentingan
kalimat. Dengan adanya ringkasan, diharapkan
pengguna dapat dengan mudah memahami
makna sebuah teks tanpa harus membaca
keseluruhan teks.
A. Pengklaster sekuensial
Perhitungan
pengklaster
sekuensial
menggunakan nilai TF.IDF yang telah
dinormalisasi dan cosine similarity. TF.IDF
adalah perkalian antara term frequency dengan
inverse document frequency.Variabel TF
merupakan jumlah suatu term/kata dalam
suatu dokumen, sedangkan IDF merupakan
invers document frequency dari sebuah
term/kata. Dengan menggunakan bobot TFIDF, sebuah dokumen dapat dimodelkan
sebagai sebuah vektor. Dokumen Di dapat
dimodelkan atas komponen Ti sehingga jika
seluruh dokumen dikumpulkan maka akan
terbentuk matriks term-dokumen dengan bobot
term/TF-IDF sebagai nilainya.
Tahapan proses pengklaster sebagai berikut :
1. Masukan dari proses ini adalah
kumpulan dokumen hasil praproses.
2. Inisialisasi nilai threshold kemiripan =
0.085 (pengesetan awal berasal dari
ujicoba) dan Smax = 0.
3. Untuk setiap dokumen dilakukan
perhitungan
kemiripan
dengan
dokumen yang telah terklaster.
4. Sebelum
dilakukan
perhitungan
kemiripan, dilakukan pengecekan pada
klaster ke-1. Jika klaster ke-1 kosong
maka
dokumen
ke-i
langsung
dimasukkan pada klaster 1 .
DESAIN SISTEM
Sistem akan menerima input beberapa
dokumen berbahasa Inggris dari user
kemudian dokumen-dokumen tersebut akan
diproses melalui beberapa tahapan untuk
menghasilkan ringkasan yang merupakan
intisari dari dokumen-dokumen masukan.
Pertama,
sistem
akan
melakukan
preprocessing terhadap dokumen-dokumen
CI - 2
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
5. Nilai Smax dihitung dari maksimum
nilai kemiripan dokumen ke-i dengan
dokumen lain yang sudah terklaster.
6. Jika nilai Smax lebih besar daripada
nilai threshold maka dokumen ke-i
dimasukkan
pada
klaster
yang
bersesuaian.
7. Jika nilai Smax lebih besar daripada
nilai threshold maka dokumen ke-i
dimasukkan
pada
klaster
yang
bersesuain.
8. Jika nilai Smax kurang dari threshold
maka dokumen dimasukkan pada
klaster baru.
9. Dilakukan sampai semua dokumen
terklaster
Perhitungan fitur ini ditunjukkan dengan
persamaan berikut:
=
∑
!" #∑
# $ %%
(2)
3. Fitur Kemiripan Kalimat (F3)
Fitur ini merupakan kesamaan antar kalimat.
Untuk tiap kalimat S, kemiripan antara S dan
tiap kalimat lain dihitung menggunakan cosine
similarity Bobot kata TS.ISFi dan TS.ISFj dari
kata t sampai n pada kalimat Si dan Sj
direpresentasikan oleh vektor. Kemiripan tiap
kalimat ditunjukkan oleh persamaan berikut :
∑ + & × )
&' # & , ) % =
,∑ + & × ,∑ + )
-=
B. Ekstraksi Kalimat
Sebelum melakukan ekstraksi kalimat,
dokumen dipecah menjadi tiap kalimat. Setiap
kalimat dari dokumen tersebut akan
diekstraksi sehingga memiliki nilai yang
mewakili kalimat tersebut. Ada enam fitur
untuk setiap kalimat. Setiap fitur diberi nilai
antara '0 'dan '1'. Enam fitur tersebut sebagai
berikut:
∑ &' # & , ) %
!" #∑ &'# &, ) %%
(3)
4. Fitur Proper noun (F4)
Kalimat yang mengandung proper noun
termasuk kalimat penting yang biasanya
masuk dalam ringkasan. Proper noun adalah
kata yang menunjukkan nama sesuatu, seperti
nama orang, nama tempat, nama bulan, dan
sebagainya. Berikut ini persamaan untuk
menghitung nilai proper noun :
)/'0!1 234253 4/ 2!6! !0&'!7
. = 2! )! 8 !0&'!7/)/'0!1 !7!
(4)
1. Fitur Panjang Kalimat (F1)
Fitur ini berfungsi untuk menyaring kalimat
pendek seperti nama pengarang dan datelines
seperti pada artikel berita. Kalimat pendek
tidak dipakai untuk ringkasan dokumen.
Perhitungan fitur ini ditunjukkan dengan
persamaan 1:
1=
ISSN : 2302-7088
5. Fitur Thematic word (F5)
Thematic word yang dimaksud adalah kata
yang frekuensinya tinggi pada suatu dokumen.
Fitur ini penting karena berhubungan dengan
topik. Pada penelitian ini diasumsikan
Thematic word atau kata tematik adalah kata
yang frekuensinya lebih dari satu, untuk
mengantisipasi
dokumen
pendek.
Persamaannya ditunjukkan oleh persamaan
berikut :
:=
(1)
2. Fitur Pembobotan Kata/Term Weight (F2)
Nilai suatu kalimat dapat dihitung sebagai
jumlah nilai bobot kata dalam kalimat tersebut.
Di sini akan dilakukan penghitungan
menggunakan persamaan TF.IFS dari kata kek sampai ke-n untuk kalimat(S) dari x sampai
y. TS.ISF adalah perkalian antara term
frequency dengan inverse sentence frequency.
Ide dasar dari penilaian TF.ISF adalah
mengevaluasi setiap kata dalam distribusinya
pada seluruh kalimat di dokumen. Jadi nilai
TF.ISF ditentukan untuk mengevaluasi
pentingnya sebuah kata dalam dokumen
bedasarkan frekuensinya dalam sebuah kalimat
dan distribusinya di seluruh kalimat dalam
dokumen.
)/'0!1 715'!7&; <436 2!6! !0&'!7
!" )/'0!1 715'!7&; <436 2!6! =/!7/ !0&'!7
(5)
6. Fitur Numerical data (F6)
Kalimat yang mengandung data numerik
dianggap kalimat penting dan biasanya masuk
dalam ringkasan. Nilai dari fitur ini dihitung
dengan persamaan berikut :
>=
)/'0!1 6!7! /'53& 2!6! !0&'!7
2! )! 8 !0&'!7
C. Perangkingan Berbasis Algoritma
CI - 3
(6)
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
terbesar sesuai nilai fitness dan diambil yang
tertinggi sebanyak ukuran populasi / jumlah
individu awal. Fungsi fitness didapatkan dari
persamaan objektif Fan. Persamaan objektif
Fan merupakan persamaan minimum sehingga
fungsi fitness dihitung dari invers persamaan
objektif Fan. Persamaan fungsi fitness
ditunjukkan pada persamaan berikut:
Genetika
Berikut ini penjelasan langkah-langkah
perangkingan berbasis Algoritma Genetika
(AG):
1. Pembangkitan Populasi Awal dan
Representasi Kromosom
Pada
penelitian
ini
kromosom
merepresentasikan fitur-fitur yang ada. Satu
individu terdiri dari enam kromosom sesuai
dengan jumlah fitur. Tiap kromosom terdiri
dari sejumlah gen sesuai dengan persamaan
berikut [5] :
(7)
?& = @ ABC[ E − ! G + ]J
&7 5== =
'
∑'
&= ∑)= #'!" E) −E&) % <)
(9)
Nilai wLM dihitung dari nilai <) yang telah
didapat pada tahap sebelumnya. Nilai max E'
)
merupakan nilai maksimum fitur ke-j pada
semua kalimat.
Untuk menghitung nilai W digunakan
persamaan berikut :
")
<) = " 747!0
(10)
Dimana j = 1,2,…,n (n adalah jumlah
kromosom tiap individu). Untuk menghitung
nilai x yang merupakan variabel temporer
dengan persamaan berikut:
dengan b = batas atas interval dan a = batas
bawah interval.
Maka jumlah gen untuk tiap kromosom
sebagai berikut:
?& = @ ABC[
ISSN : 2302-7088
−G
G + ]J
(8)
= @ ABC[ G J = 7
") = ! + N E − ! /#
(11)
Dengan demikian ukuran gen untuk tiap
individu dengan enam kromosom (enam fitur)
= 7 × 6 = 42.
?)
−
%O × P)
dengan a = batas bawah interval data, pada
kasus ini adalah 0; b = batas atas interval data,
pada kasus ini adalah 1; Lj = panjang gen ke-j
Kemudian dihitung x total untuk tiap individu
(pada kasus ini sepanjang 6 kromosom).
2. Crossover Satu Titik
Proses crossover tergantung pada suatu
parameter yaitu probabilitas crossover (Pc).
Misalkan probabilitas crossover adalah 0.8,
artinya diharapkan 80% individu yang akan
mengalami crossover.
5. Merangking kalimat
Setelah diketahui individu mana yang
memiliki nilai fitness tertinggi, individu
tersebut dijadikan sebagai solusi terbaik.
Untuk mendapatkan urutan rangking, nilai
bobot dari individu yang tepilih sebagai solusi
terbaik, digunakan untuk menghitung nilai
alternatif ke-i sebagai nilai kalimat ke-i dengan
persamaan berikut [5]:
8& = ∑)+ Q) E&)
(12)
3. Mutasi Biner
Sama dengan pengkodeannya, mutasi yang
digunakan adalah mutasi biner. Mutasi biner
yaitu mengubah nilai 1 menjadi 0 dan
sebaliknya, 0 jadi 1. Proses mutasi tergantung
pada probabilitas mutasi (Pm). Misalkan
probabilitas mutasi 0.01, artinya diharapkan
1% dari total gen mengalami mutasi.
D. Penggabungan Ringkasan tiap Klaster
Penggabungan merupakan proses untuk
menggabungkan hasil ringkasan masingmasing dokumen yang ada dalam satu klaster.
Hasil ringkasan digabungkan menggunakan
perhitungan cosine similarity dengan TF
(Term Frequency). TF adalah frekuensi kata
pada suatu kalimat. Perhitungan cosine
4. Perhitungan Nilai Fitness dan Seleksi
Seleksi yang digunakan pada penelitian ini
adalah seleksi Rank-Based fitness. Seleksi
dilakukan dengan mengurutkan individu sesuai
nilai
fitnessnya
kemudian
mengambil
individu-individu teratas. Seluruh individu,
yaitu individu awal, anakan hasil crossover,
dan anakan hasil mutasi dihitung nilai
fitnessnya kemudian diurutkan mulai dari yang
CI - 4
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
similarity dengan TF seperti ditunjukkan pada
persamaan berikut:
Cosine ( & ,
))
=
,∑
∑
7& × 7)
7& × ,∑
7)
ISSN : 2302-7088
HASIL UJI COBA
Pengujian dilakukan untuk mengetahui
seberapa dekat hasil ringkasan sistem dengan
hasil ringkasan manual. Perhitungan terhadap
tiga parameter yang berbeda yaitu precision,
recall, dan F-measure dilakukan untuk ukuran
ringkasan dokumen yang berbeda, yaitu 25%,
50%, dan 75%. Setelah dilakukan pengujian
akan diketahui kemampuan sistem dalam
menghasilkan informasi yang relevan yang
diinginkan user.
Dari 9 dokumen yang dimasukkan terbagi
menjadi 4 klaster. Hasil percobaan untuk
semua ukuran ringkasan dengan parameter
algoritma genetika jumlah individu = 20,
maksimum generasi = 50, probabilitas
crossover = 0.8, dan probabilitas mutasi 0.01
ditunjukkan pada gambar 1, 2, dan 3.
(13)
dengan 7& jumlah kata k pada kalimat I;
7) jumlah kata k pada kalimat j.
METODE EVALUASI
Proses evaluasi hasil text summarization
dilakukan menggunakan tiga parameter yaitu
precision, recall, dan F-measure [6]. Sebuah
sistem informasi dikatakan baik jika tingkat
precision, recall, dan F-measurenya tinggi.
Cara mengevaluasinya yaitu membandingkan
ringkasan otomatis hasil sistem dengan
ringkasan manual.
1. Precision
Precision merupakan perbandingan jumlah
informasi relevan yang didapatkan sistem
dengan jumlah seluruh informasi yang
terambil oleh sistem baik yang relevan
maupun
tidak.
Persamaan
precision
ditunjukkan pada persamaan berikut :
;4335;7
P = ;4335;7R<34 8
(14)
Nilai Precision
1.0000
0.8000
0.6000
0.4000
0.2000
0.0000
2. Recall
Recall merupakan perbandingan jumlah
informasi relevan yang didapatkan sistem
dengan jumlah seluruh informasi relevan yang
ada dalam koleksi informasi (baik yang
terambil atau tidak terambil oleh sistem).
Persamaan recall ditunjukkan pada persamaan
berikut:
;4335;7
R=
(15)
0.9474
0.77780.81480.82500.8387
0.66670.6000
0.64290.6667
0.5238
0.4444
25%
50%
75%
Gambar 1. Grafik Nilai Precision
Pada Gambar 1 nilai precision terendah
dihasilkan oleh klaster 1 dengan ukuran
ringkasan 25%. Nilai precision tertinggi
dihasilkan klaster 2 dengan ukuran ringkasan
75%.
;4335;7R'&==56
Keterangan:
correct : jumlah kalimat yang diekstrak oleh
sistem dan manusia.
wrong : jumlah kalimat yang diekstrak oleh
sistem tetapi tidak diekstrak oleh manusia.
missed : jumlah kalimat yang diekstrak oleh
manusia tetapi tidak diekstrak oleh sistem.
Nilai Recall
1.0000
0.8000
0.6000
0.4000
3. F-Measure
F-Measure merupakan hubungan antara recall
dan precision yang merepresentasikan akurasi
sistem. Persamaan F-Measure seperti pada
persamaan berikut:
∗T∗U
F = TRU
(16)
0.90000.84620.8387
0.77780.8148
0.6923
0.61540.6000
0.5238
0.4444
0.2000
0.0000
Gambar 2. Grafik Nilai Recall
CI - 5
25%
50%
75%
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Pada gambar 2 nilai recall terendah dihasilkan
oleh klaster 1 dengan ukuran ringkasan 25%
sedangkan nilai recall tertinggi dihasilkan oleh
klaster 2 dengan ukuran ringkasan 75%.
ringkasan manual diperoleh nilai F-measure
tertinggi untuk ukuran ringkasan 75% yaitu
sebesar 0.8438, sedangkan nilai F-measure
untuk ukuran ringkasan 25% dan 50% yaitu
sebesar 0.5878 dan 0.6891. Jadi semakin besar
ukuran ringkasan semakin tinggi nilai Fmeasure atau akurasinya. Rata-rata nilai Fmeasure untuk semua ukuran ringkasan yang
merepresentasikan akurasi sistem yaitu sebesar
0.7069.
Nilai F-measure
1.0000
0.8000
0.6000
0.4000
0.2000
0.0000
0.9231
0.77780.81480.83540.8387
0.66670.6400
0.64000.6000
0.5238
0.4444
ISSN : 2302-7088
25%
PUSTAKA
50%
[1] Fattah, M. A. dan Ren, Fuji. Automatic
Text Summarization. World Academy of
Science, Engineering and Technology.
Singapore. 2008
[2] Hariharan, S. Extraction Based Multi
Document Summarization using Single
Document Summary Cluster. B.S. Abdur
Rahman University. Vandalur. 2010
[3] Kogilavani, A., dan Balasubramani, P.
Clustering Feature Specific Sentence
Extraction Based Summarization of
Multiple Documents. Kongu Engineering
College. Erode. 2010
[4] Kuo, J. dan Chen, H. Cross-document
Event Clustering Using Knowledge
Mining From Co-reference Chains.
National Taiwan University. Taipei. 2006.
[5] Kusumadewi, Sri. Pencarian Bobot
Atribut Pada Multiple Attribute Decision
Making (MADM) dengan Pendekatan
Obyektif
Menggunakan
Algoritma
Genetika. Gematika Jurnal Manajemen
Informatika. Jakarta. 2005
[6] Nedunchelian, R., Muthucumarasamy, R.,
dan Saranathan, E. Comparison Of Multi
Document Summarization Techniques.
IJCSNS
(International
Journal
of
Computer Science and Network Security).
2011
75%
Gambar 3. Grafik Nilai F-measure
Pada gambar 3 nilai F-measure terendah
dihasilkan oleh klaster 1 dengan ukuran
ringkasan 25%, sedangkan nilai tertinggi
dihasilkan oleh klaster 2 dengan ukuran
ringkasan 75%. Untuk ukuran ringkasan 25%
didapatkan rata-rata nilai F-measure 0.5878,
ukuran ringkasan 50% didapatkan rata-rata
nilai F-measure 0.6891, dan untuk ukuran
ringkasan 75% rata-rata nilai F-measure
sebesar 0.8438.
Di sini terlihat nilai F-measure semakin naik
untuk ukuran ringkasan yang semakin besar
pula.
Rata-rata
nilai
F-measure
merepresentasikan akurasi sistem ini, yaitu
0.7069.
KESIMPULAN
Penelitian ini telah menghasilkan sistem
peringkasan multi dokumen berbahasa Inggris
berbasis isi menggunakan pengklaster
sekuensial
dan
perangkingan
berbasis
algoritma genetika. Berdasarkan evaluasi
sistem
yang
dilakukan
dengan
membandingkan hasil ringkasan sistem dan
CI - 6
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
PENENTUAN RUTE TERPENDEK BERSEPEDA
DI AREA KOTA MALANG MENGGUNAKAN ALGORITMA SEMUT
Dian Eka Ratnawati, Sindy Yudi Prakoso, Yusi Tyroni Mursityo
Program Studi Ilmu Komputer, Program Teknologi Informasi dan Ilmu Komputer, Universitas
Brawijaya, Jl. Veteran Malang, Jawa Timur, 65141
Email: [email protected] ,[email protected], [email protected]
Abstrak
Bersepeda dianggap sebagai transportasi bebas polusi dan menyehatkan, namun
diperlukan adanya suatu informasi perjalanan. Informasi perjalanan ini sangat erat
kaitannya dengan rute yang dipilih sehingga dapat menghasilkan solusi yang optimal,
dalam hal ini adalah meminimalkan jarak perjalanan dari tempat asal menuju tempat
tujuannya.
Penelitian ini bertujuan membangun sebuah sistem penentuan jalur terpendek bersepeda
di area kota Malang menggunakan algortima semut. Pada penelitian ini ingin diketahui
apakah hasil jalur terpendek yang dihasilkan oleh algoritma semut lebih baik dari solusi
yang dihasilkan algoritma Dijkstra atau sebaliknya. Dari ujicoba dengan
membandingkan algoritma semut dengan Dijkstra diperoleh nilai MSE 0.490746 yang
membuktikan bahwa algoritma semut memiliki tingkat akurasi yang cukup tinggi.
Kata Kunci: Algoritma Semut, Ant Colony System, Algoritma Dijkstra, Rute Terpendek.
Abstract
Cycling is considered to be a healthy and pollution-free tranportation, but it needs some
kind of travel information. This travel Information is very closely related with the
selected route so that it can provide optimal solution, in this case to minimize distance
from starting point to the desired destination.
This study aims to build a shortest cycling path determination in Malang City using ant
algorithm system. In this study wanted to know whether the results generated by the
shortest path ant algorithm is better than Dijkstra algorithm generated solutions. From
the test by comparing the ant algorithm Dijkstra is obtained MSE 0.490746 which
proved that the ant algorithm has a fairly high degree of accuracy.
Keyword : Ant Algorithm, Dijkstra Algorithm, Shortest Route
ke tempat lainnya. Shortest path problem
merupakan salah satu permasalahan optimasi
yang dapat diselesaikan dengan menggunakan
metode heuristik, seperti algoritma genetika
(Genetic Algorithm, GA) dan algoritma semut
(Ant Colony, AntCo)[2]. Algoritma semut
adalah solusi universal dan fleksibel yang
awalnya digunakan pada permasalahan
optimasi Traveling Salesman Problem.
Analogi pencarian rute terpendek oleh semutsemut, telah menjadi stimulus terciptanya
suatu metode untuk menentukan jarak
terpendek dari suatu tempat ke tempat lain,
Jarak terpendek yang dimaksud adalah hasil
dari perhitungan beberapa parameter melalui
Ant Colony Optimization [3].
PENDAHULUAN
Salah satu inovasi untuk mengurangi polusi
dalam transportasi darat yaitu dengan adanya
program car free day yang diharapkan bisa
memberikan ruang bagi masyarakat Kota
Malang untuk bisa berolahraga serta
menikmati udara segar bebas asap[1]. Dengan
ditunjang dengan slogan Bike to Work ternyata
banyak diminati oleh warga kota Malang.
Kebutuhan akan suatu informasi atau
petunjuk tentang suatu lokasi baik itu lokasi
jalan ataupun lokasi obyek-obyek tertentu
sangat diperlukan bagi pengguna sepeda untuk
menentukan jalur terpendek dari suatu tempat
CI - 7
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
Pengisian kota pertama ke dalam tabu
list. Hasil dari langkah ini adalah terisinya
elemen tabu list oleh setiap semut.
Dalam penelitian ini, pencarian rute
terpendek mempunyai tujuan membantu dalam
menentukan jalur terpendek dari dan menuju
suatu tempat tertentu di Malang khususnya
Malang Kota, dengan ditentukannya jalur
terpendek
maka
diharapkan
dapat
meminimalisasi waktu tempuh perjalanan
c. Pemilihan Rute Perjalanan Semut
Perjalanan koloni semut berlangsung terus
menerus hingga mencapai kota yang telah
ditentukan. Perhitungan nilai probabilitas kota
untuk dikunjungi seperti pada persamaan 1:
\]^_ =
TINJAUAN PUSTAKA
2.1 Konsep Dasar Ant Colony Optimization
(ACO)
Algoritma Ant Colony Optimization
diinspirasikan oleh lingkungan koloni semut
pada saat mencari makanan [3]. Semut-semut
mempunyai penyelesaian yang unik dan sangat
maju yaitu dengan menggunakan jejak
pheromone, proses peninggalan pheromone ini
dikenal sebagai stigmergy, yaitu sebuah proses
memodifikasi lingkungan yang tidak hanya
bertujuan untuk mengingat jalan pulang ke
sarang, tetapi juga memungkinkan para semut
berkomunikasi dengan koloninya pada suatu
jalur dan membangun solusi, semakin banyak
jejak pheromone ditinggalkan, maka jalur
tersebut akan diikuti oleh semut lain.
Dalam algoritma semut, diperlukan
beberapa variabel dan langkah-langkah untuk
menentukan jalur terpendek, yaitu[3]:
a
N`]^ O .Nb]^ O
c
a
∑_ defghijkl mN`]_ d O .Nb]_ d O
_
c
(1)
dimana :
Pij : probabilitas verteks i ke verteks j
i : verteks ke-i
j : verteks ke-j
τij : pheromone dari verteks i ke verteks j
β : tetapan pengendali visibilitas
α : tetapan pengendali intensitas jejak semut
ηij : visibilitas dari verteks i ke verteks j
k : jumlah jalur kemungkinan yang dilalui
d. Perhitungan Panjang Jalur Setiap Semut
Perhitungan dilakukan berdasarkan tabuk
masing-masing
dengan
menggunakan
persamaan 2:
n = o p q , p qr
tr
+ so
+r
p q
,
p q Rr
(2)
dimana :
Lk : panjang lintasan yang dilalui semut k
n : banyak titik
67!E/ = ,7!E/ =R : bobot antara titik ke s
dan s+1 pada tabu list
a. Inisialisasi Parameter
Dalam ACO terdapat beberapa parameter
masukan sebagai inisialisasi awal untuk
melakukan proses optimasi. Beberapa
parameter tersebut adalah:
1. τij : Intensitas jejak semut antar kota dan
perubahannya
2. n : Banyak titik atau dij (jarak antar kota)
3. Penentuan kota berangkat dan kota tujuan
4. Q : Tetapan siklus semut
5. α : Tetapan pengendali intensitas jejak
semut
6. β : Tetapan pengendali visibilitas
7. ηij : Visibilitas antar titik (1/dij)
8. m : Jumlah semut
9. ρ : Tetapan penguapan jejak semut
10. Jumlah siklus maksimum (NCmax) bersifat
tetap selama algoritma dijalankan.
11. Inisialisasi kota pertama setiap semut.
e. Perhitungan Perubahan Harga Intensitas
Pheromone Semut
Persamaan
(3)
digunakan
untuk
menghitung perubahan intensitas pheromone
semut :
∆v&) = ∑'+ ∆v&)
(3)
dimana :
∆v&) : Intensitas jejak semut antar kota dan
perubahannya
∆v&) : perubahan harga intensitas jejak kaki
semut antar kota setiap semut
m
: jumlah semut
k
: jumlah jalur yang mungkin dilewati
m semut ditempatkan pada kota pertama yang
telah ditentukan.
f. Pengosongan Tabu List
b. Pengisian Tabu List
CI - 8
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
v&) ←
Tabu list perlu dikosongkan untuk diisi lagi
dengan urutan kota yang baru pada siklus
selanjutnya, jika jumlah siklus maksimum
belum tercapai atau belum terjadi konvergensi.
wƒE=
G
2.2.Ant Colony System (ACS)
Algoritma Ant Colony System (ACS)
merupakan pengembangan dari Algoritma
ACO. Algoritma ini tersusun atas sejumlah m
semut yang bekerjasama dan berkomunikasi
secara tidak langsung melalui komunikasi
Pheromone[4].Peranan utama dari penguapan
Pheromone pada ACS adalah untuk mencegah
stagnasi.
jxC yjzf[v&,/ O. [{&,/ ]| } ,
=w
€,
(4)
)& ! ~ ≤ ~G 5 =204&7!=&
)& ! 7&6!
5 =2043!=&
2.2.2.Update Pheromone Lokal
Lokal updating rule dengan mengubah
tingkat pheromone pada edge-edge yang telah
dikunjungi semut[5], menggunakan persamaan
5:
(5)
v&) ← − ‚ . v&) + ‚. vG
.ƒ
)& ! 3, = … 74/3 753E!&
=5E!0&
†!
5=50/3/1!
2.4 Akurasi
Untuk menghitung akurasi menggunakan
metode Mean Square Error (MSE). Semakin
kecil nilai MSE mengindikasikan bahwa hasil
prediksi semakin akurat[7]. Nilai MSE dapat
diperoleh dengan persamaan 8.
dimana :
‚
: parameter evaporasi lokal.
τ0
: nilai awal jejak pheromone.
vG =
dengan: „v&) =
(7)
2.3. Algoritma Dijkstra
Algoritma Dijkstra merupakan salah satu
varian dari algoritma greedy, yaitu salah satu
algoritma untuk pemecahan persoalan yang
terkait dengan masalah optimasi. Algoritma
greedy ini hanya memikirkan solusi terbaik
yang akan diambil pada setiap langkah tanpa
memikirkan konsekuensi ke depan. Algoritma
greedy ini berupaya membuat pilihan nilai
optimum lokal pada setiap langkah dan
berharap agar nilai optimum lokal ini
mengarah kepada nilai optimum global[6].
Fungsi objektif akan memaksimalkan atau
meminimalkan nilai solusi. Tujuannya adalah
memilih satu saja solusi terbaik dari masingmasing anggota himpunan solusi
Penggunaan strategi greedy pada algoritma
Dijkstra adalah Pada setiap langkah, ambil sisi
berbobot minimum yang menghubungkan
sebuah simpul yang sudah terpilih dengan
sebuah simpul lain yang belum terpilih.
Lintasan dari simpul asal ke simpul yang baru
haruslah merupakan lintasan yang terpendek di
antara semua lintasannya ke simpul-simpul
yang belum terpilih.
dimana :
j : titik yang akan dituju. Jumlah Pheromone
yang terdapat pada edge antara titik r dan
titik s.
q : sebuah bilangan random.
β : parameter pengendali jarak (β > 0 )
Jika q ≤ q0 maka pemilihan titik yang
akan dituju menerapkan aturan eksploitasi
sedangkan jika q > q0 maka menerapkan
eksplorasi.
dengan
− ‚ . v&) + ‚. ∆v&)
dimana :
ρ : parameter evaporasi global.
Cbs : panjang lintasan terbaik keseluruhan.
τij
: intensitas jejak pheromone pada garis
(i,j)
2.2.1.State Transition Rule
Aturan transisi status yang berlaku pada
ACS[5] adalah seperti persamaan 4 :
)
ISSN : 2302-7088
∑
MSE =
(6)
dimana :
n
: jumlah titik.
Cnn : panjang sebuah tour terbaik.
n
i =1
( Dig − Dik ) 2
n
dimana :
‡&8 : jarak aktual semut pada periode i
‡& : jarak aktual dijkstra pada periode i
n : jumlah percobaan
2.2.3.Update Pheromone Global
Global updating rule [5], menggunakan
persamaan 7 :
CI - 9
(8)
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
METODOLOGI
3.1. Perancangan Sistem
Gambar 1 merupakan flowchart pencarian
rute terpendek menggunakan algoritma semut:
1. Inisialisasi parameter awal, yaitu:
a. Parameter yang digunakan dalam
penentuan rute terpendek yaitu nama
jalan, titik penyusun jalan, dan panjang
jalan
b. Parameter algoritma semut, yaitu :
1. Jumlah semut yang akan digunakan
(m)
2. Jumlah iterasi yang akan digunakan
(NCmax)
3. Tetapan penguapan jejak semut (ρ)
4. Tetapan pengendali intensitas jejak
semut (α)
5. Tetapan pengendali visibilitas (β)
6. Intensitas jejak semut antar kota (τ)
ISSN : 2302-7088
4. Update pheromone lokal dimana setiap
semut setelah menuju titik selanjutnya
akan selalu melakukan update pheromone
untuk membuat tingkat ketertarikan ruasruas yang ada berubah secara dinamis.
5. Simpan hasil terbaik dari setiap perjalanan
semut kedalam tabulist.
6. Update pheromone global.
7. Reset tabulist.
8. Jika kondisi terpenuhi, berhenti dan
hasilnya adalah solusi rute terpendek
3.2
Perancangan Basis Data
Gambar 2 merupakan tabel-tabel dalam
basisdata digunakan untuk menyimpan seluruh
data yang digunakan oleh sistem. Tabel yang
dapat disusun berdasarkan kebutuhan sistem
ini yaitu tabel Jalan, tabel Cabang, tabel
LampuLantas, dan tabel Koordinat Penyusun.
Gambar 2 Entity Relationship Diagram
HASIL DAN PEMBAHASAN
Gambar 1. Flowchart Membangun Rute
Perjalanan
2. Hasil dari inisialisasi tersebut akan
dimasukkan ke dalam tabu list sebagai
node awal semut.
3. Proses simulate ant yaitu mensimulasikan
perjalanan semut sampai semua semut tiba
pada tujuan tertentu secara random.
CI - 10
Pada penelitian ini dilakukan dua
skenario ujicoba. Pada uji coba yang pertama
dilakukan pengujian pengaruh parameter
semut untuk mendapatkan nilai parameter
terbaik dari algoritma semut. Data yang
digunakan pada pengujian pertama adalah data
jalan kota malang. Uji coba ini dilakukan
sebanyak 5 kali pada setiap perubahan nilai
parameter. Dari uji coba tersebut akan
diperoleh nilai terbaik yang kemudian akan di
rata-rata sebagai nilai parameter yang optimal.
Pada
ujicoba
yang
kedua,untuk
mengetahui tingkat keoptimalan algoritma ant
colony system, dilakukan perbandingan antara
algoritma ant colony system dengan algoritma
Dijkstra. Dalam melakukan perbandingan ini,
parameter yang digunakan algoritma ant
colony system adalah nCmax=20, m=500,
τ0=0.5, α=4, β=4, ρ=0.9, dan Q0=0.3.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
4.1.Pengujian Parameter Semut
4.1.1.Pengujian Jumlah
Pheromone Awal(τ0)
Semut
(m)
dan
Pada pengujian ini nilai m antara 100 500 dan nilai τ0 antara 0,1 - 0,9 didapatkan
hasil seperti pada gambar 3.
Gambar 5. Grafik Uji ρ
4.1.4. Pengujian Parameter Q0
Parameter ini merupakan konstanta
yang digunakan untuk pemilihan titik-titik
yang akan dilalui oleh semut. Didapatkan nilai
konstanta Q0 yang terbaik adalah 0.3.seperti
pada gambar 6.
Hasil Uji Q0
4.1.2. Pengujian Parameter α dan β
Pengujian untuk mencari nilai α dan β
yang terbaik dari nilai 1 sampai dengan 5,
didapatkan hasil nilai α dan β terbaik adalah 4
seperti yang ditunjukkan pada gambar 4.
Jarak (Km)
Gambar 3. Pengaruh Parameter m dan τ0
20
10
0
0.1
0.3
0.5
0.7
0.9
Q0
Gambar 6. Grafik Uji Q0
Hasil Uji α dan β
4.1.5.Pengujian Konvergensi
Pengujian dengan beberapa generasi
dilakukan untuk menghasilkan solusi yang
konvergen. Hasil dari pengujian ini digunakan
untuk mencari siklus awal terjadinya
kestabilan nilai / jarak dengan pengecekan 20
iterasi terakhir yang menghasilkan jarak yang
sama.
Jarak (Km)
20
β
10
α
0
1
2
3
4
5
Gambar 4. Grafik Uji α dan β
4.1.3. Pengujian Parameter ρ
Pengujian untuk mencari nilai ρ yang
terbaik dari nilai 0.1 - 0.9. Setelah 5 kali
pengujian, didapatkan hasil nilai ρ terbaik
adalah 0.9 seperti yang ditunjukkan pada
gambar 5.
Gambar 7. Grafik Uji Konvergensi
Berdasarkan gambar 7, dapat diketahui bahwa
pada generasi ke 20 sampai 50 memiliki nilai
yang sama. Dapat dikatakan bahwa pada
generasi ke 20 telah didapatkan hasil yang
konvergen.
CI - 11
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
4.2 Pengujian
Dijkstra
ACS
dengan
algoritma
Hasil dari pengujian antara ACS dengan
algoritma Dijkstra dapat dilihat pada gambar
8
Jarak (Km)
Pengujian Jarak Dekat
10
5
Dijkstra
0
1
2
3
4
5
ACS
Percobaan ke-
Gambar 8. Pengujian ACS dengan algoritma
Dijkstra
Dari hasil pengujian yang ditunjukkan
pada gambar 8, jarak yang dihasilkan oleh
ACS dan Dijkstra adalah sama.
Pada Gambar 9 terdapat rute yang
dihasilkan
oleh
ACS
dan
Dijkstra.
Gambar 9. Rute yang dihasilkan oleh ACS
dan Djikstra
Dari beberapa percobaan, algoritma
Dijkstra selalu mendapat rute yang optimal
untuk semua data uji karena algoritma hanya
memikirkan solusi terbaik dengan langsung
mengambil jarak terpendek pada saat itu tanpa
memikirkan jarak total yang dihasilkan.
: + . > GŠ. + G. G‰Š.
.
ˆ = G. .‹G‰.>
ˆ=
G + G. ‰
MSE
yang
dihasilkan
tersebut
membuktikan
bahwa
algoritma
semut
memiliki tingkat akurasi yang cukup tinggi
untuk penyelesaian masalah.
CI - 12
ISSN : 2302-7088
KESIMPULAN
Kesimpulan
yang
dapat
diambil
daripenelitian ini adalah:
1. Pencarian rute terpendek dengan metode
Ant
Colony
System
dapat
diimplementasikan. Proses pencarian rute
terpendek di mulai dengan menyebarkan
semut ke suatu titik, kemudian semut akan
berjalan bebas menuju tujuan perjalanan.
Dalam pemilihan jalur terpendek, metode
ini tergantung dari nilai parameter yang
dimasukkan antara lain jumlah semut, τ0,
α, β, ρ, dan Q0.
2. Perbandingan jarak terpendek yang
dihasilkan algoritma Ant Colony System
dengan Dijkstra menghasilkan jarak yang
relative sama. Hanya saja rute yang
dihasilkan oleh algoritma Ant Colony
System
lebih
bervariatif,
karena
dipengaruhi oleh beberapa parameter.
3. Dari ujicoba diketahui bahwa algoritma
Ant Colony System memiliki tingkat
akurasi yang cukup tinggi,
DAFTAR PUSTAKA
[1] Nugraha, D., & dkk. (2006).
Diagnosis Gangguan Sistem Urinari
pada
Anjing
dan
Kucing
menggunakan VFI 5. Bandung:
IPB.Surya Post, 30 November 2011
[2] Mutakhiroh, I., Saptono, F., Hasanah,
N., & Wiryadinata, R. (2007).
Pemanfaatan Metode Heuristik Dalam
Pencarian Jalur Terpendek Dengan
Algoritma Semut dan Algoritma
Genetik.
Yogyakarta:
Seminar
Nasional
Aplikasi
Teknologi
Informasi. ISSN: 1907-5022
[3] M. Dorigo, V. Maniezzo, dan A.
Colorni. (1996). The Ant System:
Optimization by a colony of
cooperating agents. IEEE Transactions
on Systems, Man,and Cybernetics—
Part B, 26(1), , pp.1-13.
[4] Dorigo, M., & Stützle, T. (2004). Ant
Colony Optimization. England: The
MIT Press Cambridge, Massachusetts
Institute of Technology.
[5] Dorigo, M., & Gambardella, L. M.
(1997). Ant colonies for the traveling
salesman
problem.
Belgium:
Tech.Rep/IRIDIA/1996-003,
Université Libre de Bruxelles.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
[6] Novandi, R. A. (2007). Perbandingan
Algoritma Dijkstra dan Algoritma
Floyd-Warshall dalam Penentuan
Lintasan Terpendek (Single Pair
Shortest Path). Bandung: Institut
Teknologi Bandung.
[7] Kaur Parvinder, Shakti Kumar,
Amarpartap Singh, Optimization of
Membership Functions Based on
AntColony
Algorithm,
(IJCSIS)
International Journal of Computer
Science and Information Security,Vol.
10, No. 4, April 2012, tanggal akses
Agustus 2012
[8] Handaka, M. S. (2010). Perbandingan
Algoritma
Dijkstra
(Greedy),
Bellman-Ford(BFS-DFS), dan FloydWarshall (Dynamic Programming)
CI - 13
ISSN : 2302-7088
dalam
Pengaplikasian
Lintasan
Terpendek pada Link-State Routing
Protocol. Bandung: Institut Teknologi
Bandung
[9] Mutakhiroh, I., Saptono, F., Hasanah,
N., & Wiryadinata, R. (2007).
Pemanfaatan Metode Heuristik Dalam
Pencarian Jalur Terpendek Dengan
Algoritma Semut dan Algoritma
Genetik.
Yogyakarta:
Seminar
Nasional
Aplikasi
Teknologi
Informasi. ISSN: 1907-5022.
[10]
Wardy,
I.
S.
(2007).
Penggunaan graph dalam algoritma
semut untuk melakukan optimasi.
Bandung
:
Institut
Teknologi
Bandung.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
PENJADWALAN FLOWSHOP
DENGAN METODE HEURISTIK MULTIPLE OBJECTIVE TERBOBOTI
Dyah Herawatie, Eto Wuryanto
Departemen Matematika, Fak. Sains dan Teknologi Universitas Airlangga
Email : [email protected], [email protected]
Abstrak
Penelitian ini merupakan pengembangan dari penelitian yang telah dilakukan Rajendran
(1995), yang telah mengembangkan algoritma CDS (Cambell, Dudek, Smith) untuk
penjadwalan flowshop dengan menggunakan multiple objective. Penelitian ini
memodifikasi fungsi tujuannya dengan memberi bobot, berdasarkan derajat
kepentingannya. Disamping itu juga akan dikembangkan algoritma baru, yang
merupakan pengembangan dari algoritma RA (Rapid Acess). Menurut Sahu (2009),
algoritma RA yang merupakan modifikasi dengan menggabungkan keuntungan dari
Palmer’s slope index dan CDS lebih efisien jika dibandingkan dengan algoritma lain.
Dari penelitian ini, dapat diambil kesimpulan antara lain : dari beberapa data yang
digunakan, algoritma RA tidak selalu menghasilkan jadwal yang lebih baik dari
algoritma CDS. Selain itu dengan bobot yang ditambahkan pada fungsi relativitas, akan
bisa menghasilkan jadwal yang lebih baik lagi. Dalam penelitian ini ditunjukkan dengan
semakin kecilnya nilai makespan, total flow time, dan total idle time. Hal ini terjadi pada
data 3 (10×5), data 4 (10×10), dan data 5 (10×8). Jika data yang digunakan berukuran
kecil (jumlah job × banyaknya mesin), maka penambahan bobot kurang mempengaruhi
solusi yang diperoleh. Hal ini ditunjukan pada data 1 (5×3) dan data 2 (5×5).
Kata kunci : Penjadwalan flowshop, algoritma CDS, algoritma RA, multiple objectives.
Abstract
Rajendran (1995) has developed an algorithm CDS (Cambell, Dudek, Smith) for
flowshop scheduling using multiple objective. This research was added on the
Rajendran’s function of the goal with weighting based on the degree of importance.
Besides, it was also made a new algorithm with weighted multiple objective that is the
development of algorithm RA (Rapid Acess). RA algorithm is a modified version by
combining the advantages of Palmer's slope index and CDS. This algorithm is more
efficient than other algorithms (Sahu, 2009).
The results of this research are: The RA algorithm does not always produce a better
scheduling than CDS algorithm. The weighted function of relativity will be able to obtain
a best scheduling. This is shown by the data 3 (10 jobs × 5 machines), data 4 (10 × 10),
and data 5 (10 × 8). In case of small data (data 1 (5 × 3) and data 2 (5 × 5)), the
additional weight not affect to the gained solution.
Key word : Flowshop scheduling, CDS algorithm, RA algorithm, multiple objectives.
PENDAHULUAN
Latar Belakang
Penjadwalan merupakan salah satu bagian
penting dalam bidang industri, terutama di
bagian
manufaktur
dan
produksi.
Permasalahan penjadwalan di bidang produksi
meliputi pengaturan job-job yang akan
diproses pada serangkaian mesin dengan
CI - 14
urutan job yang sama berlaku untuk setiap
mesin dan setiap mesin hanya memproses
sebuah job pada saat yang sama. Masalah ini
dikenal dengan istilah flowshop. Permasalahan
utama pada flowshop adalah menentukan
urutan job yang akan dipertahankan di
sepanjang sistem yang memenuhi fungsi
tujuan.
Permasalahan penjadwalan flow shop
diperkenalkan oleh S.M Johnson pada tahun
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
1954 dengan permasalahan yang dikemukakan
berupa permasalahan penjadwalan flow shop
2-mesin dengan fungsi tujuan meminimumkan
makespan. Beberapa algoritma yang bisa
digunakan untuk menyelesaikan permasalahan
penjadwalan flow shop m-mesin, antara lain
algoritma Palmer, Gupta, CDS (Cambell,
Dudek, Smith), dan algoritma heuristik RA
(Rapid Acess). Algoritma ini mempunyai
fungsi tujuan meminimumkan makespan.
Selain makespan, fungsi tujuan yang
sering digunakan sebagai ukuran efektifitas
untuk permasalahan penjadwalan permutation
flowshop antara lain total flow time, idle time
mesin, dan tardiness (keterlambatan dalam
proses produksi).
Rajendran (1995) mengemukakan sebuah
algoritma heuristik untuk permasalahan
penjadwalan permutation flowshop m-mesin
dengan multiple objectives atau fungsi tujuan
lebih dari satu. Dalam algoritma ini, jadwal
awal diperoleh dari algoritma CDS. Setelah
jadwal awal melalui beberapa iterasi
terbentuklah sebuah jadwal baru. Dari tiap
jadwal yang didapat kemudian dibandingkan
efektivitas kedua jadwal dengan cara
membandingkan nilai relativitas multiple
objectives jadwal awal dengan nilai relativitas
multiple objectives jadwal baru. Jadwal dengan
nilai relativitas paling minimum akan diiterasi
lagi hingga didapatkan nilai multiple
objectives paling minimum. Jadwal dengan
nilai multiple objectives paling minimum
menjadi solusi dari penjadwalan permutation
flow shop m-mesin.
Sahu (2009) dalam tesisnya melakukan
survey terhadap metode-metode dalam
penjadwalan flowshop dengan membandingkan keefektifan algoritma Palmer, Gupta,
CDS (Cambell, Dudek, Smith), dan algoritma
heuristik RA. Ukuran efektivitas yang
digunakan dalam survey tersebut adalah
makespan. Dari hasil survey ini diperoleh
kesimpulan bahwa algoritma RA memberikan
hasil yang paling efisien.
Berdasarkan latar belakang permasalahan
tersebut, maka perlu dilakukan penelitian yang
lebih mendalam tentang penjadwalan flowshop
dengan multiple objective. Dalam penelitian
ini akan dikembangkan algoritma yang telah
dikemukakan oleh Rajendran (1995), yaitu
dengan menambahkan bobot dalam fungsi
obyektifnya. Tujuan digunakannya bobot
dalam fungsi obyektifnya adalah untuk
memberikan kepentingan relatif di antara
CI - 15
ISSN : 2302-7088
fungsi–fungsi tujuan yang digunakan. Selain
itu akan dikembangkan algoritma baru dengan
jadwal awal menggunakan algoritma RA, dan
menggunakan multiple objective terboboti.
Dan selanjutnya akan dilakukan perbandingan
terhadap kedua algoritma tersebut.
Tujuan
Penelitian ini bertujuan :
1. Mengembangkan algoritma CDS yang
telah dilakukan Rajendran (1995) dengan
menggunakan multiple objective terboboti.
2. Menyusun
algoritma
penjadwalan
flowshop baru dengan jadwal awal
menggunakan algoritma RA menggunakan
multiple objective terboboti.
3. Mengimplementasikan algoritma tersebut
ke dalam program JAVA.
4. Membandingkan
keefektifan
kedua
algoritma tersebut dengan menggunakan
data sekunder.
STUDI PUSTAKA
Penjadwalan Flowshop
Seperti dijelaskan oleh Sahu (2009),
penjadwalan flowshop sejenis dengan masalah
kombinatorial.
Penjadwalan
flowshop
merupakan sebuah permasalahan perencanaan
produksi dengan n-job (item, tugas, dan lainlain) yang harus diproses dalam urutan yang
sama pada setiap m-mesin.. Masing-masing
job mempunyai processing time yang berbeda
untuk mesin yang berbeda. Beberapa
karakteristik dari penjadwalan flowshop,
antara lain :
1. Terdapat m mesin dan n job
2. Masing-masing job terdiri dari m operasi
dan masing-masing operasi membutuhkan
mesin yang berbeda
3. Ke-n job diproses dalam urutan yang sama
pada m mesin
4. waktu pemrosesan dari job ke-i pada
mesin ke-j dinotasikan dengan t ij (i = 1,
2, ...n, dan j = 1, 2, ... m)
5. Disusun sebuah jadwal berupa urutan job,
yang akan memenuhi tujuan tertentu.
Tujuan yang sering digunakan adalah
meminimumkan makespan.
Dalam penjadwalan flowshop digunakan
asumsi antara lain :
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
1. Setiap job diproses pada semua mesin
berdasarkan urutan tertentu
2. Setiap mesin hanya memproses satu job
pada suatu waktu
3. Setiap job diproses pada satu mesin pada
suatu waktu
4. Operasi tidak pre-emptif
5. Waktu set-up untuk sebuah operasi
adalah sequence-independent dan tidak
termasuk dalam waktu pemrosesan.
c. Meminimalkan
persediaan
barang
setengah jadi (work in process-WIP).
Kriteria ini dievaluasi dengan menentukan
jumlah pekerjaan rata-rata dalam sistem.
Hubungan antara benyaknya pekerjaan
dalam sistem da persediaan WIP akan
tinggi. Oleh karen itu, jika terdapat lebih
sedikit pekerjaan dalam sistem, maka
persediaan yang ada lebih rendah.
d. Meminimalkan waktu tunggu pelanggan.
Kriteria ini dievaluasi dengan menentukan
keterlambatan pekerjaan rata-rata.
Untuk
menyelesaian
permasalahan
penjadwalan flowshop, dikenal beberapa
metode penjadwalan, antara lain (Sahu (2009))
1. Masalah flowshop 2 mesin :
a. Algoritma Johnson
b. Algoritma Kusiak
2. Metode
heuristik
untuk
masalah
penjadwalan n-job m-mesin :
a. Algoritma heuristik Palmer
b. Algoritma heuristik Gupta
c. Algoritma heuristik CDS
d. Algoritma heuristik RA
Algoritma CDS (Campbell, Dudek, Smith)
Algoritma CDS merupakan salah satu
algoritma umum yang digunakan untuk
menjadwalkan urutan job pada permasalahan
flowshop dengan lebih dari 2 mesin guna
mendapatkan sebuah waktu penyelesaian atau
makespan
yang
mendekati
minimum.
Algoritma ini merupakan pengembangan dari
algoritma Johnson. Langkah-langkah dalam
algoritma CDS (Cambell, et al 1970 dan Hong
et al., 2001) :
1. Set variabel i = 0.
2. Set variable i = i + 1 ,
a. Untuk j = 1 sampai m-1 hitung
Ukuran efektivitas
Dalam penjadwalan digunakan beberapa
ukuran efektifitas. Ukuran ini digunakan untuk
mengukur efektivitas dari sebuah jadwal.
Dalam Sahu (2009), disebutkan beberapa
ukuran efektivitas yang digunakan dalam
penjadwalan flowshop antara lain :
a. Rata-rata waktu penyelesaian pekerjaan
b. Rata-rata lamanya waktu pekerjaan
c. Lateness
d. Rata-rata lamanya waktu suatu job akan
terlambat (due-date)
e. Makespan (waktu yang dibutuhkan oleh
job terakhir untuk keluar dari sistem)
f. Total flow time merupakan jumlahan dari
flow time (waktu yang dibutuhkan oleh job
j untuk keluar dari sistem)
Sedangkan dalam Heizer & Render
(2008), beberapa kriteria yang digunakan
untuk mengevaluasi kinerja penjadwalan
antara lain :
a. Meminimalkan
waktu
penyelesaian.
Kriteria ini dievaluasi dengan mnentukan
waktu penyelesaian rata-rata untuk setiap
pekerjaan.
b. Memaksimalkan utlisasi. Kriteria ini
dievaluasi dngan menghitung persentase
waktu suatu fasilitas digunakan.
ISSN : 2302-7088
t i′1 = t i′1 + t ij′
b. Untuk j = m sampai 2 hitung
t i′2 = t i′2 + t ij′
{
3. Hitung U = j t1 j < t 2 j
} dan V = {j t
1j
≥ t2 j
}
4. Urutkan job dalam U dengan urutan nondecreasing dari t i′1
5. Urutkan job dalam V dengan urutan nonincreasing dari t i′2
6. Sequence yang optimal diperoleh sebagai
jadwal S didapat dengan menggabungkan
job yang telah diurutkan dalam himpunan
U diikuti dengan urutan job yang telah
diurutkan dalam himpunan V dengan
makespan yang minimum.
7. Kembali ke langkah 2 hingga i = n .
Algoritma RA (Rapid Acess)
Algoritma RA dikembangkan oleh
Dannenbring yang berusaha menggabungkan
keuntungan dari Slope index Palmer dan
prosedur CDS. Dalam Sahu (2009), dijelaskan
langkah-langkah dari algoritma heuristik RA :
1. Set variabel i = 0.
2. Set variable i = i + 1 ,
CI - 16
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Untuk
j
=
1
w j1 = m − ( j − 1) ,
t i′1 = ∑ j =1 w j1t ij
m
sampai
m-1
hitung
w j2 = j
dan t i′2 =
Dengan
pembobotnya
sebagai berikut :
∑
m
j =1
w j 2 t ij
q(σα , j )
Iσ
didefinisikan
ISSN : 2302-7088
: completion time dari job α pada
α
mesin ke-j, jika job
ditambahkan ke σ
: total idle time dari semua mesin,
setelah penjadwalan job dalam σ
: total flowtime (atau jumlahan
completion time) dari job dalam σ
W1 = {w j1 j = 1,2,...m} = {m, m − 1,...2,1}
Fσ
{
V = {j t ′ ≥ t ′ }
Secara garis besar, langkah-langkah dari
algoritma ini adalah sebagai berikut
(Rajendran, 1995):
1. Dapatkan
jadwal
awal
dengan
menggunakan algoritma CDS. Dapatkan
jadwal utama S dari iterasi job yang
dilakukan dengan cara penukaran job
berpasangan dari jadwal awal dengan
tujuan utama mendapatkan makespan
minimum.
2. Hitung D[r ] dan D[′r ] dari jadwal utama
W2 = {w j 2 j = 1,2,...m} = {1,2,..., m − 1, m}
U = j t1′ j < t 2′ j
3. Hitung
1j
}
dan
2j
4. Urutkan job dalam U dengan urutan nondecreasing dari t i′1
5. Urutkan job dalam V dengan urutan nonincreasing dari t i′2
6. Sequance yang optimal diperoleh sebagai
jadwal
S
didapatkan
dengan
menggabungkan job yang telah diurutkan
dalam himpunan U diikuti dengan urutan
job yang telah diurutkan dalam himpunan
V dengan makespan yang minimum.
7. Kembali ke langkah 2 hingga i = n .
Pengembangan Algoritma Heuristic CDS
dengan Multiple Objective
Pengembangan algoritma heuristic CDS
dengan multiple objective dikemukakan oleh
Chandrasekharan Rajendran. Dalam algortima
ini, digunakan tiga fungsi tujuan, yaitu
meminimumkan makespan, total flow time,
dan total idle-time mesin.
Makespan dari jadwal parsial σα dirumuskan
dengan M = q(σα , m )
Total flow time dari job-job dalam σα
dirumuskan dengan Fσα = Fσ + q(σα, m)
Sedangkan total idle time dari mesin-mesin,
hasil dari jadwal parsial σα dirumuskan
dengan
m
I σα = I σ + ∑ [max (q (σα , j − 1) − q (σ , j ));0]
j =2
dengan :
σ
q(σ , j )
: Himpunan (set) jadwal dari total
n job
: completion time dari jadwal
partial σ pada mesin ke-j
CI - 17
S, dengan rumus:
D[r ] = ∑i =1 t i [r ] −∑i =1 t i [r +1]
m
m
(1)
D[′r ] = ∑i=1{m − i +1}ti[r ] −∑i=1{m − i +1}ti[r +1]
m
m
(2)
D[r ] merupakan hasil pengurangan flow
time job di posisi ke-r dengan flow time
job di posisi ke r+1.
3. Bentuk ranked list untuk D[r ] ≥ 0 .
4. Jika ranked list null maka STOP. Jika
ranked list tidak null, tukar posisikan job
di jadwal S berdasarkan job yang berada di
ranked list, maka akan didapatkan jadwal
baru S ′ .
5. Urutkan job yang berada dalam ranked list
dengan urutan D[r ] yang menurun. Jika
ada dua atau lebih job dengan nilai D[r ]
yang sama di ranked list, maka job
diurutkan berdasarkan nilai D[′r ] yang
menurun.
6. Misalkan, dari jadwal S, job pertama di
ranked list adalah job [q], posisi job ke-q
ditukarkan dengan posisi job ke-q+1, dan
sebaliknya. Terbentuk jadwal baru, yang
dinotasikan dengan S’.
7. Bandingkan relativitas kenaikan pada nilai
multiple objectives jadwal S ′ terhadap
jadwal S.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
M '− min( M ' , M ) F '− min( F ' , F )
+
min( M ' , M )
min( F ' , F )
I '− min( I ' , I )
+
(3)
min( I ' , I )
Rs ' =
M − min( M ' , M ) F − min( F ' , F )
+
min( M ' , M )
min( F ' , F )
I − min( I ' , I )
+
(4)
min( I ' , I )
Rs =
8. Jika Rs ' < R s , maka set S = S ′ , F = F’,
M = M’, I = I’, dan ulangi langkah 2. Jika
tidak, lanjutkan ke langkah 9.
9. Job [q] dihapus dari ranked list. Setelah
penghapusan, jika ranked list tidak null
maka ulangi langkah 6. Jika ranked list
null maka lanjutkan ke langkah 10.
10. Jadwal S merupakan solusi dari
permasalahan. STOP.
METODE PENELITIAN
Langkah-langkah yang dilakukan untuk
mendapatkan penyelesaian dari masalah
penjadwalan flowshop dengan multiple
objective terboboti adalah sebagai berikut :
1. Melakukan penelusuran, penelahaan
2.
3.
4.
5.
literatur, serta diskusi yang intensif,
yang membahas tentang penjadwalan
flowshop yang berhubungan antara lain
dengan algoritma heuristik CDS,
pengembangan algoritma CDS dengan
multiple objectives, serta algoritma
heuristik RA.
Menyusun pengembangan algoritma
Rajendran dengan multiple objectives
terboboti.
Menyusun pengembangan algoritma
RA dengan multiple objectives
terboboti.
Mengimplementasikan
kedua
algoritma tersebut (algoritma CDS
dengan multiple objectives terboboti
dan algoritma RA dengan multiple
objectives terboboti) ke dalam program
bahasa JAVA.
Membandingkan keefektifan algoritma
dengan menggunakan data sekunder.
CI - 18
ISSN : 2302-7088
HASIL DAN PEMBAHASAN
Pengembangan
Algoritma
Rajendran
dengan Mutiple Objective Terboboti
Pengembangan algoritma heuristik
CDS
dengan
multiple
objective
dikemukakan
oleh
Chandrasekharan
Rajendran
(Rajendran,
995).
Pada
dasarnya, relativitas yang harus dihitung
pada langkah 7 pada algoritma ini, bisa
ditulis dengan :
Rs =
+
G1 − min(G1 ' , G1 ) G2 − min(G2 ' , G2 )
+
min(G1 ' , G1 )
min(G2 ' , G2 )
G3 − min(G3 ' , G3 )
min(G3 ' , G3 )
(5)
Dengan Gi adalah tujuan yang dikehendaki.
Dalam algoritma Rajendran, digunakan tiga
tujuan, yaitu meminimumkan makespan, total
flow time, dan total idle-time mesin.
Secara umum, jika digunakan n tujuan dan
ditambahkan bobot dalam fungsi obyektifnya,
rumus relativitasnya menjadi :
Rs = w1
G1 − min(G1 ' , G1 )
G − min(G2 ' , G2 )
+ w2 2
min(G1 ' , G1 )
min(G2 ' , G2 )
Gn − min(Gn ' , Gn )
min(Gn ' , Gn )
+ ... + wn
(6)
Modifikasi ini menghasilkan perubahan mulai
pada langkah ke-7 dari algoritma Rajendran
sebagai berikut :
7. Bandingkan relativitas kenaikan pada
nilai multiple objectives jadwal S ′
terhadap jadwal S.
Rs ' = w1
G1 '− min(G1 ' , G1 )
G '− min(G2 ' , G2 )
+ w2 2
min(G1 ' , G1 )
min(G2 ' , G2 )
+ ... + wn
Gn '− min(Gn ' , Gn )
min(Gn ' , Gn )
Rs = w1
(7)
G1 − min(G1 ' , G1 )
G − min(G2 ' , G2 )
+ w2 2
min(G1 ' , G1 )
min(G2 ' , G2 )
+ ... + wn
Gn − min(Gn ' , Gn )
min(Gn ' , Gn )
Dengan 0 ≤ wi ≤ 1 , dan
w1 + w2 + ... + wn = 1
(8)
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
8. Jika Rs ' < Rs , maka set S = S ′ ,
G1 = G1 ' , G2 = G2 ' , ... Gn = Gn ' , dan
ulangi langkah 2. Jika tidak, lanjutkan
ke langkah 9.
9. Job [q] dihapus dari ranked list.
Setelah penghapusan, jika ranked list
tidak null maka ulangi langkah 6. Jika
ranked list null maka lanjutkan ke
langkah 10.
10. Jadwal S merupakan solusi dari
permasalahan. STOP.
Pengembangan Algoritma RA dengan
Mutiple Objective Terboboti
Dalam penelitian ini dikembangkan
algoritma baru, dengan melakukan modifikasi
algoritma yang dikembangkan oleh Rajendran
(1995). Jika pada algoritma Rajendran, jadwal
awal diperoleh dari algoritma CDS. Maka
dalam penelitian ini digunakan algoritma RA.
Modifikasi algoritma ini dapat dituliskan
sebagai berikut :
1. Dapatkan
jadwal
awal
dengan
menggunakan algoritma RA. Dapatkan
jadwal utama S dari iterasi job yang
dilakukan dengan cara penukaran job
berpasangan dari jadwal awal dengan
tujuan utama mendapatkan makespan
minimum.
2. Hitung D[r ] dan D[′r ] dari jadwal
utama S, dengan rumus:
D[r ] = ∑i =1 t i [r ] −∑i =1 t i [r +1]
m
m
job diurutkan berdasarkan nilai D[′r ]
yang menurun.
6. Misalkan, dari jadwal S, job pertama di
ranked list adalah job [q], posisi job
ke-q ditukarkan dengan posisi job keq+1, dan sebaliknya. Terbentuk jadwal
baru, yang dinotasikan dengan S’.
7. Bandingkan relativitas kenaikan pada
nilai multiple objectives jadwal S ′
terhadap jadwal S.
Rs ' = w1
G1 '− min(G1 ' , G1 )
G '− min(G 2 ' , G 2 )
+ w2 2
min(G1 ' , G1 )
min(G 2 ' , G 2 )
+ ... + wn
Rs = w1
G n '− min(G n ' , G n )
min(G n ' , G n )
(11)
G1 − min(G1 ' , G1 )
G − min(G 2 ' , G 2 )
+ w2 2
min(G1 ' , G1 )
min(G 2 ' , G 2 )
+ ... + wn
G n − min(G n ' , G n )
min(G n ' , G n )
(12)
Dengan 0 ≤ wi ≤ 1 , dan
w1 + w2 + ... + wn = 1
8. Jika Rs ' < Rs , maka set S = S ′ ,
G1 = G1 ' , G2 = G2 ' , ... Gn = Gn ' , dan
ulangi langkah 2. Jika tidak, lanjutkan
ke langkah 9.
9. Job [q] dihapus dari ranked list.
Setelah penghapusan, jika ranked list
tidak null maka ulangi langkah 6. Jika
ranked list null maka lanjutkan ke
langkah 10.
10. Jadwal S merupakan solusi dari
permasalahan. STOP.
(9)
D[′r ] = ∑i =1{m − i + 1}ti [r ] −∑i =1{m − i + 1}ti [r +1]
m
ISSN : 2302-7088
m
(10)
D[r ] merupakan hasil pengurangan
flow time job di posisi ke-r dengan
flow time job di posisi ke r+1.
3. Bentuk ranked list untuk D[r ] ≥ 0 .
4. Jika ranked list null maka STOP. Jika
ranked list tidak null, tukar posisikan
job di jadwal S berdasarkan job yang
berada di ranked list, maka didapat
jadwal baru S ′ .
5. Urutkan job yang berada dalam ranked
list dengan urutan D[r ] yang menurun.
Jika ada dua atau lebih job dengan nilai
D[r ] yang sama di ranked list, maka
CI - 19
Perbandingan Hasil Penjadwalan dan
Analisis
Untuk tujuan perbandingan, dalam
penelitian ini digunakan 6 data, yang diambil
dari beberapa sumber, antara lain :
a. Data 5 job 3 mesin dari Rajendran (1995)
b. Data 5 job 5 mesin dari Ravindran (2005)
c. Data 10 job 5 mesin dari Kattan (2003)
d. Data 10 job 10 mesin dari Sahu (2009)
e. Data 10 job 8 mesin dari Sahu (2009).
Dengan keenam data ini, akan dibuat
jadwal dengan menggunakan enam algoritma,
antara lain :
1. CDS
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
2. RA
3. Pengembangan CDS dengan Mutiple
Objective (Rajendran atau CDS MO)
4. Pengembangan RA dengan Mutiple
Objective (RA MO)
5. Pengembangan CDS dengan Mutiple
Objective Terboboti (CDS MOT)
6. Pengembangan RA dengan Mutiple
Objective Terboboti (RA MOT)
Bobot yang digunakan pada algoritma
CDS dengan Mutiple Objective Terboboti, dan
RA dengan Mutiple Objective Terboboti
0 ≤ wi ≤ 1 ,
dan
mempunyai
syarat
w1 + w2 + ... + wn = 1 . Dalam penelitian ini,
bobot yang digunakan wi = 0, 0.1, 0.2, 0.3, 0,4,
0,5 ... , 1. Sebagai ukuran efektivitas, dalam
penelitian ini akan digunakan makespan, total
flow time, dan total idle time.
Data 5 job 3 mesin dari Rajendran, 1995
Dengan menggunakan data pada tabel 1,
dan menggunakan keenam algoritma diperoleh
hasil penjadwalan seperti pada tabel 2, dengan
M = makespan, F = total flow time, dan I =
total idle time. Algoritma CDS dan RA
bertujuan sama, yaitu mendapatkan jadwal
dengan makespan minimum. Pada data 2,
dengan menggunakan algoritma CDS dan RA,
diperoleh makespan 51. Meskipun kedua
algoritma menghasilkan makespan yang sama,
tetapi RA menghasilkan jadwal dengan total
flow time dan total idle-time mesin yang lebih
kecil.
Tabel 1. Data (5×3) dari Rajendran (1995)
M1
M2
M3
J1
5
10
9
J2
2
3
7
J3
7
9
3
J4
3
2
18
J5
4
3
9
ISSN : 2302-7088
2-5-3-4-1
52
153
22
Jika menggunakan algoritma CDS dengan
Mutiple Objective dan RA dengan Mutiple
Objective diperoleh jadwal yang sama,
sehingga menghasilkan makespan, total flow
time dan total idle-time yang sama, yaitu 52,
153, dan 22.. Jika menggunakan algoritma
CDS dengan Mutiple Objective Terboboti dan
RA dengan Mutiple Objective Terboboti juga
diperoleh jadwal yang sama. Ada dua
alternatif jadwal yang diberikan. Satu jadwal
sama dengan jadwal yang dihasilkan oleh
algoritma CDS dengan Mutiple Objective dan
RA dengan Mutiple Objective, dan jadwal
yang lain mempunyai nilai makespan yang
lebh kecil (51). Jika dibandingkan dengan total
flow time dan total idle-time yang nilainya
lebih besar (yaitu 165 dan 38), penurunan nilai
makespan ini menjadi tidak signifikan.
Sehingga jadwal terbaik untuk kedua
algoritma ini sama dengan apabila tidak
dilakukan pembobotan.
Data 5 job 5 mesin dari Ravindran (2005)
Dari data Ravindran (2005) seperti pada
tabel 3, dan dengan menggunakan keenam
algoritma diperoleh hasil penjadwalan seperti
pada tabel 4.
Tabel 3. Data (5×5) dari Ravindran (2005)
M1
M2
M3
M4
M5
J1
10
11
20
22
5
J2
3
21
19
13
12
J3
45
30
9
15
17
J4
1
40
32
24
28
J5
35
4
26
16
25
Algoritma CDS dan RA menghaslkan
makespan yang sama dengan jadwal dengan
urutan yang berbeda. Jika dibandingkan jadwal
yang dihasilkan keduanya, RA menghasilkan
jadwal yang relatif lebih baik daripada CDS.
Meskipun total flowtime-nya lebih besar (790)
tetapi jadwal ini menghasilkan total idle time
yang jauh lebih kecil (88). Dengan
menggunakan keenam algoritma, jadwal
terbaik dihasilkan dari algoritma CDS dengan
Mutiple Objective dan dengan Mutiple
Objective Terboboti.
Tabel 2. Hasil Penjadwalan Data (5×3)
Algoritma
Jadwal
M
F
I
CDS
2-4-5-1-3
51
180
56
RA
2-5-4-1-3
51
171
46
CDS MO
2-5-3-4-1
52
153
22
RA MO
2-5-3-4-1
52
153
22
51
165
38
2-5-4-3-1
CDS MOT
2-5-3-4-1
52
153
22
RA MOT
2-5-4-3-1
51
165
38
Tabel 4. Hasil penjadwalan Data (5×5)
Algoritma
Jadwal
M
F
I
CDS
4-2-5-3-1 184 787 176
RA
4-3-5-1-2 184 790 88
CI - 20
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
CDS MO
RA MO
CDS MOT
RA MOT
2-5-4-3-1
4-3-5-1-2
4-2-5-3-1
2-5-4-3-1
2-5-1-4-3
4-3-5-1-2
4-3-1-5-2
4-1-3-5-2
4-1-2-3-5
1-4-3-2-5
188
184
184
188
200
184
187
188
189
199
715
790
787
715
677
790
776
770
752
748
68
88
176
68
56
88
99
128
184
129
Data 10 job 5 mesin dari Kattan (2003)
Dengan menggunakan data dari Kattan
(2003) (tabel 5), dan menggunakan keenam
algoritma diperoleh hasil penjadwalan seperti
pada tabel 6. Dibandingkan dengan CDS, RA
menghasilkan jadwal yang jauh lebih baik.
Jika CDS menghasilkan makespan, total flow
time dan total idle time berturut-turut (170,
1278, 245), maka RA menghasilkan
(164,1175, 131).
Jika dibandingkan dengan RA, algoritma
CDS dengan multiple objectives dan algoritma
RA dengan multiple objectives memberikan
hasil yang lebih baik, yaitu lebih kecilnya nilai
total flow time dan total idle time, masingmasing menghasilkan (164, 1166, 111) dan
(164, 1164, 110).
Tabel 5. Data (10×5) mesin dari Kattan (2003)
M1
M2
M3
M4
M5
J1
5
12
15
4
13
J2
10
8
6
9
4
J3
13
17
5
8
10
J4
21
13
18
14
17
J5
15
6
9
4
13
14
10
3
7
22
J6
12
5
6
9
14
J7
13
7
4
8
3
J8
10
14
13
20
5
J9
6
19
14
13
18
J10
ISSN : 2302-7088
3-5-9-2-8
7-1-6-10-43-5-9-8-2
7-1-6-10-49-5-2-3-9
7-1-6-10-45-9-3-8-2
7-1-6-10-4RA MOT
5-9-8-3-2
7-1-6-10-48-5-9-3-2
7-1-6-10-49-5-8-2-3
164
1166
111
161
1160
117
163
1165
111
164
1164
110
165
1157
102
165
1156
110
Dengan menggunakan bobot, diperoleh,
hasil yang lebih baik lagi. Dengan
menggunakan bobot w1, w2, w3 berturut-turut
(0, 0, 1), diperoleh makespan, total flow time
dan total idle time (165, 1157, 102). Meskipun
makespan-nya lebih besar 1 unit, total flow
time, dan total idle time yang terendah
dibandingkan jadwal yang lain.
Data 10 job 10 mesin dari Sahu (2009)
Jika keenam algoritma diterapkan pada
data 10 job 10 mesin dari Sahu (2009) (tabel
7), diperoleh hasil seperti pada tabel 8.
Dibandingkan dengan RA, algoritma CDS
menghasilkan jadwal yang sedikit lebih baik.
Jika jadwal RA menghasilkan makespan, total
flow time dan total idle time berturut-turut (97,
766, 154), maka CDS menghasilkan
makespan, total flow time dan total idle time
(95, 765, 154).
Tabel 7. Data (10×10) dari Sahu (2009)
M1 M2 M3 M4 M5 M6 M7 M8 M9 M10
J1
J2
J3
J4
J5
J6
J7
J8
J9
J10
Tabel 6. Hasil Penjadwalan Data (10×5)
Algoritma
Jadwal
M
F
I
CDS
1-10-7-6-4170 1278 245
5-3-9-2-8
RA
7-1-6-10-4164 1175 131
9-3-5-2-8
CDS MO 7-1-6-10-4164 1166 111
3-5-9-8-2
RA MO 7-1-6-10-4164 1164 110
4-9-8-3-2
CDS MOT 7-1-6-10-4- 163 1167 115
5
2
1
7
6
3
7
5
7
4
2
6
2
5
6
7
2
1
8
3
3
4
2
6
1
5
4
7
6
5
5
2
1
3
8
2
6
1
9
8
7
6
3
2
6
2
5
7
1
3
9
2
7
3
4
1
5
3
8
1
7
5
2
2
3
5
1
6
2
3
8
2
5
4
9
3
2
6
1
8
2
6
4
2
6
2
5
2
6
3
7
1
4
2
4
6
2
2
6
7
Dibandingkan algoritma CDS, algoritma
CDS dengan Mutiple Objective memberikan
hasil yang leibh baik. Jika CDS menghasilkan
(95, 765, 154), maka CDS dengan Mutiple
Objective menghasilkan (93, 755, 137). Ketiga
CI - 21
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
tujuan mempunyai nilai yang lebih kecil. Jika
digunakan bobot, menghasilkan yang lebih
baik lagi, yaitu (93, 732, 126). Bobot yang
digunakan w1, w2, w3 berturut-turut (0, 0, 1)
Kesimpulan yang sama juga diperoleh jika
algoritma RA dibandingkan dengan algoritma
RA dengan Mutiple Objective. Pada algoritma
RA dengan multiple objective terboboti,
diperoleh nilai idle yang terkecil, yaitu senilai
119 unit. Tetapi dua tujuan yang lain yaitu
makespan dan total flow time lebih besar
dibandingkan dengan hasil algoritma CDS
dengan Mutiple Objective terboboti.
Tabel 8. Hasil Penjadwalan Data (10×10)
Algoritma
Jadwal
M
F
CDS
3-1-10-5-995
765
6-8-2-7-4
RA
3-10-1-5-997
766
8-6-2-7-4
CDS MO 3-1-5-10-993
755
6-8-4-2-6
RA MO 3-1-10-5-896
749
9-4-2-6-7
3-1-6-5-10- 93
732
9-2-4-7-8
3-1-5-10-9- 93
748
2-6-8-4-7
3-1-5-10-9- 93
751
4-6-8-2-7
CDS MOT
3-1-5-10-9- 93
755
6-8-4-2-7
3-1-5-10-4- 95
745
9-2-6-8-7
3-1-5-10-4- 96
750
9-6-8-2-7
3-1-10-5-8- 95
756
9-6-4-2-7
3-1-10-5-8- 95
755
9-6-2-4-7
3-1-10-5-8- 95
752
9-4-6-2-7
3-1-10-5-8- 96
749
RA MOT
9-4-2-6-7
3-1-10-5-8- 96
748
6-9-2-4-7
3-1-10-5-8- 96
749
6-9-4-2-7
3-1-4-10-5- 98
741
8-6-9-2-7
I
154
154
137
130
126
139
127
137
125
126
140
144
132
130
141
137
ISSN : 2302-7088
Jika keenam algoritma diterapkan pada
data 10 job 8 mesin dari Sahu (2009) (tabel 9),
diperoleh hasil seperti pada tabel 10.
Tabel 9. Data (10×8) dari Sahu (2009)
J1
J2
J3
J4
J5
J6
J7
J8
J9
J10
M1
M2
M3
M4
M5
M6
M7
M8
6
3
8
4
9
3
5
2
1
6
5
9
1
6
8
2
9
8
4
3
1
5
6
3
2
4
4
9
6
5
7
7
4
1
9
3
2
1
2
5
9
2
3
5
2
7
4
6
5
2
3
5
9
6
5
2
8
3
4
7
4
6
5
7
9
3
6
4
3
1
2
1
9
7
6
5
6
8
9
9
Tabel 10. Hasil Penjadwalan Data (10×8)
Algoritma
Jadwal
CDS
6-9-4-3-8-75-10-1-2
RA
6-9-4-10-83-7-5-2-1
CDS MO 6-9-4-3-8-71-5-2-10
RA MO 6-9-10-4-87-3-5-1-2
6-9-10-4-38-7-1-5-2
6-9-4-3-8-71-10-5-2
CDS
6-9-4-3-8-7MOT
5-10-1-2
6-9-4-3-8-71-5-10-2
6-9-4-3-8-71-5-2-10
6-9-4-10-87-1-3-5-2
6-9-10-4-87-3-1-5-2
6-9-10-4-8RA MOT
7-3-5-1-2
6-9-10-4-87-1-3-5-2
6-9-10-4-87-3-1-2-5
M
F
I
90
658
77
92
665
93
93
645
70
91
650
76
89
648
68
90
650
75
90
658
77
91
650
72
93
645
70
90
650
83
91
649
78
91
650
76
92
648
79
96
646
81
119
Dibandingkan dengan RA, algoritma CDS
menghasilkan jadwal yang lebih baik. Jika
jadwal RA menghasilkan makespan, total flow
time dan total idle time berturut-turut (92, 665,
93), maka CDS menghasilkan makespan, total
Data 10 job 8 mesin dari Sahu (2009)
CI - 22
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
flow time dan total idle time (90, 658, 77).
Dengan
menggunakan
CDS
multiple
objective, terjadi peningkatan nilai makespan,
tetapi total flow time dan total idle timenya
menurun, yaitu (93, 645, 70). Jika digunakan
CDS multiple objective terboboti, dengan
bobot w1, w2, w3 berturut-turut (1, 0, 0),
diperoleh jadwal yang lebih baik lagi, yaitu
(89, 648, 68).
KESIMPULAN
Dari memodifikasi algpritma yang telah
dikembangkan oleh Rajendran (1995), dengan
memberi bobot pada fungsi relativitasnya, dan
mengubah jadwal awal dengan menggunakan
algoritma RA, serta melakukan perbandingan
dengan menggunakan data sekunder dapat
diambil kesimpulan antara lain :
1. Dari beberapa data yang digunakan,
algoritma RA yang merupakan modifikasi
dari dengan menggabungkan keuntungan
dari Palmer’s slope index dan CDS, tidak
selalu menghasilkan jadwal yang lebih
baik algoritma CDS.
2. Dengan Bobot yang ditambahkan pada
fungsi relativitas, akan bisa menghasilkan
jadwal yang lebih baik lagi. Dalam
penelitian ini ditunjukkan dengan semakin
kecilnya nilai makespan, total flow time,
dan total idle time. Hal ini terjadi pada
data 3 (10×5), data 4 (10×10), dan data 5
(10×8).
Jika data yang digunakan
berukuran kecil (jumlah job × banyaknya
mesin), maka penambahan bobot kurang
mempengaruhi solusi yang diperoleh. Hal
ini ditunjukan pada data 1 (5×3) dan data 2
(5×5).
CI - 23
ISSN : 2302-7088
DAFTAR PUSTAKA
[1] Rajendran, Chandrasekharan. Heuristic for
Scheduling in Flowshop with Multiple
Objectives,
European
Journal
of
Operational Research, Vol.82, p 540-555,
1995.
[2] Sahu, Atul Kumar, Efficient Heuristics for
Scheduling Tasks on A Flow Shop
Environment to Optimize Makespan,
Thesis, Departemen of Mechanical
Engineering,
National
Institute
of
Technology, Rourkela, 2009.
[3] Heizer, Jay & Barry Render. Operations
Management.. Upper Saddle River, New
Jersey. Pearson Education, Inc, 2008.
[4] Champbell, H.G., Dudek, R.A, and Smith,
M.L. A Heuristic Algorithm for the n-job,
m-machine
sequencing
problem,
Managemen Science 16, p. B630-B637,
1970.
[5] Hong, T. P., T. T., Wang, S. L., Wang. A
Fuzzy CDS-based Scheduling Algorithm
for More Than Two Machine Centers,
Journal of Advanced Computational
Intelligence, Vol.5, No.4., 2001.
[6] Ravindran, D., Haq, A. Noorul, Selvakuar,
S.J., Sivaraman, R.. Flow Shop
Scheduling With Multiple Objective of
Minimizing Makespan and Total Flow
Time, Int J Adv Manuf Technol, Vol. 25,
p 1007-1012, 2005.
[7] Kattan, Ibrahim, Mikolajczak, Boleslaw,
Kattan, Khalid, Alqassar, Bassam.
Minimizing Cycle Time and Group
Scheduling, Using Petri Nets A Study of
Heuristic Methods, Journal of Intelligent
Manufacturing, Vol. 14, p 107-121, 2003.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
PENGELOMPOKAN DATA KATEGORI DENGAN MISSING VALUE
MENGGUNAKAN ALGORITMA K-NEAREST NEIGHBOUR IMPUTATION
DAN K-MODES
Lailil Muflikhah*, Aditya Hari Bawono**
*Program Teknologi Informasi dan Ilmu Komputer, Universitas Brawijaya
** Program Studi Ilmu Komputer, Universitas Brawijaya
*[email protected], **[email protected]
Abstrak
Salah satu solusi untuk mempermudah pencarian adalah dengan melakukan
pengelompokan dan salah satu metoda yang cukup terkenal adalah k-Means clustering,
dimana bentuk data yang dikelompokkan berjenis numerik. Namun pada dunia nyata,
data dapat berjenis kategori dan juga tak selalu lengkap berisikan nilai-nilai. Oleh karena
itu, dalam paper ini dikenalkan dua metode untuk mengatasi hal tersebut, yakni kNearest Neighbour Imputation (k-NN Imputation) sebagai cara untuk mengatasi data
yang mengandung missing value dan k-Modes sebagai cara untuk melakukan
pengelompokan data berkategori.
Uji coba dilakukan dengan memberikan tiga dataset: mushroom, balance scale dan car
evaluation dengan berbagai jumlah prosentase data ber-missing value, yakni 5%, 10%
dan 15%. Dari hasil uji coba didapatkan adanya penurunan performa F-measure dari
ketiga dataset tersebut tetapi tidak mengandung missing value.
Kata kunci : k-Means, k-Modes, k-NN Imputation, missing value
Abstract
One solution to facilitate the search is by grouping and k-Means clustering is a wellknown clustering method, in which the form of segmented in numeric data type.
However, in the real world, the data can be diversified category and also they do not
always contain the completed values. Therefore, this paper introduced two methods to
overcome this problem, the k-Nearest Neighbour Imputation (k-NN Imputation) is used
to solve data containing missing value and k-Modes as a way to perform clustering of
categorical data.
An experiment test is done by giving three datasets: mushroom, balance scale and car
evaluation with high-percentage amount of data missing value, such as 5%, 10% and
15%. The test result is obtained a decrease in F-measure performance of the three
datasets but does not contain the missing value.
Keywords: k-Means, k-Modes, k-NN Imputation, missing value
PENDAHULUAN
Dalam penelitian sebelumnya,
beberapa
algoritma yang digunakan untuk melakukan
pengelompokan, diantaranya adalah k-means [1]
beserta variasi-variasinya. K-means adalah
algoritma yang efisien untuk melakukan
pengelompokan.
Namun,
penggunaannya
cenderung terbatas pada data numerik dikarenakan
algoritma k-means menghitung rata-rata cluster.
[2] mengajukan suatu metode campuran numerik
dan simbolik untuk mengembangkan algoritma k-
CI - 24
means untuk melakukan pengelompokan pada
atribut kategori. Namun terjadi lamanya
perhitungan apabila atribut kategori memiliki
banyak kategori. Pada penelitian selanjutnya, [3]
mengajukan sebuah algoritma k-modes yang
merupakan pengembangan dari algoritma k-means
dengan maksud mengatasi masalah pengklasteran
pada data kategori. Pada penelitian tersebut oleh
Huang digunakan beberapa dataset lengkap, tanpa
adanya missing value seperti dataset soybean dan
nursery. Namun, dalam kejadian nyata, data tidak
selalu lengkap, seringkali terdapat missing
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
value[4]. Sedangkan, pengelompokan tidak dapat
dilakukan apabila terdapat missing value,
dikarenakan dapat menimbulkan perkiraan dan
mempengaruhi kualitas algoritma[5]. Pada
umumnya, penanganan missing value adalah
menemukan pendekatan yang dapat mengisi
dengan nilai yang mungkin. Beberapa metode
yang digunakan untuk menangani missing value
adalah mean imputation, case deletion, dan k-NN
imputation. Pada penelitian yang dilakukan Acuna
[6], menunjukkan, k-NN imputation memiliki
tingkat kesalahan yang paling rendah dari metodemetode tersebut, sehingga digunakan dalam
penelitian ini.
TINJAUAN PUSTAKA
Data
Menurut Lee dan Santana [7] data dan
informasi memiliki pengertian yang berbeda. Data
dikatakan sebagai bahan mentah dari informasi.
Data merupakan kumpulan kejadian nyata yang
dapat
dijamin kebenarannya.
Data
dapat
dikelompokkan ke dalam dua jenis, yaitu data
kategori dan data numerik. Data kategori adalah
data yang mengambil suatu himpunan nilai
tertentu. Namun, data numerik adalah data yang
berbentuk angka. Data numerik kebanyakan
didefinisikan sebagai kuantitatif, dan dapat pula
berupa “kontinyu”, juga berupa “diskrit”.
Missing Value
Missing value merupakan hal yang biasa
terdapat pada dataset. Missing value pada
dataset didefinisikan sebagai kekosongan nilai
dari variabel tertentu pada dataset. Sebagian
besar algoritma data mining tidak dapat
bekerja secara langsung dengan dataset
yang
tidak
lengkap. Oleh karena itu
diperlukan suatu metode penanganan untuk
missing value pada dataset tersebut.[8]
Pada umumnya metode untuk menangani
missing value dapat dibagi dalam tiga kategori,
yaitu Case/Pairwise Deletion, Parameter
Estimation dan Teknik Imputasi. Pada metode
teknik Imputasi, missing value digantikan dengan
nilai perkiraan yang didasarkan pada informasi
yang terdapat pada dataset. Beberapa metode
yang termasuk teknik imputasi diantaranya adalah
Mode Imputation dan K-Nearest Neighbor
Imputation.[9]
ISSN : 2302-7088
K-Nearest
Neighbor
(KNN)
adalah
pendekatan untuk mencari kasus dengan
menghitung kedekatan antara kasus baru dengan
kasus lama, yaitu berdasarkan pada pencocokan
bobot dari sejumlah fitur yang ada.[10]
Menurut Olivas [11], k-Nearest Neighbor
Imputation termasuk dalam Machine Learning
Solutions dalam teknik imputasi. Metode ini
menangani missing value pada suatu data dengan
melakukan imputasi dengan mempertimbangkan
nilai yang diberikan oleh record yang paling
mirip.
Pengelompokan (Clustering)
Menurut Anderberg [12], membagi himpunan
obyek ke dalam klaster yang homogen adalah
operasi yang mendasar dalam data mining.
Pengklasteran adalah suatu pendekatan yang
banyak digunakan untuk mengimplementasi
operasi tersebut. Metode pengklasteran membagi
himpunan obyek ke dalam suatu klaster dimana
obyek-obyek dikelompokkan yang sama adalah
mirip maupun sama satu dengan lainnya
dibanding obyek-obyek di kelompok lainnya
berdasarkan konsep maupun sifat yang dibawa
obyek tersebut, sebagaimana terlihat pada
Gambar 1.
Gambar 1. Ilustrasi pengelompokan
Menurut Zaiane [13], pada Gambar 1 dapat
dengan mudah diidentifikasikan empat kelompok
di mana data dibagi, kriteria jarak adalah
similarity atau kesamaan jika dua atau lebih
benda milik klaster yang sama jika mereka dekat
menurut jarak tertentu (dalam kasus ini jarak
geometris). Hal ini disebut pengelompokan
berdasarkan jarak.
Algoritma K-Modes
Menurut Huang [13], algoritma k-means
memiliki kelemahan dimana penggunaan yang
terbatas untuk data numerik. Huang melakukan
modifikasi pada algoritma k-means. Adapun
algoritma
k-Modes
secara
keseluruhan
sebagaimana berikut:
1. Pilih k awal, satu per kelompok
K-Nearest Neighbor Imputation (KNNI)
CI - 25
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
2. Alokasikan obyek ke kelompok. Gunakan
Euclidean Distance seperti pada persamaan
2.2. Update modus per kelompok.
3. Setelah setiap obyek dialokasikan ke dalam
kelompok, lakukan tes ulang terhadap
dissimilarity obyek terhadap modus saat ini.
Jika sebuah obyek ditemukan lebih dekat
dengan suatu klaster yang lain daripada
klaster sekarang, lakukan alokasi ulang obyek
dan update modus setiap kelompok.
4. Ulangi langkah 3 hingga tidak ada obyek
berganti kelompok setelah pengetesan penuh
terhadap seluruh record dalam dataset.
ISSN : 2302-7088
tersebut. Kemudian ditentukan nilai data dengan
frekuensi terbanyak.
Accuracy
Metode evaluasi yang digunakan dalam
penelitian ini adalah performance metric error rate
digunakan untuk mengevaluasi nilai atribut yang
bertipe kualitatif dan F-measure yang ditentukan
berdasarkan nilai precission dan recall. Menurut
Tan.,dkk. [14], Error rate dapat dihitung dengan
persamaan 1.
€/'0!1 U356& =& !0!1
Error rate=
(1)
€/'0!1 Œ47!0 U356& =&
Gambar 2. Gambaran umum sistem
Sedangkan accuracy adalah kebalikan dari
error rate. Accuracy dapat dihitung dengan
persamaan 2.
Accuracy= − •3343 3!75
(2)
F-Measure
F-measure merupakan gabungan antara recall
dan precision yang didefinisikan dengan
persamaan 3 [15]:
z 35;!00 z 235;&=&4
− 5!=/35 = 35;!00R235;&=&4
(3)
METODOLOGI
Adapun perancangan perangkat lunak yang
digunakan meliputi tiga proses utama sebagaimana
terlihat pada Gambar 2, yakni
1. Proses request data
2. Proses penanganan missing value dengan
metoda k-NN Imputation (KNNI)
3. Proses pengelompokkan dengan k-Modes
Pada proses request data merupakan pemilihan
dataset yang digunakan untuk dalam uji coba.
Sedangkan untuk penanganan missing value
ditunjukkan dalam Gambar 3. Pada tahap awal
dilakukan pemilihan terhadap data uji yang
memiliki missing value dan yang lengkap. Proses
selanjutnya dilakukan penghitungan nilai jarak
eucledian beserta pengurutan terhadap nilai jarak
Gambar 3. Flow chart proses penanganan
missing value dengan k-NN Imputation
CI - 26
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
HASIL DAN PEMBAHASAN
1.2
76
0.3
MV 5%
MV 10%
Accuracy
0.25
0.2
MV 15%
0.15
MV 20%
MV 30%
0.1
58
0.05
MV 40%
MV 50%
1
11
21
31
41
51
61
71
81
91
0
Jumlah Tetangga (k)
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
MV 5%
MV 10%
MV 15%
MV 20%
MV 30%
MV 40%
1
13
25
37
49
61
73
85
97
Accuracy
Gambar 4. Grafik hubungan k dengan tingkat
accuracy pada dataset balance scale
MV 50%
Jumlah Tetangga (k)
Gambar 5. Grafik hubungan k dengan tingkat
Accuracy pada dataset Car Evaluation
MV 5%
1
MV 10%
0.8
MV 15%
0.6
MV 20%
0.4
MV 30%
0.2
MV 40%
0
MV 50%
1
11
21
31
41
51
61
71
81
91
Accuracy
Dataset yang akan digunakan pada penelitian
ini diperoleh dari UCI machine learning
repository, yakni mushroom, balance scale, dan
car
evaluation.[16]
Dengan
melakukan
penghilangan data sebagai evaluasi uji coba dari
metoda yang digunakan. Sifat yang dimiliki
dataset pada penelitian kali ini berbeda satu
dengan lainnya.
Hasil dari uji coba ketiga dataset tersebut
dengan menerapkan metoda K-NN Imputation
pada jumlah tetangga (k) = 1 hingga k = 100 dan
menggunakan prosentase jumlah missing value
yang bervariasi terlihat pada Gambar 4, Gambar 5
dan Gambar 6.
0.35
ISSN : 2302-7088
Jumlah Tetangga (k)
Gambar 6. Grafik hubungan k dengan tingkat
Accuracy pada dataset Mushroom
Analisa pengaruh jumlah missing value
Accuracy tertinggi dimiliki oleh dataset
balance scale yang ditunjukkan pada Gambar 4
dengan 5% missing value di k = 77 dengan nilai
0.20932 dan accuracy terendah dimiliki oleh
dataset balance scale 20% pada k = 50 dengan
nilai 0.040. Pada dataset balance scale 5% terlihat
bahwa accuracy yang dimiliki lebih baik jika
dibandingkan dengan dataset balance scale 10%
hingga 50%. Hal ini menunjukkan bahwa accuracy
metode KNNI missing value dipengaruhi jumlah
missing value pada dataset balance scale.
Sedangkan perbandingan jumlah missing value
pada dataset car evaluation ditunjukkan pada
Gambar 5. Accuracy tertinggi dan terendah
dimiliki oleh dataset car 5% pada k = 25 dengan
nilai 0.2975 dan k = 71 dengan nilai 0.13095. Pada
dataset car evaluation 5%, accuracy cenderung
lebih baik daripada dataset car evaluation 10%
dan 15%.
Perbandingan accuracy perbandingan jumlah
missing value pada dataset mushroom ditunjukkan
Gambar 6. Pada dataset mushroom 5%, 10%, dan
15% semuanya memiliki accuracy 1 dimana
semua nilai imputasi adalah cocok dengan nilai
aslinya. Accuracy terendah dimiliki oleh dataset
mushroom 5% dengan nilai 0.6 pada k = 98,
namun pada dataset mushroom 5% nilai accuracy
1 cenderung lebih menurun perlahan jika
dibandingkan dengan dataset mushroom 5% dan
lainnya.
Accuracy ditentukan jumlah missing value telah
ditunjukkan oleh hasil pengujian metode KNNI.
Hal ini disebabkan pada dataset yang memiliki
missing value yang lebih banyak lebih mungkin
terjadi kesalahan daripada dataset yang memiliki
missing value lebih sedikit. Sebab lain adalah
makin banyak missing value pada dataset
mengakibatkan semakin sedikit jumlah tetangga
yang dimasukkan pada perhitungan, jumlah
CI - 27
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
tetangga yang memungkinkan adalah banyaknya
data yang lengkap pada dataset.
Analisa pengaruh rasio missing value
Contoh dataset balance scale dengan tiga buah
missing value yang berbeda tempat akan
ditunjukkan oleh Tabel 1, Tabel 2, dan Tabel 3.
Tabel 1 Contoh bagian dataset balance scale 1
No
Att1
Att2
Att3
Att4
1
1
1
1
1
…
…
…
…
…
72
3
1
3
5
73
1
3
5
74
5
3
1
75
1
1
1
…
…
…
…
…
625
5
5
5
5
Tabel 4 Hasil dataset balance scale 1, accuracy
= 0.66667
Nilai
Posisi
KNNI
Nilai nyata
(73, 0)
5
4
(74, 1)
1
1
(75, 2)
4
4
Tabel 5 Hasil dataset balance scale 2, accuracy =
0.3333
Nilai
Posisi
KNNI
Nilai nyata
(73, 0)
5
4
(74, 0)
5
5
(75, 0)
4
1
Tabel 6 Hasil dataset balance scale 3
accuracy = 0
Nilai
Posisi
KNNI
Nilai nyata
(74, 0)
4
5
(74, 1)
4
1
(74, 2)
2
3
Tabel 2 Contoh bagian dataset balance scale 2
No
Att1
Att2
Att3
Att4
1
1
1
1
1
…
…
…
…
…
72
3
1
3
5
73
1
3
5
74
1
3
1
75
1
4
1
…
…
…
…
…
625
5
5
5
5
Tabel 3 Contoh bagian dataset balance scale 3
No
Att1
Att2
Att3
Att4
1
1
1
1
1
…
…
…
…
…
72
3
1
3
5
73
4
1
3
5
74
5
75
1
1
4
1
…
…
…
…
…
625
5
5
5
5
Pada k = 15 diujikan pada metoda KNNI dan
dapatkan nilai hasil beserta akurasinya seperti
pada Tabel 4, Tabel 5, dan Tabel 6.
Tabel 7 Contoh potongan dataset mushroom 1
N At … At Att Att Att Att …
o t1
t9 10 11 12 13
1 x
… k
e
e
s
s
…
… … … … … … … … …
14 x
… t
e
s
f
w
…
15 x
… e
s
s
w
…
16 s
… t
e
s
w
…
ISSN : 2302-7088
Att
22
u
…
u
g
u
Dari Tabel 4, Tabel 5, dan Tabel 6 dapat
diambil kesimpulan bahwa accuracy dipengaruhi
oleh peletakan missing value. Pada Tabel 1,
dataset diletakkan pada baris dan kolom yang
berbeda, hal ini membuat rentang nilai perhitungan
jarak terhadap tetangga sebanyak k menjadi lebih
luas yang berakibat pada hasil yang baik. Berbeda
dengan dataset pada Tabel 3 dimana dalam satu
baris terdapat tiga missing value dan hanya satu
kolom untuk perhitungan jarak. Pada Tabel 1
rentang nilai jarak berkisar antara √G •]•CCj √sedangkan pada Tabel 3.3 hanya berkisar antara
antara √G •]•CCj √ yang dapat mengakibatkan
kemungkinan masuknya nilai tetangga sebanyak k
yang tidak diinginkan.
Jika dilakukan analisa terhadap dataset
mushroom yang memiliki panjang kolom 22, maka
hasil percobaan akan ditunjukkan oleh Tabel 7,
Tabel 8 dan Tabel 9.
17
18
…
30
0
CI - 28
f
x
..
x
…
…
…
…
e
e
…
p
e
e
…
e
s
s
…
e
s
…
s
w
w
…
s
…
…
…
…
g
g
…
g
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Tabel 8 Contoh potongan dataset mushroom 2
N At … At Att Att Att Att …
o t1
t9 10 11 12 13
1 x
… k
e
e
s
s
…
… … … … … … … … …
14 x
… t
e
s
f
w
…
15 x
… e
s
s
w
…
16 s
… t
s
s
w
…
17 f
… e
s
s
w
…
18 x
… e
e
s
s
w
…
… ..
… … … … … … …
30 x
… p
e
e
s
s
…
0
Att
22
u
…
u
g
u
g
g
…
g
Tabel 9 Contoh potongan dataset mushroom 3
No Att … Att Att1 Att1 Att1 Att1
1
9
0
1
2
3
1
x
… k
e
e
s
S
… …
… …
…
…
…
…
14 x
… t
W
15 x
… e
e
s
s
W
16 s
… t
e
s
s
W
17 f
… e
e
s
s
W
18 x
… e
e
s
s
W
… ..
… …
…
…
…
…
30 x
… p
e
e
s
S
0
Dengan k=15,didapatkan hasil dan nilai akurasinya
seperti pada Tabel 10, Tabel 11, dan Tabel 12.
Tabel 10 Hasil dataset mushroom 1,accuracy = 1
Posisi
Nilai KNNI Nilai nyata
(15, 10) e
e
(16, 11) s
s
(17, 12) s
s
Tabel 11 Hasil dataset mushroom 2,accuracy = 1
Nilai
Posisi
KNNI
Nilai nyata
(15, 10) e
e
(16, 10) e
e
(17, 10) e
e
Tabel 12 Hasil dataset mushroom 3,accuracy =
0.6667
Nilai
Posisi
Nilai KNNI nyata
(14, 10) e
E
(14, 11) s
S
(14, 12) s
F
ISSN : 2302-7088
Pada dataset mushroom yang terdapat jumlah
kolom yang lebih banyak daripada dataset balance
scale dan car evaluation, accuracy yang dihasilkan
lebih baik. Dengan jumlah kolom sebanyak 22,
dataset mushroom mampu menampung variasi
jarak dengan rentang G 1& 88! √
dengan
variasi jarak yang sedemikian hingga, maka
kemiripan dan ketidakmiripan suatu record dengan
record yang lain akan tampak lebih jelas dan lebih
signifikan. Jika dilihat dari rasio jumlah kolom
yang terdapat missing value, walaupun jumlah
hilangnya sama (yaitu tiga), namun pada dataset
balance scale kehilangan tiga data dalam satu
record adalah kehilangan 75% data untuk
perhitungan dari record tersebut, sedangkan pada
dataset mushroom hanya kehilangan 13.6%.
Perbedaan yang amat signifikan inilah yang alasan
perbedaan tingkat accuracy pada dataset dengan
jumlah kolom yang berbeda.
Analisa jumlah tetangga (k)
Untuk dataset yang memiliki banyak outlier, k
terbaik adalah pada k yang cenderung besar
nilainya, demikian sebaliknya untuk dataset yang
memiliki lebih sedikit outlier. Hal ini dibuktikan
dengan rata-rata accuracy pada dataset balance
scale dan car evaluation yang memiliki lebih
banya outlier daripada dataset mushroom.
Pada dataset balance scale, rata-rata accuracy
terbaik untuk setiap banyak prosentase missing
value adalah 0.11099 pada k = 77. Hal ini
disebabkan pada k = 77 bernilai tinggi pada
dataset balance scale 5% missing value demikian
pula dengan prosentasi missing value yang lain
pada dataset balance scale. Sebaliknya, pada k =
10 dataset balance scale memiliki rata-rata
accuracy terendah 0.0799. Hal ini dikarenakan
pada k = 10, sistem mengambil 10 tetangga yang
kebanyakan memiliki nilai yang tidak sesuai
dengan nilai yang sebenarnya.
Pada dataset car evaluation, rata-rata accuracy
terbaik pada setiap prosentase missing value
adalah 0.2160 pada k = 90 dan rata-rata accuracy
terkecil pada k = 10 dengan nilai 0.1744. Pada
dataset mushroom, rata-rata accuracy terbaik
untuk setiap banyak prosentase missing value
adalah 0.9294 pada k = 29 dan rata-rata accuracy
terkecil sebesar 0.6478 pada k = 100.
Analisa banyak kelas dalam dataset
terhadap nilai precision, recall, dan fmeasure
CI - 29
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Pada dataset balance scale dengan kelas
sebanyak tiga, kisaran f-measure antara 0.4270.4642. Untuk dataset car evaluation dengan
kelas sebanyak empat, kisaran f-measure antara
0,1227-0.2275.
Sedangkan
pada
dataset
mushroom dengan dua kelas, kisaran f-measure
antara 0.799-0.958. Dari hasil pengujian
disimpulkan banyaknya kelas pada data asli
mempengaruhi performa pengelompokkan, makin
sedikit kelas, maka semakin baik performa
pengklasteran..
Analisa jumlah cluster k terhadap fmeasure
Pada k-modes, terdapat centroid awal yang
acak, Kualitas pengklasteran k-modes amat
dipengaruhi oleh centroid awal. Jika centroid awal
cocok dengan kelas pada dataset yang
bersangkutan, maka nilai f-measure akan bernilai
lebih baik daripada yang tidak cocok. Dari data
pengujian dapat ditarik kesimpulan bahwa missing
value berpengaruh pada baiknya penilaian
pengelompokkan. Hal tersebut disebabkan oleh
semakin buruk kualitas dataset dengan semakin
banyak outlier, maka hasil pengelompokan
cenderung tidak relevan. Dari hasil pengujian
didapatkan penurunan kualitas pengelompokkan
K-Modes pada dataset
yang mengandung
rmissing value sebesar 3% pada dataset balance
scale, 26.24% pada dataset car evaluation, dan
6.4% pada dataset mushroom. Jika dihitung ratarata penurunan kualitas pengelompokan K-Modes
maka dihasilkan 11.8% penurunan untuk
pengelompokkan pada dataset yang mengandung
missing value.
KESIMPULAN
Kualitas pengklasteran K-Modes dipengaruhi
oleh banyaknya missing value yang salah
digantikan oleh metode KNNI. Makin banyak
missing value pada dataset, semakin buruk pula
performa pengklasteran.
Nilai accuracy metode KNNI dipengaruhi oleh
rasio, jumlah missing value, dan dataset yang
bersangkutan. Rasio missing value sebesar 75%
yang berada pada attribute yang sama akan
memperburuk perhitungan. Sedangkan nilai ratarata accuracy tertinggi pada dataset balance pada
k = 77 dengan nilai 0.11099 dan accuracy
terburuk pada k = 10 dengan nilai 0.0799. Pada
dataset car evaluation, rata-rata accuracy terbaik
untuk setiap banyak prosentase missing value
adalah 0.2160 pada k = 90 dan rata-rata accuracy
terkecil pada k = 10 dengan nilai 0.1744. Pada
ISSN : 2302-7088
dataset mushroom, rata-rata accuracy terbaik
untuk setiap banyak prosentase missing value
adalah 0.9294 pada k = 29 dan rata-rata accuracy
terkecil sebesar 0.6478 pada k = 100.
Pada pengklasteran dengan metode k-Modes,
terdapat kelemahan yang mendasar pada langkah
penentuan centroid awal yang dilakukan secara
acak. Pemilihan centroid awal secara acak akan
mengakibatkan hasil yang acak pula. Meskipun
dengan dataset yang bermissing value dan dengan
tingkat accuracy yang beraneka ragam, 11.8%
adalah rata-rata hasil perbedaan kualitas f-measure
proses dataset bermissing value dengan yang tidak
bermissing value oleh kombinasi metode KModes dan KNNI.
DAFTAR PUSTAKA
[1] MacQueen, J. B. (1967). Some Methods for
Classification and Analysis of Multivariate
Observations, In Proceedings of
the 5th
Berkeley Symposium on Mathematical
Statistics and Probability, pp. 281-297.1967
[2] Ralambondrainy, H. A Conceptual Version of
the k-Means
Algorithm,
Pattern
Recognition Letters, Volume:16, pp.11471157. 1995.
[3] Z. Huang.
Extensions to the k-means
algorithm for clustering large data sets with
categorical values. Data Mining and
Knowledge Discovery. Volume: 2, pp.283304. 1998
[4] Zhang, S., Qin, Z., X. Ling, C., Sheng, S.,
“Missing is useful”: Missing values in costsensitive decision trees. IEEE Transactions
on Knowledge and Data Engineering,
Volume: 17, pp. 1689-1693. 2005
[5] Qin, Y., Zhang, S., Zhu, X., Zhang, J., Zhang
C., Semi-parametric Optimization for
Missing Data Imputation.
Applied
Intelligence, Volume 27(1): 79-88. 2007
[6] Acuna, Edgar dan Rodriguez,Caroline. The
Treatment of Missing Values and its Effect
in the Classifier Accuracy. University of
Puerto Rico, Mayaguez. 2003.
[7] Lee, Finn dan Santana, Juan. Data Mining :
Meramalkan Bisnis Perusahaan. PT. Elex
Media Komputindo, Jakarta. 2010.
[8] Gheyas, Iffat A. dan Smith, Leslie S. A
Novel Nonparametric Multiple Imputation
Algorithm for Estimating Missing Data.
Proceedings of the World Congress on
Engineering, Volume II WCE, London, U.K.
2009
CI - 30
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
[9] Little, R. J. and Rubin, D.B. Statistical
Analysis with Missing Data Second Edition.
John Wiley and Sons, New York. 2002
[10] Luthfi, E.T dan Kusrini. Algoritma Data
Mining. Andi Offset, Yogyakarta.2009
[11] Olivas, Emilio Soria. Handbook of Research
on Machine Learning Application and
Trends : Algorithms, Methods, and
Techniques. IGI Global, United States of
America. 2010
[12] Anderberg, M. R.. Cluster Analysis for
Applications. New York : Academic Press
Inc1.973
[13] Zaiane, Osmar R. Principles of Knowledge
Discovery in Databases. University of
Alberta. 1999
[14] Tan, Pang-Ning, Michael Steinbach dan
Vipin Kumar. Introducing to data mining.
New York. 2004.
[15] Yang, Yiming dan Liu, Xin. A Reexaminationof
Text
Categorization
Methods. In Proceedings of ACM SIGIR
Conference on Research and development
in Information Retrieval (SIGIR), pp 42-49.
1999.
http://www.cs.cmu.edu/~yiming/publication
s.html tanggal akses: 21 Februari 2011
[16] UCI Machine Learning Repository, http:
//www
.ics.
uci.
Edu
/mlearn/MLRepository.html,
Diakses
tanggal 22 Maret 2011
CI - 31
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
SISTEM PEROLEHAN CITRA BERBASIS ISI MENGGUNAKAN
GRAY LEVEL DIFFERENCE METHOD BERDASARKAN
CIRI TEKSTUR PADA POLA BATIK
Nansy Lovitasari*, Fitri Damayanti**
*Program Studi Teknik Informatika, Fakultas Teknik
**Program Studi Manajemen Informatika, Fakultas Teknik
Universitas Trunojoyo
E-mail : *[email protected], **[email protected]
Abstrak
Batik adalah kerajinan yang memiliki nilai seni tinggi dan telah menjadi bagian dari
budaya Indonesia sejak lama. Batik di Indonesia mempunyai beragam jenis tekstur batik,
warna batik, dan pola batik yang mencerminkan asal usul daerah dari batik tersebut. Saat
ini pencarian citra berbasis teks sudah tidak efektif lagi karena adanya penilaian subjektif
dari pengguna dalam merepresentasikan suatu citra. Karena itu diperlukan suatu sistem
yang dapat menangani pencarian citra menggunakan query berupa citra atau disebut
Sistem Perolehan Citra berbasis Isi (SPCI) atau Content Based Image Retrieval (CBIR).
Penelitian ini menggunakan ciri tekstur sebagai proses pencarian kemiripan dari delapan
kelas citra batik yang berbeda yaitu: Cirebon, Bali, Bangkalan, Pamekasan, Sumenep,
Yogyakarta, Solo, dan Pekalongan sebagai objek perolehan citra berbasis isi. Sistem
dibangun dengan proses utamanya yaitu ekstraksi fitur tekstur dengan menggunakan
metode Gray Level Difference Method (GLDM) menggunakan empat arah utama. GLDM
menghitung perbedaan mutlak antara sepasang derajat keabuan yang terpisah oleh jarak
dan arah tertentu. Hasil ekstraksi fitur dilakukan pengukuran jarak kemiripan
menggunakan metode Euclidean Distance. Dari uji coba aplikasi menggunakan
pengukuran kemiripan Euclidean Distance dengan nilai threshold=7 diperoleh akurasi
presisi sebesar 61% pada data pelatihan 168 dan data uji coba 32 dengan 10 citra yang
ditampilkan.
Kata Kunci : Tekstur, Sistem Perolehan Citra berbasis Isi, Gray Level Difference Method,
Euclidean Distance.
Abstract
Batik is a craft that has high artistic value and has become part of the culture of
Indonesia for a long time. Batik in Indonesia has a wide range of batik texture, color
batik and batik patterns. Current text-based image search is no longer effective because
of the subjective assessment of the user in representing an image. What is needed a
system that can handle image search using the query form or image of the so-called
Content-based Image Acquisition System or Content Based Image Retrieval. This study
using texture features as similarity search process of batik images of eight different
classes, namely: Cirebon, Bali, Jakarta, Pamekasan, Sumenep, Yogyakarta, Solo, and
Pekalongan as content-based image acquisition objects. The system is built with the main
process is the extraction of texture features using the Gray Level Difference Method using
the four cardinal directions. The results of feature extraction will be measured using the
method of Euclidean distance similarity Distance. Of a pilot application using Euclidean
Distance similarity measurement threshold = 7 with the value obtained by 61% precision
accuracy on 168 training data and trial data 32 by the number of displayed image 10.
Keywords: Texture, Content-based Image Acquisition System, Gray Level Difference
Method, Euclidean Distance.
CI - 32
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Pamekasan,
Sumenep,
Yogyakarta,
Pekalongan, Solo, Cirebon, dan Bali. Citra
query dan citra basis data yang digunakan
berupa citra statis sebanyak 200 citra dengan
format *bmp dan berukuran 200x200 pixel.
PENDAHULUAN
Sistem pencarian citra yang ada sekarang
ini pada umumnya menggunakan metode
tradisional dalam menyimpan dan mengelola
citra [1]. Metode tradisional yang biasa
digunakan dalam pencarian citra sudah tidak
mungkin lagi digunakan, misalnya pencarian
citra dengan kata kunci (teks) karena nama
dari sebuah file tidak dapat mempresentasikan
isinya. Sebagai contoh bila ingin mencari
citra kuda, dimana citra kuda itu mempunyai
banyak informasi antara lain mungkin yang
akan dihasilkan adalah makanan kuda, atau
area pacuan kuda, atau informasi lain yang ada
unsur kuda dan yang pasti suatu citra itu bisa
berbicara seribu kata. Selain itu adanya
persepsi manusia yang berbeda- beda terhadap
suatu citra dapat mengakibatkan hasil
pencarian citra tidak sesuai dengan yang
diinginkan.
Untuk menghindari pencarian citra dengan
kata kunci, maka digunakan metode lain
sebagai pengganti atau ditambahkan pada
sistem kata kunci yaitu sistem perolehan citra
berbasis isi (SPCI) atau Content Based Image
Retrieval (CBIR) yang mencari citra hanya
berdasarkan informasi yang ada pada citra.
Informasi dari citra yang didapatkan
merupakan ciri dari citra, pada level primitif
dapat berupa warna, bentuk, tekstur [2].
CBIR merupakan teknologi pencarian citra
dengan membandingkan citra yang ada pada
contoh citra dengan yang ada pada basis data
citra (Query By Example). CBIR dilakukan
dengan membandingkan nilai jarak citra query
dengan citra pada basis data (image distance
measure). Pengukuran nilai jarak citra dapat
dikelompokkan dengan tiga kelas utama yaitu
pertama kemiripan warna, kedua kemiripan
pada bentuk dan yang ketiga kemiripan pada
tekstur [3].
Penelitian ini menentukan fitur tekstur
batik dalam SPCI dengan mendapatkan
atribut-atribut dari metode statistical Gray
Level Difference Method (GLDM), yaitu
Contrast, Angular Second Moment (ASM),
Entropy, Inverse Different Moment (IDM),
Mean dan menghitung kemiripan antara citra
query dengan citra yang ada dalam basis data
dengan menggunakan metode Euclidean
Distance. Data citra yang digunakan untuk
objek penelitian adalah beberapa citra batik
dari delapan kelas, yaitu: Bangkalan,
ISSN : 2302-7088
METODE
Gray Level Difference Method (GLDM)
Pada Gray Level Difference Method,
peristiwa dari perbedaan mutlak dihitung
antara sepasang derajat keabuan yang terpisah
oleh jarak tertentu dengan arah tertentu. Maka
akan dihasilkan sebuah kemungkinan dari
kumpulan variable distribusi. Misal I(m, n)
sebagai fungsi intensitas gambar. Untuk setiap
pergeseran δ=(Δm, Δn), I`(m, n)=| I(m, n)I(m+ Δm, n+ Δn)|, untuk Δm dan Δn bernilai
integer. Misal g(·|δ) sebagai estimasi
”probability density function” dari I`(m, n),
g(i|δ)=#(I`(m, n)=i). Jika terdapat derajat
keabuan m, ”probability density function”
adalah vektor berdimensi m yang mana
komponen ke-i adalah probabilitas bahwa
I`(m, n) akan memiliki nilai i. Pada citra digital
fungsi intensitas I(m, n) adalah fungsi diskrit,
oleh karena itu g(·|δ) dihitung sebagai
banyaknya nilai I`(m, n) yang terjadi. Jika
pergeseran menggunakan empat arah utama
(Ө=0°,45°,90°,135°) dengan jarak 1 (δ=1) [4].
Terdapat beberapa ciri tekstural yang dapat
diekstraksi darai Gray Level Difference
Method diantaranya adalah: Contrast, Angular
Second Moment, Entropy, Inverse Difference
Moment, dan Mean [4].
a. Contrast
Contrast menunjukkan ukuran penyebaran
(momen inersia) elemen-elemen matriks citra.
Contrast menentukan kecerahan pada citra.
Semakin besar nilai contrast maka akan
terlihat tingkat kecerahannya.
ƒ $ = ∑[& " U′ 8 &|’, “ ]…………. (1)
b. Angular Second Moment (ASM)
Angular Second Moment menunjukkan
ukuran sifat homogenitas citra. Nilai ASM
besar memiliki variasi bentuk yang homogen
atau tidak bervariasi.
”
= ∑[U′ 8 &|’, “ ] …………... (2)
c. Entropy
Entropy
menyatakan
ukuran
ketidakteraturan bentuk atau pola. Nilai
entropy besar memiliki tingkat keteracakan
homogen (teratur) dan bernilai kecil jika
struktur citra tidak teratur
CI - 33
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ˆ$Œ =
− ∑[U′ 8 &|’, “
" 048 {U′ (8(&|’, “ }] …(3)
Desain Sistem
d. Invers Difference Moment (IDM)
Invers Difference Moment menunjukkan
kehomogenan citra yang berderajat keabuan
sejenis. Citra homogen akan memiliki nilai
Inverse Difference Moment (IDM) yang besar.
—‡ = ∑[U′ #8(&|’, “ %/ (& + ] …. (4)
e. Mean
Menunjukkan
ukuran
dispersi
dan
menentukan tekstur permukaan dari suatu
citra. Semakin besar nilai mean maka ukuran
dispersi besar dan menghasilkan permukaan
tekstur kasar.
ˆ”$ = ∑[& " U′ (8(&|’, “ ] ………. (5)
dengan :
I(m, n) = fungsi intensitas gambar
CON = Contrast
ASM = Angular Second Moment
ENT = Entropy
IDM = Invers Difference Moment
MEAN = Mean
i = selisih antara sepasang derajat keabuan
δ = jarak pergeseran
P’ = probabilitas
Ө = arah pergeseran
g(i|δ,Ө) = estimasi probability density
function
Euclidean Distance
Tahap terakhir dalam sistem temu kembali
adalah pencarian kemiripan antara citra query
dengan fitur dari citra yang sudah disimpan
pada basis data. Dalam program aplikasi
pencarian citra berdasarkan tekstur, similarity
measure yang digunakan adalah Euclidean
Distance. Pencarian dari suatu sistem
pencarian citra secara signifikan. Euclidean
Distance merupakan teknik yang paling
sederhana untuk menghitung jarak di antara
dua vektor. Misalkan diberikan dua buah
feature vector p dan q, maka jarak di antara
dua feature vector p dan q ditentukan sebagai
berikut [1].
P = ( p1, p2, ...., pn)
Q = (q1, q2, ..., qn)
6 = ˜(2 − ~
+ (2 − ~
ISSN : 2302-7088
+ ⋯ + (2 − ~
= ˜∑&+ (2& − ~& ……………. (6)
dengan
d = ukuran jarak antara query citra P dan
citra Q yang ada di dalam database.
p = feature vector pada image P
q = feature vector pada image Q
CI - 34
Dalam penelitian ini dibangun sistem
perolehan citra berbasis isi dengan ekstraksi
fitur tekstur menggunakan metode Gray Level
Difference Method dengan proses pencocokan
menggunakan metode Euclidean Distance.
Sistem ini menggunakan model QBE (Query
By Example) yaitu pengguna memberi
masukan berupa citra kemudian sistem akan
mencari citra- citra lain yang mirip dengan
citra
query.
Proses
pertama
untuk
mendapatkan feature vector suatu citra adalah
konfersi citra true color ke grayscale, setelah
itu dilakukan proses pengambilan nilai pixel
dilanjutkan dengan proses kuantisasi pada citra
grayscale. Dari hasil proses kuantisasi
dilakukan proses ekstraksi fitur tekstur dengan
menghitung empat arah GLDM (00, 450, 900
dan 1350) dan lima fitur GLDM (Contrast,
Angular Second Moment (ASM), Entropy,
Inverse Difference Moment (IDM), dan
Mean). Bobot arah dan fitur inilah yang
disebut hasil dari proses ekstraksi fitur. Prosesproses diatas dilakukan baik pada citra query
maupun pada proses pembuatan Feature
Vector citra basis data. Kemudian dilakukan
proses pencocokan (matching) antara citra
query dengan Feature vector citra basis data
menggunakan metode pencarian nilai jarak
yaitu Euclidean Distance. Proses ini bertujuan
untuk mencari citra yang mempunyai fitur
yang mirip dengan citra query. Sebagai hasil
dari sistem maka pada dialog aplikasi
menampilkan 10, 20 dan 30 citra terurut mulai
dari yang paling mirip sampai yang tidak
mirip. Blok diagram dari sistem dapat dilihat
pada Gambar 1.
Garis besar sistem dibagi menjadi dua
yakni proses pembuatan Feature Vector citra
basis data dan proses pencocokan / pencarian
citra. Hasil akhir dari dari pencarian citra
tersebut adalah menampilkan 10, 20 dan 30
citra yang memiliki tingkat kecocokan paling
tinggi yang terdapat dalam basis data. Berikut
perincian proses pembuatan Feature Vector
citra basis data:
a. Citra masukan berupa citra statis dengan
format .bmp
b. Citra masukan diubah dari warna RGB ke
grayscale
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
HASIL DAN PEMBAHASAN
Pada uji coba sistem ini data yang
digunakan pada citra query dan proses
pembuatan Feture Vector pada basis data
berupa citra dengan format *bmp sebanyak
200 citra yang terdiri dari 8 kelas citra yaitu:
Bangkalan,
Pamekasan,
Sumenep,
Yogyakarta, Pekalongan, Solo, Cirebon, dan
Bali.
Skenario uji coba merupakan perlakuan
yang dilakukan untuk melakukan uji coba citra
query terhadap citra
basis data untuk
mengetahui tingkat pengenalan citra query.
Skenario uji coba yang dilakukan seperti
ditunjukkan pada Tabel 1.
Tabel 1 Skenario Uji Coba
Jumlah
citra yang
ditampilkan
10 Citra
Skenario
Uji Coba
1
.Gambar 1. Desain sistem CBIR secara umum
2
c. Pengambilan nilai piksel grayscale
kemudian dilakukan proses kuantisasi
untuk menyederhanakan nilai piksel citra.
d. Kemudian dilakukan proses ekstraksi fitur
tekstur dengan menggunakan Gray Level
Difference Method
e. Hasil ekstraksi fitur tekstur disimpan
dalam basis data berbasis file di dalam
folder CBIR.
Untuk proses pencocokan atau pencarian
citra dilakukan proses sebagai berikut :
a. Citra masukan berupa citra statis dengan
format *bmp.
b. Citra masukan diubah dari warna RGB ke
grayscale
c. Pengambilan nilai piksel grayscale
kemudian dilakukan proses kuantisasi
untuk menyederhanakan nilai piksel citra.
d. Kemudian dilakukan proses ekstraksi fitur
tekstur dengan menggunakan Gray Level
Difference Method.
e. Hasil ekstraksi fitur tekstur masukan citra
kemudian dilakukan pencocokan dengan
fitur tekstur yang terdapat dalam basis
data dengan menggunakan Euclidean
Distance
f. Menampilkan citra yang mirip dengan
citra masukan.
CI - 35
3
4
5
20 Citra
6
7
8
9
10
30 Citra
11
12
13
14
15
Total Data
Pelatihan
120
(15 x 8)
Total data
uji coba
80
(10
136
(17 x 8)
152
(19 x 8)
168
(21 x 8)
184
(23 x 8)
120
(15 x 8)
64
(8 x 8)
48
(6 x 8)
32
(4 x 8)
16
(2 x 8)
80
(10 x
8)
136
(17 x 8)
152
(19 x 8)
168
(21 x 8)
184
(23 x 8)
120
(15 x 8)
136
(17 x 8)
152
(19 x 8)
168
(21 x 8)
184
(23 x 8)
x
8)
64
(8 x 8)
48
(6 x 8)
32
(4 x 8)
16
(2 x 8)
80
(10 x
8)
64
(8 x 8)
48
(6 x 8)
32
(4 x 8)
16
(2 x 8)
Sebagai contoh, Gambar 2 merupakan uji
coba pada skenario 5 dengan data pelatihan
184 (23 x 8) dan data uji coba 16 (2 x 8)
dengan citra query merupakan bagian dari
delapan kelas citra yang tersedia di basis data.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
Pada Tabel 2 menunjukkan hasil rata-rata
nilai recall dan precision dengan nilai
threshold=7 dengan 10 citra yang ditampilkan.
Citra query:
Tabel 2 Hasil rata-rata tingkat Pengenalan
dengan jumlah citra yang ditampilkan 10
Gambar 2 Pekalongan_25.bmp
Pada Gambar 3 menampilkan 10 citra
dalam basis data yang mirip dengan citra
query Pekalongan_25.bmp pada skenario 4,
sehingga hasil yang diperoleh dari nilai Recall
0,11 dan Precision 0,5.
\
Pada Tabel 3 menunjukkan hasil rata-rata
nilai recall dan precision dengan nilai
threshold=7 dengan 20 citra yang ditampilkan.
Tabel 3 Hasil rata-rata tingkat Pengenalan
dengan jumlah citra yang ditampilkan 20
Gambar 3 Percobaan citra query
Pekalongan_25.bmp
Pada Gambar 4 menampilkan 20 citra
dalam basis data yang mirip dengan citra
query Cirebon_23.bmp pada skenario 9,
sehingga hasil yang diperoleh dari nilai Recall
0,14 dan Precision 0,7.
Pada Tabel 4 menunjukkan hasil rata-rata
nilai recall dan precision dengan nilai
threshold=7 dengan 30 citra yang ditampilkan.
Tabel 4 Hasil rata-rata tingkat Pengenalan
dengan jumlah citra yang ditampilkan 30
Gambar 4 Percobaan citra query
Cirebon_23.bmp
Setelah dilakukan uji coba terhadap sistem
perolehan citra berbasis isi, Tabel 2, Tabel 3
dan Tabel 4 merupakan hasil rata- rata nilai
recall dan precision berdasarkan tekstur
dengan ukuran citra 200x200 piksel dan
jumlah citra yang ditampilkan 10, 20, 30
dengan nilai threshold=7. Tabel 5 merupakan
hasil rata-rata tingkat pengenalan dengan nilai
threshold = 5 dan threshold =7 pada skenario
15.
CI - 36
Tabel 5 Hasil rata-rata tingkat Pengenalan
dengan nilai threshold = 5 dan threshold = 7
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Pada Tabel 5 merupakan tingkat
pengenalan dan hasil analisis dengan nilai
threshold = 5 pada skenario 15 dengan jumlah
data pelatihan 184 citra (23x8), data uji coba
16 citra (2x8) dan jumlah citra yang
ditampilkan 30 memiliki nilai recall 0,16 dan
nilai precision 0,53. Sedangkan tingkat
pengenalan dan hasil analisis dengan nilai
threshold =7 memiliki nilai recall 0,17 dan
nilai precision 0,54. Pada proses perhitungan
kemiripan antara citra query dan citra basis
data digunakan nilai threshold =7 karena
memiliki tingkat kecerahan yang lebih besar
dan tingkat keteraturan yang tinggi pada citra
Pekalongan_25. Sehingga tingkat pengenalan
citra lebih baik dengan menggunakan nilai
threshold= 7.
SIMPULAN
Pada sistem pengenalan citra berdasarkan
tekstur berbasis Gray Level Difference Method
didapatkan beberapa ciri tekstur yaitu
Contrast, Angular Second Moment (ASM),
Entropy, Inverse Different Moment (IDM), dan
Mean. Pengukuran nilai kemiripan Euclidean
Distance dengan nilai threshold = 7 dapat
digunakan untuk mengenali citra dengan nilai
precision terbaik sebesar 61%. Tingkat
pengenalan dengan nilai threshold = 5
CI - 37
ISSN : 2302-7088
memiliki nilai precision lebih kecil. Jumlah
citra yang ditampilkan sangat berpengaruh saat
proses pengenalan citra terhadap precisionnya.
Semakin
banyak jumlah
citra
yang
ditampilkan maka nilai precision semakin
kecil dan nilai recall semakin besar. Jumlah
data pelatihan terbaik pada jumlah data
pelatihan 168 citra dan jumlah data uji coba 32
citra dengan10 jumlah citra yang ditampilkan.
DAFTAR PUSTAKA
[1] Isa, S. M. Aplikasi Image Retrieval
Berdasarkan
Tekstur
dengan
Menggunakan
Transformasi
Haar
Wavelet. Seminar Nasional Sistem dan
Informatika. SNSI : 06-039. 221-226.
2007.
[2] Bagus, B. Image Database Menggunakan
Sistem Content Based Image Retrieval
dengan Ekstraksi Fitur Terstruktur.
Tugas
Akhir.
Surabaya:
Institut
Teknologi Sepuluh Nopember. 2007.
[3] Ramadijanti, N. Content Based Image
Retrieval Berdasarkan Ciri Tekstur
Menggunakan
Wavelet.
Seminar
Nasional Aplikasi Teknologi Informasi.
ISSN: 1907-5022. 49-54. 2006.
[4] Zahab, N. M. Analisis Tekstur Parket
Kayu dengan Menggunakan Metode
Statistikal Gray Level Difference Method.
Tugas Akhir. Depok : Universitas
Gunadarma. 2009.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
CI-38
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
PENGENALAN POLA KARAKTER TULISAN TANGAN MENGGUNAKAN
METODE DISCRETE COSINE TRANSFORM (DCT)
DAN LEARNING VECTOR QUANTIZATION (LVQ)
*Ummu Zazilah, **Cucun Very Angkoso
Program Studi Teknik Informatika, Fakultas Teknik
Universitas Trunojoyo
*
E-mail: [email protected], ** [email protected]
Abstrak
Pengenalan tulisan tangan merupakan salah satu cabang dari pengenalan pola. Penelitian
ini membahas sistem pengenalan tulisan tangan offline yang menggunakan pencirian
lokal dari karakter-karakter tulisan. Salah satu faktor penentu dalam pengenalan tulisan
tangan adalah model atau bentuk tulisan tangan dari penulis yang mampu dikenali. Citra
masukan dalam penelitian ini berasal dari 10 responden, tiap responden menuliskan 26
karakter huruf abjad kapital. Dari 10 pola tulisan yang ada akan diuji tingkat
kebenarannya dengan data pelatihan yang sebelumnya telah diproses dan disimpan dalam
database. Pada penelitian ini proses ekstraksi ciri menggunakan Discrete Cosine
Transform untuk menentukan karakteristik dari huruf, setelah itu diklasifikasi
menggunakan metode Learning Vector Quantizatian untuk mengukur kemiripan antara
data pelatihan dan data uji coba. Hasil penelitian dengan menggunakan ekstraksi ciri
DCT dan klasifikasi LVQ diperoleh akurasi pengenalan dengan prosentase keberhasilan
tertinggi 86%.
Kata kunci: DCT, LVQ, error minimum, Pengenalan tulisan tangan.
Abstract
Handwriting recognition is one topics in the domain of pattern recognition research.
This study discusses the offline handwriting recognition system using local
characterization of handwritten characters. We are using 10 respondents which each
respondents is writing the entire 26-character alphabet but only its capital letters.
Feature extraction are being used in this study is Discrete Cosine Transform. The
Learning Vector Quantization then used to measure the similarity of the objects. The
results of DCT feature extraction with LVQ classification obtained the accuracy
percentage of success 86%.
Key words: DCT, LVQ, minimum error, Handwriting recognition
menjadi langkah penting untuk mencapai
akurasi pengenalan yang tinggi. Sebagai
contoh, Discrete Cosine Transform (DCT)
dapat digunakan untuk mengekstraksi ciri dari
kata – kata tulisan tangan. Disajikan suatu
teknik untuk pengakuan kata – kata tulisan
tangan dimana DCT digunakan untuk
mengekstraksi ciri dari kata itu. Ciri – ciri ini
kemudian menggunakan jaringan syaraf tiruan
dalam tahap klasifikasi [2].
Pada penelitian sebelumnya, pengenalan
karakter tulisan tangan Arab, membandingkan
efektivitas metode DCT dan DWT untuk
menangkap ciri diskriminatif karakter tulisan
tangan Arab. Koefisien dari kedua metode
telah digunakan untuk klasifikasi didasarkan
PENDAHULUAN
Pengenalan karakter tulisan tangan offline
otomatis adalah kemampuan komputer untuk
membedakan karakter dan kata-kata, dapat
dibagi menjadi pengenalan karakter cetak dan
tulisan tangan. Karakter yang dicetak memiliki
satu gaya dan ukuran untuk font tertentu.
Namun, karakter tulisan tangan memiliki gaya
dan ukuran yang bervariasi baik bagi penulis
yang sama atau penulis yang berbeda [1]. Hal
ini menunjukkan betapa dibutuhkan sistem
yang mampu mengenali berbagai gaya
penulisan dari masing – masing orang.
Dalam
sebuah
sistem
pengenalan,
pemilihan metode ekstraksi ciri yang dapat
CI-39
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
pada persamaan (1) diabaikan maka
persamaan (1) akan menjadi persamaan (4) :
N−1
π (2x + 1)u 
C(u) =
cos
 2N 
(4)
y=0
pada implementasi jaringan syaraf tiruan.
Hasilnya
telah
dianalisis
dan
telah
menunjukkan bahwa ekstraksi ciri berbasis
DCT menghasilkan pengenalan yang tinggi
yaitu 91.87% [1].
Tujuan dari sistem ini mampu melakukan
pengenalan karakter pada kata tulisan tangan
menggunakan ekstraksi ciri Discrete Cosine
Transform (DCT) dan Learning Vector
Quantization (LVQ) yang diharapkan dapat
melakukan pengenalan pola tulisan tangan
dengan tingkat akurasi pengenalan yang tinggi.
Batasan masalah dalam sistem ini adalah
Sistem yang digunakan adalah offline. Kedua,
data masukan dalam sistem ini adalah file
gambar berekstensi .bmp tulisan tangan.
Ketiga, sistem hanya dirancang untuk
mengenali huruf abjad kapital tulisan tangan
dan batasan masalah yang keempat pada
sistem adalah Citra yang digunakan adalah
hitam dan putih, dan citra diam (still image).
∑
Discrete Cosine Transform 2D (DCT – 2D)
DCT – 2D merupakan pengembangan dari
DCT – 1D, maka transformasi diskrit dapat
dinyatakan dalam bentuk
persamaan (5) :
N−1 M−1
g(x, y,u, v) =
2
M.N
π(2x +1)u π(2y +1)v
cos
 2M 
2N 
∑∑ f (x, y)cos 
α(u)α(v)
x=0 y=0
(5)
u = 0, 1, 2,......,N −1 dan
v = 0, 1, 2,......,N −1. Invers DCT 2
Dimana
Dimensi dapat
persamaan (6).
f ( x, y) =
2
M.N
α(u)α(v)
dituliskan
N−1 M−1
∑∑ C(u, v)cos
x=0 y=0
dalam
bentuk
 π(2x+ 1)u
 π(2y+ 1)v
 2N  cos  2M 
(6)
Dimana :
M= Ukuran dimensi dari baris sebuah
citra
N= Ukuran dimensi dari kolom sebuah
citra
x= nilai pixel lebar citra
y= nilai pixel tinggi citra
u= nilai koefisien lebar citra
v= nilai koefisien tinggi citra
Discrete Cosine Transform (DCT)
Discrete Cosine Transform (DCT) adalah
metode sebuah transformasi citra yang
mengubah fungsi dari domain spasial ke
domain frekwensi. [3]
1D – Discrete Cosine Transform (DCT – 1 D)
Definisi secara umum 1D-DCT dapat
dituliskan dalam persamaan (1):
N−1
π(2x+1)u
C(u) =α(u)
f (x) cos
 2N  (1)
∑
x=0
Proses pengambilan nilai koefisien DCT
secara zigzag dapat dilihat pada gambar 1.
Dimana untuk. u = 1, 2, 3,......,N − 1 .
Untuk invers DCT – 1D dapat ditulis dalam
persaman (2) :
N−1
π(2x +1)u
α(u) C(u) cos 
f (x) =
 2N 
x=0
∑
Gambar 1. Proses pengambilan nilai
koefisien DCT dengan zigzag
(2)
Seperti yang telah dijelaskan diatas bahwa
DCT merupakan proses perubahan signal/citra
dari ruang/domain spasial ke ruang/domain
frekuensi,
sehingga
transformasi
ini
menghasilkan sebuah matriks frekuensi dari
citra yang dimasukkan. Pada Gambar (2)
Frekuensi rendah yang dihasilkan umumnya
terkumpul di sudut kiri atas (hal ini di
lambangkan dengan nilai DCT yang tinggi)
sedangkan semakin ke bawah frekuensi yang
dihasilkan semakin tinggi dilambangkan
dengan nilai DCT yang semakin rendah [1].
Dimana untuk u = 1, 2, 3,......,N − 1
Baik untuk persamaan 1 dan 2, α (u) dapat
dituliskan dalam bentuk persamaan (3) :


α (u ) = 


1
N
untuk u=0 
2
N
untuk

 (3)
u<>0

Dari persamaan 1, 2, dan 3 jelas bahwa
untuk nilai u = 0, maka akan didapatkan nilai
rata – rata sampel. Jika nilai f (x) dan α (u)
CI-40
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
Learning Vector Quantization (LVQ)
prepocessing
Bobot
LVQ
prepocessing
Ekstrasi ciri
(DCT)
Ekstrasi ciri
(DCT)
pengenalan
Pelatihan
LVQ
Tulisan tangan
dikenali
Gambar 2. Desain sistem
1. Citra masukan berasal dari file berekstensi
*.bmp, satu citra training terdiri dari satu
kata (tulisan tangan huruf abjad dari A-Z)
2. Citra masukan diproses awal yaitu proses
konversi true color menjadi grayscale,
kemudian konversi grayscale menjadi
biner, dan cropping untuk memecah kata
menjadi per karakter (per huruf) serta
dinormalisasi ukuran menjadi 32 x 32.
3. Citra hasil normalisasi yang berupa citra
biner menjadi masukan dalam proses
ekstraksi ciri dengan menggunakan
metode DCT untuk menghasilkan
koefisien.
4. Citra hasil ekstraksi ciri tersebut dilatih
dengan LVQ untuk menghasilkan bobot
yang digunakan untuk proses pengenalan
citra.
5. Hasil bobot LVQ disimpan dalam media
penyimpanan (database atau file).
1. Inisialisasi bobot (W), maksimum
epoh (max epoh), error minimum
yang diharapkan (eps), learning
rate (α). Bobot diinisialisasi
secara random sedangkan max epoh
dan
learning
rate
digunakan
untuk menentukan batas ambang
komputasi.
2. Input : x (m,n)
Target : T(1,n)
Input adalah matik input dari
citra tulisan sedangkan target
adalah kelas bobot training.
3. Melakukan
proses
sebagai
berikut:
Selama (epoh, max epoh) atau
(α>eps)
a. Epoh = epoh+1
b. Kerjakan untuk i=1 sampai n
i. Tentukan j sedemikian rupa
sehingga || x – Wj || minimum
(sebut sebagai Cj )
ii. Perbaiki Wj dengan ketentuan
Jika T = Cj maka :
Untuk proses pengujian pada gambar 2:
1. Citra masukan berasal dari file berekstensi
*.bmp, satu citra training terdiri dari satu
kata (tulisan tangan)
2. Citra masukan diproses awal yaitu proses
konversi true color menjadi grayscale,
kemudian konversi grayscale menjadi
biner, dan cropping untuk memecah kata
menjadi per karakter (per huruf) serta di
normalisasi ukuran menjadikan 32 x 32.
3. Citra hasil normalisasi yang berupa citra
biner menjadi masukan dalam proses
ekstraksi ciri dengan menggunakan
metode DCT untuk menghasilkan
koefisien.
4. Dilakukan proses pengenalan citra
karakter tulisan tangan menggunakan
metode Euclidean Distance dengan bobot
LVQ yang telah ada sebelumnya.
W (baru) =W (lama) + α(x – W (lama))
j
j
j
Jika T ≠ Cj maka :
W (baru) =W (lama) - α(x – W (lama) )
j
j
j
c. Kurangi nilai
Citra input
testing
Citra input
training
Learning Vector Quantization (LVQ)
adalah suatu metode untuk melakukan
pembelajaran pada lapisan kompetitif yang
terawasi. Suatu lapisan kompetitif akan secara
otomatis belajar untuk mengklasifikasikan
vector – vector input. Kelas – kelas yang
didapatkan sebagai hasil dari lapisan
kompetitif ini hanya tergantung pada jarak
antara vector – vector input, jika dua vector
input mendekati sama maka lapisan kompetitif
akan meletakkan kedua vector tersebut ke
dalam vector yang sama [4].
Secara garis besar algoritma Learning
Vector Quantization (LVQ) sebagai berikut
[4]:
α
RANCANGAN SISTEM
Pada kedua proses tersebut terdapat awal
proses yang sama yaitu adalah pemrosesan
awal citra dan ekstraksi ciri. Hasil akhir dari
metode LVQ adalah bobot pelatihan yang
disimpan ke dalam database/file. Hasil akhir
dari pengenalan citra adalah citra karakter
tulisan tangan yang berhasil dikenali. Berikut
perincian proses pelatihan pada gambar 2 :
CI-41
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Hasil dari pengenalan citra adalah sebuah
output mengenai kata tulisan tangan.
Tabel 2. Hasil uji coba pada skenario 1 dan
skenario 2 dengan perbedaan nilai error
minimum (eps)
HASIL DAN PEMBAHASAN
Nilai
eps
0.001
0.01
0.1
Pada program ini diujikan kepada 10
responden. Tiap responden menuliskan 1 pola
tulisan tangan sebanyak 26 huruf karakter
huruf abjad. Dalam tulisan tangan memiliki
perbedaan pada setiap kali penulisannya. Dari
10 pola tulisan yang ada akan diuji tingkat
kebenarannya dengan data pelatihan yang
sebelumnya telah diproses dan disimpan dalam
database. Citra pengenalan tulisan tangan ini
membutuhkan citra tulisan tangan huruf abjad
berukuran 32x32. Jumlah data masukannya
sebanyak 260 data. Dari data yang diperoleh
dari 10 responden akan menjadi data training
dan data testing dengan keterangan sebagai
berikut :
Jumlah data
skenario 1
Data set image2
(26 x 5) = 130
image
Nilai
alpha
0.05
0.01
0.1
Tingkat akurasi
Skenario 1
Skenario 2
70 %
80.76923 %
67.69231 %
81.53846%
70.76923 %
80.76923 %
Nilai alpha
skenario 2
Data set image1 =
Data testing
Data set image2 =
Data testing
Data set image2 =
Data training
Hasil kinerja
sistem pada
skenario pertama
Hasil kinerja
sistem pada
skenario kedua
Dalam penelitian ini telah dilakukan uji
coba kinerja sistem pada skenario 1 dan
skenario 2 dengan menggunakan validasi 130
data training dan 130 data testing. Dalam uji
coba ini menggunakan nilai 35 koefisien DCT
dan perbedaan nilai max epoh, eps , alpha dan
rumus update alpha.
Hasil percobaan dapat dilihat pada tabel
dibawah ini :
Tabel 1. Hasil uji coba pada skenario 1 dan
skenario 2 dengan perbedaan nilai max epoh
70 %
70 %
70 %
Tingkat akurasi
Skenario 2
80.76923 %
80 %
80 %
Tabel 4. Hasil uji coba pada skenario 1 dan
skenario 2 dengan perbedaan rumus update
alpha
Data
Dataset
setimage1
image1 =
(26 x 5) = 130
Data
training
image
Skenario 1
Skenario 1
70 %
70 %
70 %
Tabel 3 Hasil uji coba pada skenario 1 dan
skenario 2 dengan perbedaan nilai alpha
Gambar 3. Desain skenario uji coba
Nilai
max
epoh
10000
5000
1000
ISSN : 2302-7088
Tingkat akurasi
Skenario 2
80.76923 %
80.76923 %
80 %
CI-42
Alpha=0.1*alpha
Alpha=0.5*alpha
Tingkat akurasi
Skenario 1
Skenario 2
70 %
80.76923 %
73.84615 %
86.15385%
Pada Tabel 1 menunjukkan tabel hasil
pengujian skenario 1 dan skenario 2 dengan
dengan menggunakan validasi 130 data
training dan 130 data testing dengan nilai
error minimum (eps) = 0.001, learning rate
(alpha) = 0.05 dan nilai max epoh yang
berbeda pada setiap uji coba. Pada skenario 1
menghasilkan nilai akurasi yang sama pada
setiap uji coba sebesar 70%, sedangkan pada
skenario 2 menghasilkan nilai akurasi yang
berbeda pada setiap uji coba, dimana nilai
akurasi tertinggi terletak pada uji coba dengan
nilai max epoh = 10000 dengan nilai akurasi
80.77%, hal ini dapat disimpulkan bahwa
semakin besar nilai max epoh semakin bagus
nilai akurasi keberhasilannya.
Pada Tabel 2 menunjukkan hasil uji coba
kinerja sistem pada skenario 1 dan skenario 2
dengan menggunakan validasi 130 data
training dan 130 data testing dengan nilai max
epoh = 10000, alpha = 0.05 dan nilai error
minimum (eps) yang berbeda pada setiap uji
coba. Pada skenario 1 menghasilkan nilai
akurasi yang sama pada setiap uji coba sebesar
70%, sedangkan pada skenario 2 menghasilkan
nilai akurasi yang berbeda pada setiap uji
coba, dimana nilai akurasi tertinggi terletak
pada uji coba dengan nilai eps = 0.001 dengan
nilai akurasi 80.77%, hal ini dapat disimpulkan
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
bahwa semakin kecil nilai eps semakin bagus
nilai akurasi keberhasilannya
Pada tabel 3 menunjukkan hasil uji coba
kinerja sistem pada skenario 1 dan skenario 2
dengan menggunakan validasi 130 data
training dan 130 data testing dengan nilai max
epoh = 10000, eps = 0.001 dan nilai alpha
yang berbeda pada setiap uji coba. Pada
skenario 1 menghasilkan nilai akurasi yang
berbeda pada setiap uji coba, dimana nilai
akurasi tertinggi terletak pada uji coba dengan
nilai alpha = 0.1dengan nilai akurasi 70.77%,
sedangkan pada skenario 2 menghasilkan nilai
akurasi yang berbeda pada setiap uji coba,
dimana nilai akurasi tertinggi terletak pada uji
coba dengan nilai alpha = 0.01 dengan nilai
akurasi 81.54%, hal ini dapat disimpulkan
bahwa nilai alpha = 0.1 tepat untuk uji coba
pada skenario 1 dan dengan nilai alpha = 0.01
tepat untuk uji coba pada skenario 2.
Pada tabel 4 menunjukkan hasil uji coba
kinerja sistem pada skenario 1 dan skenario 2
dengan menggunakan validasi 130 data
training dan 130 data testing dengan nilai max
epoh = 10000, eps = 0.001, alpha = 0.05 dan
rumus update alpha yang berbeda pada setiap
uji coba. Pada skenario 1 menghasilkan nilai
akurasi yang berbeda pada setiap uji coba,
dimana nilai akurasi tertinggi terletak pada uji
coba dengan rumus update alpha = 0.5*alpha
dengan nilai akurasi 73.84%, sedangkan pada
skenario 2 menghasilkan nilai akurasi yang
berbeda pada setiap uji coba, dimana nilai
akurasi tertinggi terletak pada uji coba dengan
rumus update alpha = 0.5*alpha dengan nilai
akurasi 86.15%, hal ini dapat disimpulkan
bahwa rumus update alpha = 0.5*alpha tepat
untuk uji coba pada skenario 1dan skenario 2.
ISSN : 2302-7088
KESIMPULAN
Setelah menyelesaikan perancangan dan
pembuatan sistem pada aplikasi pengenalan
pola karakter pada kata tulisan tangan
menggunakan metode Discrete Cosine
Transform dan Learning Vector Quantization
(LVQ) serta melakukan uji coba dan evaluasi,
maka dapat ditarik kesimpulan bahwa dapat
dilihat dari hasil persentase pengujian yang
memiliki tingkat akurasi yang berbeda, dimana
dalam skenario pertama mempunyai nilai
akurasi tinggi dengan nilai max epoh = 10000,
error minimum (eps) = 0.001 , learning rate
(alpha) = 0.05 dan rumus update alpha = 0.5*
alpha, menghasilkan nilai akurasi sebesar
80.7%. Sedangkan dalam skenario kedua nilai
akurasi tinggi diperoleh dengan inputan nilai
max epoh = 10000, error minimum (eps) =
0.001 , learning rate (alpha) = 0.05 dan rumus
update alpha = 0.5*alpha, menghasilkan nilai
akurasi sebesar 86%.
DAFTAR PUSTAKA
[1] Lawgali.A ., Bouridane. A., Angelova.
M., Ghassemlooy. Z., Handwritten Arabic
Character Recognition: Which Feature
Extraction
Method?.
International
Journal of Advanced Science and
Technology. Vol 34. 2011.
[2] Alkhateeb. J. H., Jinchang. R., Jianmin.
J., Ipson. S. S., dan El-Abed. H., WordBased handwritten Arabic scripts
recognition using dct features and neral
network classifier. In International MultiConference on system, signal and devices.
1-5. 2008
[3] Purnomo, M. H. dan Muntasa, A.,
Pengolahan Citra Digital dan Ekstraksi
Fitur. Yogyakarta : Graha ilmu. 2010.
[4] Kusumadewi, S. Artificial Intelligence
(Teknik dan Aplikasinya). Yogyakarta :
Graha ilmu. 2003.
CI-43
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
PENGEMBANGAN PROTOTIPE PENGENALAN AKTIFITAS FISIK DENGAN
SENSOR ACCELEROMETER BERBASIS INTEGRASI DEMPSTER-SHAFER
DAN K-NEAREST NEIGHBOURS
Waskitho Wibisono
Jurusan Teknik Informatika
Institut Teknologi Sepuluh Nopember (ITS), Surabaya
E-mail: [email protected]
Abstrak
Sistem yang context-aware adalah sistem yang dirancang untuk mampu beradaptasi
dengan lingkungannya, dimana adaptasi dari system ini umumnya dilakukan dengan
informasi context dari penggunanya. Aktivitas fisik yang dilakukan oleh user, adalah
salah satu bentuk context yang penting dan umum digunakan untuk membangun sistem
context-aware tersebut. Dalam paper ini, prototipe aplikasi untuk identifikasi aktifitas
fisik user berbasis sensor accelerometer tunggal dikembangkan menggunakan
penggabungan metode Dempster-Shafer dan K-Nearest Neighbour (KNN). Ujicoba
dilakukan dengan menggunakan data yang didapat dengan dari sebuah sensor 3-Axis
Accelerometer pada SunSPOT device, yang dipasang pada paha pengguna. Ujicoba
pengenalan aktivitas dilakukan untuk tiga aktifitas fisik yang umum dilakukan user.
Hasil ujicoba menunjukkan akurasi pengenalan yang tinggi terhadap tiga aktivitas fisik
user, dari data yang didapat dari sensor accelerometer tersebut.
Kata
kunci: Sistem Context-Aware,
Accelerometer.
Pengenalan
Aktivitas,
Dempster-Shafer,
Abstract
Context-aware systems are systems that capable of adapting to their environments and
provide relevant information and/or services with minimum user intervention.
Commonly, a context-aware system will adapt based on context of the its user. Physical
user activities usually become the most important context used for system adaptation. In
this paper, a prototype of application used to identify physical user activity based on
accelerometer data is proposed. The prototype is developed based on integration of
Dempster-Shafer theory and K-Nearest Neighbor (KNN). Experiments were conducted
using data captured using 3-Axis Accelerometer of a SunSPOT device, placed at user’s
thigh. The activity recognition testing was performed, for three different common
physical activities of a user. The result of experiments shows high accuracy for the
physical user activities, using data from the accelerometer.
Keywords:
Context-Aware
Accelerometer.
System,
Activity
Recognition,
Dempster-Shafer,
Dey et al. [4] memberikan definisi yang
populer tentang context sebagai semua
informasi yang dapat digunakan untuk
mengenali aktivitas dari pengguna. Sebuah
sistem yang tanggap terhadap perubahan
context dari penggunanya, diharapkan agar
dapat meningkatkan usability dari sistem
tersebut terhadap kebutuhan user [5].
Aktivitas fisik yang sedang dilakukan user
adalah salah satu bentuk context yang penting
dan umum digunakan untuk membangun
context-aware system. Untuk mendeteksi
PENDAHULUAN
Perkembangan
dan
kemajuan
dari
komputasi bergerak dan teknologi perangkat
bergerak telah memunculkan ide untuk
membangun sistem yang context-aware [1, 2].
Sistem ini dirancang untuk mampu beradaptasi
dengan lingkungannya, serta memberikan
informasi atau layanan yang relevan berbasis
context tanpa memerlukan intervensi user
secara eksplisit [3, 4].
CI-44
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
himpunan hipotesis (Θ = •ℎr , . . , ℎ } dari ›
kejadian yang akan dikenali dan bersifat
mutually exclusive dan disebut sebagai frame
of discernment (FOD)[15].
Jika 2Θ merupakan himpunan power set
dari Θ, maka mass assignment (yang juga
dikenal sebagai mass function • didefinisikan
sebagai fungsi •: 2Θ → [0,1] dimana • ∅ =
0 dan ∑ ¡⊆Θ •#ℎ % = 1. Nilai mass dari
sebuah hypothesis ( ℎ , yakni • ℎ ,
merepresentasikan derajat dukungan proposisi
hL . Nilai dari mass yang dialokasikan untuk
• ¤ , yaitu mass yang dialokasikan untuk
frame of discernment, merepresentasikan
derajat ketidaktahuan atau uncertainty akan
hipotesis yang tepat.
Membangun fungsi untuk mendapatkan
nilai mass dari terhadap kemungkinakemungkinan hipotesis, adalah sebuah tahapan
yang sangat krusial untuk dilakukan untuk
mengadopsi teori DS.
Namun demikian,
hingga saat ini hal ini masih merukan isu
utama dalam penerapan teori DS dalam
memecahkan problem-problem klasifikasi
[14, 16].
Untuk mengatasi masalah tersebut, dalam
paper ini, penulis mengadopsi metode yang di
ajukan pertama kali [7] yang kemudian
digunakan di [8]. Detail dari metode ini kami
diskusikan dalam bagian berikut ini.
aktivitas fisik tersebut, sensor yang umum
digunakan adalah accelerometer [6]. Sensor
ini adalah salah satu sensor yang murah yang
sering dipakai untuk mengenali aktivitas dari
pengguna. Data yang dihasilkan dengan oleh
sensor ini umumnya dapat dipakai untuk
mengukur pergerakan dan orientasi dari
sebuah alat relatif terhadap gaya gravitasi.
Dalam paper ini, akan dipaparkan metode
untuk mengenali aktifitas user berbasis data
dari
sensor
accelerometer
dengen
menggunakan teori Dempster-Shafer (DS)
yang diintegrasikan dengan metode klasfikasi
K-Neirest Neighbor (KNN) [7, 8]. Teori DS
umumnya dipakai dalam permasalahan data
fusion untuk pengenalan situasi karena
memiliki memberikan banyak kelebihan yaitu
[9]:
• Memungkinkan
representasi
dari
imprecision dan uncertainty dengen
mengenalkan konsep tentang belief dan
plausibility [10];
• Memberikan
kemampuan
untuk
menggunakan partial knowledge dari
preposisi dengan kemampuan untuk
merepresentasikan
konjungsi
dari
beberapa hipotesis tentang kasus yang
akan dikenali, selain juga untuk hipotesis
tunggal [11, 12].
• Memberikan metode yang effektif untuk
mengkombinasikan
informasi dari
berbagai sumber data yang berbeda-beda
[13].
Selain keunggulan seperti yang ditulis
diatas, problem dasar dalam mengaplikasikan
teori DS untuk pengenalan aktifitas adalah
perlu dibangunnya metode yang sesuai untuk
berfungsi sebagai mass function [14]. Fungsi
ini
menghasilkan
nilai
mass
yang
merepresentasikan derajat dukungan kepada
sebuah hipotesis apabila sebuah evidence
didapatkan.
Dalam paper ini kami mengadopsi metode
yang di ajukan pertama kali oleh Denoux dan
kemudian digunakan oleh Yahdani et.al [7, 8]
untuk mendapatkan nilai mass. Penjelasan
tentang teori DS dan integrasinya dengan
metode KNN dijelaskan dalam sub bagian
berikut.
Mass Function berbasis Integrasi KNN
dan Dempster-Shafer (KNN-DS)
Metode klasifikasi berbasis KNN adalah
metode yang umum digunakan dalam
permasalah klasifikasi. Namun demikian,
kelemahan yang umum dari metode ini adalah
penggunaan mekanisme voting mayoritas.
Metode ini tidak mengakomodir perbedaan
jarak dari elemen-elemen data ¥¦¦, yang
didapatkan dari penghitungan jarak, dari
sebuah input data yang akan dikenali, terhadap
data-data yan ada dalam training dataset.
Namun pada kenyataannya, jarak dari elemenelemen KNN yang terpilih sering kali berbedabeda [7, 8] sehingga metode berbasis voting
mayoritas kurang efektif.
Sebagai contoh, misalnya saja, ¤ =
•§r , … , § } adalah himpunan dari aktifitas yang
akan dideteksi. Untuk membangun mass
function berbasis KNN-DS, sebuah dataset
pelatihan harus dipersiapkan untuk semua
aktifitas yang dinyatakan dalam ¤. Setiap data
TEORI DEMPSTER-SHAFER (DS)
Teori Dempster-Shafer (DS) dikenalkan
oleh Glen Shafer [15]. Dalam teori ini, sebuah
CI-45
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
dalam dataset tersebut haruslah memiliki label
s̅ ∈ •1, . . n} yang merepresentasikan aktifitas
yang terkait.
Ide dasar dari KNN adalah untuk
mengklasifikasikan input data berdasarkan dari
himpunan dari tetangga terdekat yang
didapatkan dari dataset training. Sebagai
contoh misalnya, sebuah himpunan nilai mass
ingin didapatkan dari sebuah input context
data ¬ - , kemudian sebuah himpunan
tetangga terdekat yang didapatkan dan
dinyatakan sebagai ®¯ t . Elemen-elemen dari
KNN yang dipilih tersebut dapat dihitung
dengan menggunakan perhitungan dengan
rumus jarak tertentu (misalnya euclidian),
antara input context data dan dataset training.
Secara umum, jumlah tetangga diatur
sebelum proses komputasi. Sebagai contoh,
misalnya ¥ merepresentasikan jumlah dari
tetangga terdekat. Untuk setiap ¬ ± ∈ ®¯ - ,
dimana ± = 1, . . , ¥ dimana labelnya adalah
sebagai ² adalah sebuah evidence yang
meningkatkan tingkat kepercayaan (belief)
bahwa input context ¬ - , tersebut termasuk
kedalam aktifitas §³ ∈ ¤. Namun demikian,
informasi ini tidak menjamin secara mutlak
akan kebenaran dugaan tersebut. Kondisi ini
dapat
direpresentasikan
dengan
mengalokasikan sebagian dari nilai belief
kepada §³ ∈ ¤, sedangkan sisanya dapat
dialokasikan ke FOD yaitu ¤ = •§r , … , § }.
Dalam metode ini, nilai mass dihitung
dengan fungsi yang bersifat monotonically
decreasing terhadap jarak antara context data
sebagai input dan elemen dari KNN yang
didapatkan, ¬ x ∈ Φµ t
dimana
x=
1, . . , K. Alasan yang melandasi konsep diatas
adalah : semakin besar jarak antara input data
dan elemen dari K-tetangga terdekat yanga
didapatkan akan mengindikasikan belief yang
semakin berkurang bahwa input data tersebut
adalah aktifitas yang terkait dengan label yang
diasosiakan oleh elemen data KNN yang
terkait[7]. Kondisi ini dapat direpresentasikan
oleh mass function yang memenuhi ketentuan
sebagai berikut [7, 8].
• #f§³ m, -, ±% = ·¸±¹tº
• ¤, -, ± = 1
»,¼
− • #f§³ m, -, ±%
ISSN : 2302-7088
• ½, -, ± = 0 ∀½
(3)
∈ ¤\ À¤, f§³ mÁ
Dimana o , adalah jarak antara input
context data dan ¬ - dengan ¬ ± ∈ ®¯ - ,
dan Ã>0 adalah koefisien normalisasi.
Koefisien ·
pada 0 < · < 1, yang
mengindikasikan bahwa meskipun jarak yang
didapatkan adalah nol, hal ini belum bisa
menjamin secara 100% bahwa input data
tersebut ¬ - memiliki aktivitas yang sama
dengan yang di dataset training. Dalam
prakteknya, nilai à dan · dapat ditentukan
secara heuritsik seperti yang ditunjukkan oleh
Deneoux [7].
Semisal kita mendapatkan ®¯,Å - sebagai
himpunan KNN yang termasuk kedalam
aktifitas §³ , kombinasi dari nilai mass yang
didapatkan dari ®¯,Å - dapat dihitung sebagai
berikut:
• ,³ #f§³ m, -% =
• ,³ ¤, - =
1−
Æ
ÇÈ Â ÉÊË,Ì
Æ
ÇÈ Â ÉÊË,Ì
#1 − ·¸±¹tº
1 − ·¸±¹tº
»,¼
»,¼
%
(4)
(5)
Jika ®¯,Å - = ∅, maka keseluruhan nilai
mass dialokasikan kepada FOD, yaitu
m¯ #¤ , -% = 1, dan • ,³ #f§³ m, -% = 0. Pada
langkah selanjutnya, nilai-nilai mass untuk
keseluruhan aktifitas yang telah didapatkan
dikombinasikan untuk mendapatkan nilai-nilai
mass gabungan. Dengan › sebagai jumlah dari
aktifitas yang akan dideteksi, koefisien
normalisasi G dihitung seperti dalam
persamaan berikut.
Ï = s • ,³ #f§³ m, -% Æ • , #Θ, -%
³+r
г
+ Æ • ,³ ¤ , ³+r
(6)
Kemudian nilai mass secara untuk setiap
aktifitas secara keseluruhan dapat dihitung
menggunakan persamaan berikut:
(1)
• #f§³ m, -% =
(2)
CI-46
(7)
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
¡
È,Ñ #f Ñ m,
¡
È,Ó
% ∏ÓÔÑ
Õ
Perhitungan untuk nilai mass aktivitas
”BERJALAN” didapat dari ± 2,5 sebagai
berikut:
Θ,
0.650308497 *
mr,× Θ
0.652001586
0.424002172
m1,3 •s× } 1 F m1,3 Θ
0.575997828
Nilai mass yang dialokasikan kepada FOD
(¤ , merepresentasikan derajat ketidak tahuan
(ignorance) dalam mengenali aktifitas.
Kondisi
yang
merepresentasikan
total
ignorance terjadi bila, • Θ, t
1. Nilai
tersebut didapatkan dengan persamaan sebagai
berikut :
• ¤ ,-
∏³+r • ,³ ¤ , -
Karena ®r,M 0 , dimana tidak ada
tetangga terdekat (nearest neighbours) ¬r - ∈
®r - yang berkorespondensi dengan situasi
”DUDUK” (sM ) maka kita dapat memberikan
nilai •r,M •Θ}
1 dan •r,M •§M }
0.
Dengan nilai-nilai tersebut kita dapat
mendapatkan angka koefisien Ï (Eq. 6)
sebagai faktor normalisasi dengan perhitungan
sebagai berikut:
(8)
Ï
Contoh Perhitungan
Ï # 0.725284093 * 0.424002172 *
1 H 0.5759978282 * 0.274715907 * 1 H
0 * 0.424002172 * 0.274715907 H
0.424002172 * 0.274715907 * 1 %
0.582237937
Misalnya dalam sebuah proses pengenalan
aktivitas fisik seorang user dari sebuat input
context ¬r - dan 5 nearest neighbours (NN)
•¬ ± |± 1, . . ,5}, dengan masing
Φ masing jaraknya (o , ) seperti ditunjukkan
dalam Tabel 1. Tabel tersebut juga
menunjukkan aktivitas yang terkait dari setiap
NN yang diperoleh dimana §r=Berdiri,
§M=Duduk dan §×=Berjalan.
Untuk menghitung mass assignment,
koefisient γ didapatkan dengan menggunakan
metode heuristik[7] dimana rata-rata dari
jarak
dari NN yang didapatkan (γ
r
ISSN : 2302-7088
Nilai mass akhir yang merupakan
kombinasi dari nilai awal mass yang didapat
dari perhitungan sebelumnya didapatkan
sebagai berikut (Eq. 7)
• 1 s1
0.424002172 * 1 /
0.582237937
tr
ØÙ ∑Ùr o-,± Ú ) dan koefisien α di set pada nilai
0.95. Dalam tabel berikut, jarak dari tiap-tiap
tetangga, dan perhitungan awal nilai mass
dengan Û 5 and Ã
1/0.455356693)
ditunjukkan.
Tabel 1. Contoh Jarak pada KNN dan
Kalkulasi Awal Mass
0.725284093 *
• 1 s3
0.528172438
0.575997828
* 0.274715907
* 1 /0.582237937
0.271771651
o ,Â
0.450088321
§³
§r
·¸±¹tº
0.353552417
1 F ·¸±¹tº
0.646447583
0.455088324
§×
0.349691503
0.650308497
0.457010096
§r
•1 Θ
0.348218786
0.651781214
0.582237937=0.200055911
0.457298363
§r
0.347998414
0.652001586
0.457298363
§×
0.347998414
0.652001586
»,¼
»,¼
•1 §2
(0.274715907×0.424002172)/
0
Dari perhitungan diatas, didapatkan nilainilai mass untuk aktivitas BERDIRI=
0.528172438, BERJALAN=0.271771651 dan
DUDUK=0 dan nilai mass untuk FOD(Θ)
yang
merepresentasikan
ketidaktahuan
(ignorance) adalah 0.200055911.
Perhitungan nilai awal mass untuk aktivitas
”BERDIRI”, dilakukan dengan menggunakan
± 1,3,4 sebagai berikut
mr,r Θ 0.646447583×0.651781214×
0.652001586=0.274715907
mr,r •sr }
1 F mr,r Θ
0.725284093
CI-47
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
seperti ini, setiap window sampling
merepresentasikan data selama 3.2 detik masa
observasi. Mean dari data-data yang
didapatkan dari setiap sumbu accelerometer
digunakan sebagai context data.
Ploting dari data accelerometer pada ketiga
sumbu untuk ketiga aktifitas fisik yang
digunakan dalam ujicoba dapat dilihat pada
gambar-gambar berikut.
UJICOBA PENGENALAN
AKTIVITAS DENGAN DATA
SENSOR ACCELEROMETER
Ujicoba dengan data riil dari sensor
accelerometer dilakukan dengan memasang
perangkat SunSPOT [6] yang didalamnya
terdapat sensor accelerometer seperti yang
ditunjukkan pada Gambar 1 berikut. Orientasi
dari setiap sumbu dalam sensor tersebut seperti
yang ditunjukkan dalam gambar tersebu
dimana simbol (+) pada setiap sumbu
mengindikasikan bahwa ketika akselerasi
bertambah pada arah sumbu tersebut [6].
Gambar 1 Sumbu X,Y and Z dari Sensor
Accelerometer pada Sun SPOT device
Dalam ujicoba yang dilakukan, SunSPOT
diletakkan pada lokasi paha bawah dari user
yang terlibat dalam ujicoba. Dalam ujicoba
tersebut, tiga aktivitas fisik yang umum
dilakukan yaitu : ”BERJALAN”, ”BERDIRI”
dan ”DUDUK” akan dikenali..
Ujicoba
dilakukan
dengan
data
menggunakan data yang diambil dari 3-axis
accelerometer sensor yang terdapat pada
SunSPOT device (lihat Gambar 1).
Dalam ujicoba yang kami lakukan,
SunSPOT device diletakkan pada paha kanan
dari dua orang user seperti dalam Gambar 4 di
halaman 6.
Pengambilan Dataset Training
Gambar 2 Visualisasi Data 3-Axis
Accelerometer Sensor , Untuk Tiga Aktifitas
Fisik Umum Seorang User
Dalam ujicoba, dilakukan perekaman data
untuk tiga aktivitas fisik yaitu, berjalan,
berdiri dan duduk. Untuk menghasilkan
context data, dilakukan sampling terhadap
sensor 3-axis accelerometer pada frekuensi
40Hz, dengan panjang window sampling
sebanyak 128 elemen data. Dalam pengaturan
Implementasi
Implementasi yang dibuat terdiri dari dua
komponen utama. Dalam komponen pertama
CI-48
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
adalah
implementasi
untuk
membuat
komponen akuisi data sedang komponen
kedua adalah modul untuk pengenalan
aktivitas.
Dalam paper ini, modul akuisisi data
dikembangkan dengan menggunakan freerange SunSPOT (FR-SP) [17] yang dipasang
pada paha kanan user (Gambar 4).
Dalam setiap FR-SD, terdapat sensor 3axis accelerometer (LIS3L02AQ) yang dapat
digunakan untuk mengukur pergerakan dan
orientasi dari sensor yang dipasang [18].
Setiap SunSPOT devices menjalakan Java
virtual machine (VM) yang disebut "Squawk"
dan dapat diprogram dengan menggunakan
library yang didapatkan dari SunSPOT SDK
[17].
Untuk menjembatani komunikasi antara
workstation user dan FR-SP, sebuah SunSPOT
base station device (BS-SD) dipasang dalam
laptop yang digunakan dalam ujicoba dengan
berbasis koneksi USB. BS-SD berfungsi
sebagai gateway radio antara FR-SP dan
workstation. Komposisi umum dari FR-SP,
BS-SD dan workstation seperti ditunjukkan
dalam gambar berikut.
Gambar 4. Pemasangan SunSPOT Device
Pada Paha Kanan User Dalam Ujicoba.
Prototipe implementasi untuk pengenalan
aktivitas fisik user dikembangkan dengan
barbasis bahasa pemrograman Java seperti
yang ditunjukkan dalam Gambar 5 dibawah.
Dalam prototipe awal yang dibangun dan
dilaporkan didalam paper, data training
dikumpulkan dari pengamatan untuk aktifitasaktifitas yang diuji selama sekitar 15 menit.
(300 data). Pengujian kemudian dilakukan
dengan pengambilan sample data uji sebanyak
30 data. Masing masing data terdiri dari data
sensor accelerometer dari setiap sumbu (x,y,z),
untuk masing-masing aktivitas. Dari ujicoba
yang telah dilakukan untuk tiga aktivitas
sederhana pada skenario ujicoba diatas dengan
30 data uji, didapatkan akurasi yang tinggi,
dimana seluruh data uji untuk tiga aktifitas
tersebut dapat dikenali semuanya dengan
akurasi 100%.
802.15.4 Radio
Free Range
SunSPOT
USB
ISSN : 2302-7088
SunSPOT
Base Station
Free Range
SunSPOT
Gambar 3. Konfigurasi Umum SunSPOT
Ujicoba
Dalam ujicoba yang dilakukan, dua orang
user diinstruksikan untuk melakukan tiga
aktivitas yang diujikan dalam paper ini yaitu
”BERDIRI”, ”BERJALAN” dan ”DUDUK”.
Setelah dataset training didapatkan. Ujicoba
selanjutnya dilakukan dengan meminta untuk
kedua user untuk melakukan aktifitas serupa
dan dilakukan pengenalan dari data-data baru
dari sensor accelerometer di kesempatan
tersebut.
Gambar 5. Prototipe Program
KESIMPULAN
Dalam paper ini sebuah model pengenalan
aktifitas dengan basis sensor accelerometer
telah berhasil dikembangkan. Model tersebut
kemudian diimplementasikan dalam sebuah
prototipe berbasis bahasa Java. Ujicoba
CI-49
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
dilakukan dengan data-data yang didapatkan
dengan akuisisi data langsung terhadap tiga
aktifitas fisik yang umum dilakukan seseorang
yaitu : Berdiri, Duduk dan Berjalan. Aktifitas
fisik user yang akan dikenali direkam dengan
dengan menggunakan accelerometer tunggal
pada sensor SunSPOT, yang dipasang pada
posisi paha kanan user tersebut. Hasil ujicoba
yang dilakukan menunjukkan hasil yang tinggi
untuk mengenali tiga aktifitas fisik tersebut.
Pengembangan kedepan yang kami
rencanakan adalah menggunakan prototipe ini
untuk mengenali aktifitas fisik user yang lebih
banyak dan komplek lainnya misalnya
bersepeda, menari, atau kondisi lainnya
misalnya terjatuh (fall detection). Untuk itu
penggunaan, sensor yang lebih banyak dan
dipasang pada beberapa lokasi pada tubuh user
diperlukan.
ISSN : 2302-7088
Transaction on Systems, Man and
Cybernetics, vol. 25, pp. 804-813,
1995.
[8] A. Yazdani, et al., "Classification of EEG
Signals Using Dempster Shafer
Theory and a K-Nearest Neighbor
Classifier," in Proceedings of the 4th
International IEEE EMBS Conference
on Neural Engineering, Antalya,
Turkey, 2009, pp. 327-330.
[9] G. L. Rogova and V. Nimier, "Reliability in
Information Fusion : Literature
Survey," in Proceeding of the 7th
International
Conference
on
Information
Fusion,
Stockholm,
Sweden, 2004, pp. 1158-1165.
[10]
I. Bloch, "Some aspects of DempsterShafer
evidence
theory
for
classification
of
multi-modality
medical images taking partial volume
effect
into
account,"
Pattern
Recognition Letters, vol. 17, pp. 905 919 1996.
[11]
S. L. H´egarat-Mascle, et al.,
"Application of Dempster–Shafer
Evidence Theory to Unsupervised
Classification in Multisource Remote
Sensing," IEEE Transactions on
Geoscience and Remote Sensing, vol.
35, pp. 1028-1037, 1997.
[12]
D. Preuveneers and Y. Berbers,
"Quality Extensions and Uncertainty
Handling for Context Ontologies," in
In: Workshop on Context and
Ontologies: Theory, Practice and
Applications, Riva del Garda, Italy,
2006, pp. 62-64.
[13]
E. Cortes-Rello and F. Golshani,
"Uncertain reasoning using the
Dempster-Shafer
method:
an
application
in
forecasting and
marketing
management,"
Expert
Systems, vol. 7, pp. 9-18, 1990.
[14]
X. Guan, et al., "Study on Algorithms
of Determining Basic Probability
Assignment Function in DempsterShafer Evidence Theory " in
International Conference on Machine
Learning and Cybernetics, Kunming,
China, 2008, pp. 121 - 126.
[15]
G. Shafer, A Mathematical Theory of
Evidence,: Princeton University Press,
1976.
[16]
A. O. Boudraa, et al., "DempsterShafer’s Basic Probability Assignment
DAFTAR PUSTAKA
[1] M. Satyanarayaman, "Pervasive Computing
: Vision Challenges," IEEE Personal
Communications, vol. 8, pp. 10-17,
August 2001.
[2] M. Weiser, "The Computer of the 21st
Century,"
IEEE
Personal
Communications, vol. 8, pp. 10-17,
1998.
[3] M. Baldauf, et al., "A Survey on ContextAware Systems," Int. Journal Ad Hoc
and Ubiqitous Computing, vol. 2, pp.
263-277, 2007.
[4] A. K. Dey, et al., "A Context-based
Infrastructure
for
Smart
Environments," in Proceedings of the
1st International Workshop on
Managing Interactions in Smart
Environments (MANSE '99), Dublin,
Ireland, 1999, pp. 114-128.
[5] A. Ranganathan and R. H. Campbell, "A
Middleware
for
Context-Aware.
Agents in Ubiquitous Computing
Environments," in Proceedings of the
ACM/IFIP/USENIX
International
Middleware Conference, Rio De
Janeiro, Brazil, 2003, pp. 143-161.
[6] R. Goldman. (2010, 3/4/2011). Using the
SPOT
Accelerometer.
Available:
http://www.sunspotworld.com/docs/AppNo
tes/AccelerometerAppNote.pdf
[7] T. Denoeux, "A k-Nearest Neighbor
Classification
Rule
Based
on
Dempster-Shafer
Theory,"
IEEE
CI-50
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
[17]
Based
on
Fuzzy
Membership
Functions," Electronic Letters on
Computer Vision and Image Analysis
vol. 4, pp. 1-9, 2004.
SunLabs. (2008, 5/9/2011). Sun™
Small
Programmable
Object
Technology (Sun SPOT) Theory of
Operation.
[18]
CI-51
ISSN : 2302-7088
R. Goldman. (2007, 3/9/2010). Using
the
LIS3L02AQ
Accelerometer.
Available:
http://www.sunspotworld.com/docs/A
ppNotes/AccelerometerAppNote.pdf
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
IMPLEMENTASI SUPPORT VECTOR MACHINES UNTUK
PENCARIAN INFORMASI BUKU DI PERPUSTAKAAN DAERAH BANDUNG
PROVINSI JAWA BARAT
Nelly Indriani Widiastuti, Riki Hidayat
Teknik Informatika UNIKOM, Jl. Dipati Ukur no. 102-116 Bandung
E-Mail: [email protected], [email protected]
Abstrak
Badan Perpustakaan dan Kearsipan Daerah (BAPUSIPDA) adalah lembaga
perpustakaan daerah ditingkat Provinsi Jawa Barat. Untuk memperoleh informasi buku
yang diperlukan, pengunjung perpustakaan harus mengetahui identitas buku tersebut.
Berdasarkan permasalahan tersebut perlu dikembangkan sistem pencarian informasi
buku yang dapat menemukan informasi buku sesuai dengan kebutuhan pengunjung
secara dinamis. Sistem tidak hanya terpaku kepada identitas buku seperti judul,
pengarang, penerbit, dan lain-lain, melainkan gambaran kebutuhan pengunjung
terhadap buku. Selain itu, pengunjung juga dapat menentukan relevan atau tidaknya
informasi buku sebagai feedback untuk sistem agar sistem bisa menemukan
informasi buku yang lebih relevan menurut pengunjung. Sistem ini dibangun dengan
mengimplementasikan metode vector space model dan support vector machines.
Hasil penelitian dapat disimpulkan bahwa sistem pencarian informasi buku
mempermudah pengunjung untuk mencari informasi buku yang dibutuhkan.
dapat
Kata kunci : sistem pencarian informasi buku, vector space model, support vector
machines
Abstract
Badan Perpustakaan dan Kearsipan Daerah (BAPUSIPDA) is the local library level,
West Java Province. To obtain the necessary information books, library patrons visitors
have to know the identity of the book.
Based on these problems, books information retrieval systems must be developed that
can find information about the books that fit the needs of visitors dynamically. System,
not only identity of the book such as title, author, publisher, etc., but the picture of the
needs of visitors to the book. In addition, visitors can also determine whether or not the
information relevant to the user as a feedback to the system so that the system can find
the book more relevant information by visitors. The system is built by implementing
methods of vector space model and support vector machines.
The research concluded that information retrieval systems to facilitate visitor books to
find the information needed books.
Keyword : books Information Retrieval System, vector space model, support vector
machines
perpustakaan
daerah
tersebut sudah
mencapai kurang lebih 180.000 eksemplar
per tanggal 18 April 2012. Meskipun demikian
dari sekian banyaknya jumlah buku yang ada
di perpustakaan tersebut tetap masih belum
bisa memenuhi kebutuhan masyarakat.
Untuk memperoleh buku yang diperlukan
seseorang
dapat
datang
langsung ke
perpustakaan. Tetapi berdasarkan hasil
wawancara terhadap beberapa pengunjung
perpustakaan dapat disimpulkan bahwa untuk
PENDAHULUAN
Perpustakaan adalah salah satu tempat
untuk memperoleh ilmu dengan cara yang
sangat murah. Pengunjung hanya perlu
mendaftarkan diri untuk dapat meminjam
beberapa buku dengan nyaris tanpa biaya.
Badan Perpustakaan dan Kearsipan Daerah
(BAPUSIPDA) adalah perpustakaan daerah
Bandung JawaBarat. Saat ini jumlah buku di
CI-52
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
mencari informasi buku yang diinginkan,
hanya sedikit pengunjung yang sudah
mengetahui identitas buku (judul, pengarang,
subjek,
dan
lain-lain).
Kebanyakan
pengunjung justru tidak mengetahui informasi
yang cukup tentang identitas buku yang akan
dicari
melainkan
hanya
mengetahui
gambaran akan kebutuhannya mengenai
informasi
yang
dibutuhkan
terhadap
buku.
Sistem pencarian yang ada di perpustakaan
tidak dapat memecahkan solusi untuk
permasalahan
yang
sudah dipaparkan
sebelumnya karena masukan terhadap
sistem masih sangat spesifik yaitu judul dan
penulis buku tersebut. Berdasarkan uraian
masalah
tersebut
perlu
dikembangkan
sistem pencarian informasi buku yang dapat
menemukan informasi buku sesuai dengan
gambaran kebutuhan pengunjung yang
dinamis.
ISSN : 2302-7088
dengan kegiatan pengguna menentukan query
yang sesuai dengan informasi yang diinginkan.
Logical view adalah representasi dokumen
dalam bentuk koleksi keseluruhan kata-kata
yang
dikandungnya. Efektifitas dengan
logical view dimana sistem harus dapat
mereduksi
kata
yang disimpan dan
mentransformasi logical view dari full text
menjadi bentuk indeks. Hal ini dilakukan
dengan meng-eliminasi stoplist (kata-kata
yang terlalu umum seperti kata sandang, kata
sambung, kata ganti, dll) dan melakukan
proses stemming (pengubahan bentuk imbuhan
ke bentuk dasar). Lebih jauh lagi adalah
penggunaan metode-metode kompresi teks.
Information Retrieval System (IRS)
Information Retrieval (IR) atau pencarian
informasi dapat didefinisikan sebagai upaya
untuk menemukan materi atau dokumen yang
sifatnya tidak terstruktur (misalnya teks) yang
memenuhi kebutuhan informasi dari jumlah
data yang sangat besar dalam sebuah
sistem. Salah satu pengertian IR menurut
Bill Frakes dan Ricardo Yates[1] adalah
"sub bidang dari ilmu komputer yang
mempelajari tentang pengumpulan data dan
temu
kembali
dokumen".
Dalam
perkembangan selanjutnya IR dikembangkan
menjadi automated IR systems yang
menangani temu kembali data secara otomatis
dalam jumlah data yang besar.
Tujuan
dari
sistem
IR
adalah
memenuhi kebutuhan informasi pengguna
dengan me-retrieve semua dokumen yang
mungkin relevan, pada waktu yang sama
me-retrieve sesedikit mungkin dokumen yang
tidak relevan. Sistem IR yang baik
memungkinkan
pengguna
menentukan
secara cepat dan akurat apakah isi dari
dokumen
yang
diterima
memenuhi
kebutuhannya. Agar representasi dokumen
lebih baik, dokumen-dokumen dengan topik
atau isi yang mirip dikelompokkan bersamasama [2].
Keefektifan dari temu kembali informasi
yang diinginkan tergantung pada dua hal
mendasar yaitu perilaku pengguna dan
logical view. Perilaku pengguna berhubungan
Gambar 1. Arsitektur IRS[3]
Proses yang ada didalam IRS dapat dilihat
pada Gambar 1. Secara umum proses IRS
adalah preprocessing, indexing, searching dan
ranking.
Vector Space Model (VSM)
VSM adalah model sistem temu balik
informasi
yang
mengibaratkan masingmasing query dan dokumen sebagai sebuah
vektor n-dimensi. Tiap dimensi pada vektor
tersebut diwakili oleh satu term. Term
yang digunakan biasanya berpatokan kepada
term yang ada pada query, sehingga term
yang ada pada dokumen tetapi tidak ada pada
query biasanya diabaikan.
Secara umum prosedur VSM dibagi
menjadi tiga tahap [4].
1. Document
indexing yaitu kumpulan
term yang telah diekstrak dari teks
dokumen.
2. Weighting yaitu pembobotan dari term
yang sudah di-indeks untuk meningkatkan
kualitas pencarian.
CI-53
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
3.
Ranking document berdasarkan tingkat
kemiripan antara query dengan dokumen.
ISSN : 2302-7088
ini, SVM berusaha untuk menemukan
hyperplane (pemisah/classifier) yang optimal
yang bisa memisahkan dua set data dari dua
kelas yang berbeda.
Dalam hal ini fungsi pemisah yang dicari
adalah fungsi linier. Fungsi ini bisa
didefinisikan sebagai g(x) := sgn(f(x)) dengan
f(x) = wT x + b. Teknik SVM berusaha
menemukan fungsi hyperplane terbaik
diantara
fungsi
yang
tidak
terbatas
jumlahnya untuk memisahkan dua macam
obyek. Hyperplane terbaik adalah hyperplane
yang terletak di tengah-tengah antara dua set
obyek dari dua kelas. Mencari hyperplane
terbaik ekuivalen dengan memaksimalkan
margin atau jarak antara dua set objek dari
kelas yang berbeda.
Untuk menentukan hyperplane-pendukung
(supporting hyperplane) dari kelas +1 (wx1 +
b = +1) digunakan rumus (1) dan rumus (2)
untuk menentukan hyperplane-pendukung dari
kelas -1(wx2 + b = -1)
wx1 + b = +1
(1)
(2)
wx2 + b = -1
Margin antara dua kelas dapat dihitung
dengan mencari jarak antara kedua
hyperplane-pendukung dari kedua kelas.
Rumus (3) digunakan untuk menghitung
margin.
(wx1 + b = +1) - (wx2 + b = -1)
(3)
= w(x1 – x2 ) = 2
<
=
" −"
‖<‖
=
‖<‖
Gambar 2. Vector Space Model[5]
Contoh dari model ruang vektor tiga dimensi
untuk dua dokumen D1 dan D2, satu query
pengguna Q1, dan tiga term T1, T2 dan
T3 diperlihatkan pada gambar 2.
Support Vector Machines (SVM)
Rancangan dasar dari sistem IR dapat
ditingkatkan untuk menaikkan presisi dan
recall serta memperbaiki matriks termdocument. Isu pertama sering diselesaikan
menggunakan
mekanisme
relevance
feedback. Beberapa term ditambahkan ke
dalam query awal agar dapat menemukan
dokumen yang lebih relevan. Relevance
feedback dapat dikerjakan secara manual
maupun otomatis. Pada pendekatan manual,
pengguna mengidentifikasi dokumen yang
relevan dan term baru dipilih secara manual
atau otomatis. Pada pendekatan otomatis,
dokumen
relevan
diidentifikasi
menggunakan
dokumen yang berada di
rangking paling atas, kemudian term-term
baru dipilih secara otomatis.
Takashi
Onoda,
dkk
dalam
penelitiannya yang berjudul Relevance
Feedback
Document
Retrieval
using
Support Vector Machines, telah berhasil
melakukan peningkatan kualitas pencarian
dengan memodifikasi vektor query.
Support Vector Machines (SVM) adalah
suatu teknik yang relatif baru (1992) untuk
melakukan prediksi, baik dalam kasus
klasifikasi maupun regresi, yang sangat
populer belakangan ini. SVM berada dalam
satu kelas dengan Artificial Neural Network
(ANN) dalam hal fungsi dan kondisi
permasalahan yang
bisa
diselesaikan.
Keduanya masuk dalam kelas supervised
learning. SVM selalu mencapai solusi yang
sama untuk setiap running. Dalam teknik
Gambar 3 memperlihatkan bagaimana
SVM bekerja untuk menemukan
suatu
fungsi pemisah dengan margin yang
maksimal. Dengan memperbesar margin bisa
meningkatkan probabilitas pengelompokkan
suatu data secara benar.
ANALISA KEBUTUHAN DATA
Sistem yang dikembangkan adalah sistem
pencarian hanya jika data pencarian tersedia.
Data pencarian adalah identitas buku, dalam
penelitian ini data yang dibutuhkan
berupa judul, pengarang dan deskripsi.
CI-54
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
ditampilkan dari hasil pencarian, setelah
itu sistem akan mengklasifikasikan seluruh
data buku yang terdapat dalam database
kedalam kategori relevan dan tidak relevan.
Data buku yang ditampilkan adalah data buku
yang masuk dalam kategori relevan.
Proses
pengolahan
data,
khusus
digunakan oleh operator untuk melakukan
proses pengolahan (tambah, ubah, lihat detail,
cari, dan hapus) data buku, pengolahan
(tambah dan ubah) data golongan, dan
melakukan optimisasi pada sistem pencarian.
Gambar 4. Berikut ini adalah gambaran
dari aktivitas sistem pencarian informasi
buku :
Gambar 3. Mencari Fungsi Pemisah Optimal
yang dapat Memisahkan Data Secara Linear[6]
Pengunjung
Berdasarkan hasil analisa beberapa
golongan
buku,
maka
diperoleh
karakteristik teks dari data buku yang perlu
diperhatikan adalah sebagai berikut :
a. Bahasa
Terdapat
beragam
bahasa
yang
digunakan dalam buku yang ada di
perpustakaan. Pada penelitian ini data buku
yang digunakan merupakan data buku
dengan teks berbahasa Indonesia dan
bahasa Inggris.
b. Deskripsi Buku
Untuk mendapatkan deskripsi buku, dapat
dilihat dari cover belakang buku. Alternatif
lain yang bisa dijadikan deskripsi buku
yaitu kata pengantar atau
daftar isi dari data buku.
c. Jenis Kata
Terdapat beragam jenis kata yang ada data
buku, yaitu :
1) kata sesuai EYD,
2) kata yang biasa digunakan sehari-hari,
3) kata berimbuhan,
4) kata dasar
Sistem
Masukkan Query
Mencari dan Memberi Peringkat Data
Buku Berdasarkan Ukuran Kemiripan
Cek Data Buku yang
Relevan
Menampilkan Maksimal 10 Informasi
Buku dengan Ukuran Kemiripan Tertinggi
Mengklasifikasi Seluruh Data Buku
Berdasarkan Hasil Cek Pengunjung
Menampilkan Informasi Buku Hasil
Klasifikasi
Gambar 4. Aktivitas Pencarian Informasi Buku
Analisa Keyword
Keyword
yang
dimaksud
dalam
penelitian ini adalah data buku yang
merupakan gabungan dari judul, pengarang
dan deskripsi buku yang sudah mengalami
proses tokenizing, filtering dan stemming.
Metode stemming yang digunakan dalam
penelitian ini adalah Nazief & Adriani. Setiap
data buku mempunyai keyword-nya masingmasing yang akan digunakan sebagai poros
data untuk proses pencarian informasi buku.
Gambar 5. adalah gambaran proses pembuatan
keyword.
Setelah keyword diperoleh, selanjutnya
adalah tahapan yang ada dalam VSM yaitu
1. Memberikan bobot pada keyword.
Pembobotan adalah proses merubah
ANALISA PROSES
Sistem dibagi menjadi dua proses
penting, yaitu proses pencarian dan proses
pengolahan data. Proses pencarian dapat
digunakan
oleh
pengunjung
untuk
melakukan proses pencarian informasi buku
dan lihat deskripsi dari buku itu sendiri. Proses
pencarian dalam penelitian ini adalah
proses
pencarian
dinamis,
dimana
pengguna juga dapat menentukan sesuai atau
tidak nya query dengan informasi buku yang
CI-55
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
2.
3.
4.
5.
keyword dan query menjadi bentuk
vektor.
Normalisasi
Mengukur kemiripan yang dilakukan
suatu perhitungan untuk mendapatkan
ukuran kemiripan antara dokumen
dengan query.
Ukuran ini hasil pengukuran kemiripan
digunakan untuk perankingan dokumen
sesuai dengan kemiripan relevansinya
terhadap query.
Terakhir,
sejumlah
maksimal
10
dokumen,
ditampilkan
kepada
pengunjung[7].
Operator
relavan. Maka, satu set input-output data
dalam pelatihan bisa dilihat di tabel 1.
Tahap
selanjutnya
yaitu
melakukan
kernelisasi
menggunakan
fungsi
polynomial
kernel
pangkat
2
yang
didefinisikan sebagai K(xi , xi ) = (xi + xi’+12 ).
Tabel 1. Data Latih
x1
x2
x3
x4
x5
x6
x7
x8
x9
x10
x11
x12
x13
x14
x15
y
Si stem
Masukan Data Buku
ISSN : 2302-7088
Cek Isi Data
[Ada Fi el d Kosong]
[T i dak Ada Fi el d
Kosong]
Si mpan Data Buku
D1
0,208
0,564
0,564
0,564
0
0
0
0
0
0
0
0
0
0
0
1
D2
0
0
0
0
0,408
0,408
0,408
0,408
0,408
0,408
0
0
0
0
0
1
D3
0,163
0
0
0
0
0
0
0
0
0
0,441
0,441
0,441
0,441
0,441
-1
Analisa Klasifikasi
T okenisasi dan Hapus
Stopword
Takashi
Onoda,
dkk[9],
mengusulkan
penggunaan
SVM
sebagai
pengklasifikasian dokumen dengan tahaptahap berikut ini :
1. Inisialisasi Pencarian
Hasil pencarian ini diperoleh dari metode
VSM dengan cara menampilkan N
peringkat teratas dokumen yang memiliki
kemiripan terhadap query.
2. Penilaian Dokumen oleh Pengguna
Pengguna mengevaluasi N peringkat
teratas dokumen dan mengklasifikasi
dokumen tersebut ke dalam dokumen
relevan
atau tidak relevan. Setelah
pengguna selesai mengevaluasi, relevan
dokumen dan dokumen yang tidak
relevan diberi label +1 dan -1.
3. Penentuan Optimal Hyper-plane
Optimal
hyperplane
untuk
mengklasifikasikan relevan dan tidak
relevan suatu dokumen dihasilkan oleh
metode SVM.
4. Diskriminasi Dokumen dan Pencarian
Informasi
Dokumen yang diperoleh dari langkah
1 dipetakan ke dalam ruang fitur, SVM
mengklasifikasikan dokumen-dokumen
tersebut sebagai dokumen yang relevan
Stemming
Si mpan Keyword
Menampil kan Pesan
Konfi rmasi
Gambar 5. Pembuatan Keyword
Analisa Pelatihan
Pada proses pelatihan SVM bertujuan
untuk menemukan vektor α dan konstanta
b. Dalam proses pelatihan dibutuhkan satu
set input-output data atau dalam kasus ini
dibutuhkan dokumen relevan dan dokumen
tidak relevan dimana penilaian relevan atau
tidaknya suatu dokumen ditentutkan oleh
pengguna. Dokumen-dokumen relevan diberi
label 1 dan dokumen yang tidak relevan diberi
label -1.
Sebagai contoh
kasus,
digunakan
dokumen-dokumen yang terdapat dalam
contoh kasus VSM dan diasumsikan D1
dan D2 sebagai dokumen relevan menurut
pengguna dan D3 sebagai dokumen tidak
CI-56
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
5.
dan tidak relevan. Kemudian sistem akan
memilih dokumen-dokumen berdasarkan
jarak optimal hyperplane dan margin area.
Menampilkan Hasil Akhir dari Pencarian
Dokumen yang didapat, di beri
peringkat sesuai dengan jarak antara
dokumen
dengan
fungsi
pemisah
hyperplane, dimana fungsi pemisah ini
ditetapkan oleh SVM. Dokumen yang
didapat di tampilkan berdasarkan
peringkat.
ISSN : 2302-7088
Untuk
memperlihatkan
hubunganhubungan yang terjadi antara aktor-aktor
dengan usecase dalam sistem dapat dilihat
pada gambar 6. Operator dalam usecase adalah
petugas
perpustakaan
yang
bertugas
memperbarui data buku,
Proses yang terjadi dalam pencarian
informasi dalam sistem ini dapat dilihat pada
gambar 7.
Pengunjung
ANALISA FUNGSIONAL
Sistem
Cek Query
Masukan Query
Mendefinisikan
analisa
kebutuhan
fungsional dan operasional sistem dengan
mendefinisikan
skenario
penggunaan
aplikasi. Pada aplikasi ini yang akan
bertindak sebagai aktor yaitu pengunjung dan
operator. Operator berperan mengelola
seluruh
konten
perangkat
lunak.
Pengunjung
berperan
dalam melakukan
proses pencarian.
Analisis yang dilakukan dimodelkan
dengan
menggunakan
UML
(Unified
Modeling Language). Tahap-tahap pemodelan
dalam analisa tersebut antara lain identifikasi
aktor, use case diagram, skenario usecase,
activity diagram, sequence diagram dan class
diagram. Dalam jurnal yang ditampilan hanya
usecase dan activity diagram.
[tidak kosong]
[kosong]
Melakukan Proses
Tokenization dan Filtering
Menampilkan Pesan
Kesalahan
Melakukan Proses
Stemming
Hitung Bobot Query
Baca Bobot Keyword
[Data Buku]
Hitung Similiarity
Menampilkan Pesan
Data T idak Ditemukan
[Tidak Ditemukan]
[Ditemukan]
Menampilkan
Informasi Buku
Sistem
Gambar 7. Pencarian Data Buku
Pencarian Data
Buku Lebih
Lanjut
Pencarian
Berdasarkan
Judul Buku
Aktivitas pencarian data buku lebih
lanjut pada gambar 8. Merupakan aktivitas
Penyajian
Deskripsi
Tambah Data
Buku
<<include>>
<<include>>
<<include>>
<<extend>>
Ubah Data
Buku
<<include>>
Hapus Data
Buku
<<include>>
Login
Pencarian Data
Buku
Pengunjung
Operator
<<include>>
Tambah Data
Golongan
<<include>>
<<include>>
Ubah Data
Golongan
Optimisasi
Sistem
Pencarian
Gambar 6. Use Case Diagram Sistem Pencarian
Informasi Buku
CI-57
pengunjung untuk menemukan informasi
buku yang lebih relevan dengan cara
memilih beberapa informasi buku hasil dari
proses pencarian data buku yang relevan
berdasarkan penilaian pengunjung.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Pengunjung
Men checklist
Beberapa Data Buku
Relevan
IMPLEMENTASI DAN PENGUJIAN
Sistem
Membaca Data Buku
Relevan dan tidak
Relevan
[Data Buku]
[Semua Relevan atau
Tidak Relevan]
ISSN : 2302-7088
[Beberapa Relevan]
Membuat Data Latih
Membuat Model File
Menampilkan Pesan
Kesalahan
Melakukan Tes Pada
Setiap Data Buku
Menampilkan Hasil
Klasifikasi
Perangkat
keras
yang
digunakan
pada saat mengimplementasikan perangkat
lunak dari Sistem Pencarian Informasi Buku di
Perpustakaan Daerah Provinsi Jawa Barat
adalah sebagai berikut :
1. Processor Intel(R) Core i3 2.1 GHz,
2. RAM 3GB,
3. VGA ATI Radeon HD 530v,
4. Hard Disk 320GB,
5. Monitor 14”, dan
6. Modem berkecepatan 153Kbps.
Menghapus Hasil Tes
Menghapus Data Lati h
Menghapus Model Fi le
Gambar 8. Pencarian Lebih Lanjut
Aktivitas Optimisasi pada gambar 9.
merupakan
aktivitas
operator
untuk
menghitung bobot dan normalisasi data
buku serta membuat data tes untuk setiap
data buku. Tahapan-tahapan aktivitas yang
dilakukan pada saat optimisasi adalah :
Operator
File-file yang berhasil diimplementasikan
terdiri dari file-file tabel yang dibuat
denganSQL, file kelas metode dan file
antarmuka.
Pengujian perangkat lunak Sistem
Pencarian Informasi Buku di Perpustakaan
ini menggunakan dua data uji yaitu data buku
dan data golongan. Pengujian dilakukan
dengan metode Black Box untuk menguji
fungsi-fungsi yang dapat dilihat pengguna.
Metode Whitebox untuk menguji proses yang
ada dalam metode SVM.
Dari
hasil
pengujian
proses
klasifikasi yang dilakukan, maka didapat
kesimpulan bahwa seluruh node yang ada pada
setiap independent path telah dikerjakan , serta
tidak terjadi pengulangan tak terhingga.
Selain pengujian fungsional, respon
pengguna juga diperlukan untuk mengetahui
kepuasan pengguna terhadap sistem. Hasil
dari pengujian beta dapat disimpulkan
bahwa sistem pencarian informasi buku
yang telah dibangun dapat membantu
pengguna khususnya pengunjung perpustakaan
untuk menemukan buku yang dibutuhkan,
karena mudah untuk digunakan dan cukup
cepat dalam proses pencarian.
Sistem
Menekan Tombol
Optimisasi
Cek Jumlah Data Buku
[Data Buku]
Menampilkan Pesan
Kesalahan
Perangkat lunak yang digunakan saat
mengembangkan Sistem Pencarian Informasi
Buku di Perpustakaan Daerah Provinsi Jawa
Barat adalah sebagai berikut :
1. Sistem operasi Windows 7 Professional,
2. Bahasa pemrograman PHP 5.3.0,
3. Database MySQL Server 5.0.37,
4. Browser Maxthon 3.4.2.2000,
5. Macromedia Dreamweaver CS5, dan
6. UML Modeler Power Designer 12.
[Jumlah = 0]
[Jumlah > o]
Membuat Index
Menghitung Bobot
Normalisasi
Membuat Data Tes
Gambar 9. Optimasi Sistem Pencarian
CI-58
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
DAFTAR PUSTAKA
[4] Larsen, Jan. 1998. Vector Space
Model.http://cogsys.imm.dtu.dk/thor/proj
ects/multimedia/textmining/node5.html.
Diakses pada tanggal 4 Juni 2012.
[1] Frakes, William B and Yates, Ricardo
Baeza. Information Retrieval: Data
Structures and Algorithms. 2004.
[2] Murad,
AzmiMA.,
Martin,
Trevor.2007.Word
Similarity
for
Document Grouping
using
Soft
Computing. IJCSNS
International
Journal of Computer Science
and
Network
Security,
Vol.7
No.8,
August 2007, pp.20-27.
[5] Cios, Krzysztof J. Etc. Data Mining a
Knowledge
Discovery
Approach,
Springer. 2007.
[3] Onoda T, Murata H , and Yamada S ,
Relevance feedback with active learning
for document retrieval, in Proc. of
IJCNN2003, pp. 1757–1762, 2003.
[7] D. Harris, S. Behzad, G. C. David.
Relevance Feedback using Support
Vector Machines. AT&T Research.
[6] Santosa. Budi. Tutorial Support Vector
Machines. Institut Teknologi Sepuluh
Nopember, Surabaya.
CI-59
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
CI-007 (wahyu)
CI-60
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
CI-008 (wahyu)
CI-61
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
CASE-BASED REASONING UNTUK PENDUKUNG DIAGNOSA GANGGUAN
PADA ANAK AUTIS
Yanuar Nurdiansyah
Program Studi Sistem Informasi Universitas Jember
E-mail: [email protected]
Abstrak
Permasalahan anak autis dalam dunia kedokteran dan psikologi menjadi momok bagi
orangtua yang mempunyai anak penderita autis. Orangtua kadang tidak tahu kalau
anaknya mengalami gangguan autis, sehingga untuk mengetahui gangguan autis seorang
anak dibutuhkan suatu sistem cerdas yang menyerupai pakar dalam bentuk penalaran
berbasis kasus atau CBR (Case-Based Reasoning).
Penelitian ini bertujuan untuk membangun suatu sistem CBR untuk melakukan diagnosa
awal gangguan autis pada anak dengan melihat ciri-ciri gejala yang ada pada anak
tersebut. Proses diagnosa dilakukan dengan cara memasukkan kasus baru yang berisi
gejala-gejala penyakit, kemudian sistem akan melakukan proses similarity antara kasus
baru dengan kasus-kasus yang sudah tersimpan di dalam basis-data sistem. Kasus yang
diambil adalah kasus dengan nilai similarity yang paling tinggi. Jika suatu kasus tidak
berhasil didiagnosa, maka akan dilakukan revisi kasus oleh pakar psikolog. Kasus yang
berhasil direvisi akan disimpan ke dalam sistem untuk dijadikan pengetahuan baru (fresh
knowlegde) bagi sistem.
Hasil penelitian menunjukkan sistem CBR untuk mendiagnosa gangguan autis pada
anak ini membantu psikolog atau paramedis hanya dalam melakukan diagnosa awal.
CBR memberikan kemudahan dalam melakukan diagnosis serta dapat beradaptasi
dengan mudah dan cepat karena pengetahuan dan pembelajaran dibuat dalam bentuk
kasus-kasus.
Kata Kunci : Penalaran Berbasis Kasus, Gangguan Autis.
Abstract
Autistic problems in medicine and psychology a scourge for parents who have autistic
children. Parents sometimes do not know if her son had autistic disorder, so do not know
how to find and how to overcome them, so to know that autism disorders are experienced
by a child needs an intelligent system that resembles the expert in the form of CBR
(Case-Based Reasoning).
This research tries to build CBR system to make early diagnosis of autism disorders in
children by looking at the characteristics of the existing symptoms of the child.
Diagnostic process is done by entering a new case that contains symptoms to be
diagnosed with the disease into the system, then the system will perform the similarity
between the new case with the cases is already stored in the data-base system. The case
taken is the case with the value of the highest similarity. If a case is not successfully
diagnosed, then the case will be revised by an expert psychologist. Revised successful
cases will be stored into the system to become the new knowledge for the system.
The results showed CBR system to diagnose disorders in children with autism is to help
psychologists or paramedical only in conducting initial diagnosis, CBR to facilitate in
making a diagnosis and can adapt easily and quickly because knowledge and learning
made in the form of cases
Key words : Case-Based Reasoning, Autism Disorder.
CI-62
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
mendukung diagnosa gangguan pada anak
autis berdasarkan pada kasus-kasus yang mirip
atau serupa yang telah disimpan di dalam basis
data penyimpanan kasus sebelumnya dan
menganjurkan solusi sesuai dengan kasus yang
mirip yang ditemukan di dalam basis data
penyimpanan kasus.
Salah satu contoh
implementasi CBR dalam bidang psikologi
klinis dan kedokteran, yaitu Case-Base
Reasoning untuk Pendukung Diagnosa
Gangguan pada Anak Autis.
Alasan perlu dibuatnya sistem CaseBased Reasoning untuk Pendukung Diagnosa
Gangguan pada Anak Autis, yaitu: Pakar
ataupun terapis untuk gangguan autis tidaklah
terlalu banyak, disamping itu orang tua
membutuhkan biaya yang relatif besar untuk
berkonsultasi ke pakar serta untuk melakukan
terapi pada anak. Pengguna (user-non expert)
Sistem Penalaran Komputer Berbasis Kasus
untuk Pendukung Diagnosa Gangguan pada
Anak Autis ini dapat mengetahui gejala-gejala
awal pada anak autis yang telah teridentifikasi
serta mengetahui cara terapi yang sesuai untuk
anak, sehingga diharapkan dapat mengurangi
gejala-gejala yang ada.
Autis
merupakan
gangguan
perkembangan fungsi otak yang mencakup
bidang sosial, komunikasi verbal (bahasa) dan
non-verbal, imajinasi, fleksibilitas, lingkup
minat, kognisi, dan perhatian yang merupakan
suatu kelainan dengan ciri perkembangan
terlambat atau abnormal dari hubungan sosial
dan bahasa [1].
Gejala autis tampak sebelum anak
mencapai usia tiga tahun. Pada sebagian anak,
gejala gangguan perkembangan ini sudah
terlihat sejak lahir. Kelainan perilaku tersebut
terlihat dari ketidakmampuan si anak untuk
berhubungan dengan orang lain. Seolah-olah
mereka hidup dalam dunianya sendiri.
Kelainan ini bagi orang awam dalam hal ini
orang tua, sangatlah susah untuk diketahui
dengan cermat antara anak yang menderita
autis atau tidak [2].
PENGANTAR
Latar Belakang
Seiring dengan perkembangan teknologi
komputer dan kebutuhan manusia akan
informasi yang cepat dan akurat, para ahli
merasa tertantang untuk membuat komputer
yang mampu melakukan hal-hal seperti yang
dapat dilakukan oleh manusia. Para ahli
mencoba untuk menggantikan sistem otak
manusia, sehingga diharapkan suatu saat nanti
mungkin akan tercipta suatu komputer yang
dapat menimbang dan mengambil keputusan
sendiri sebagaimana layaknya manusia. Hasil
kerja sistem komputer ini telah diakui lebih
cepat, teliti, dan akurat dibandingkan dengan
hasil kerja manusia.
Hal inilah yang
mendorong lahirnya teknologi AI (Artificial
Intelligence).
Bidang kecerdasan buatan mempunyai
sub-sub bagian yang sub-sub bagian tersebut
menangani masalah-masalah spesifik dan tidak
jarang antara sub-sub bagian tersebut
berkolaborasi untuk mendapatkan hasil yang
optimal. Beberapa sub-sub bagian dari
kecerdasan buatan diantaranya adalah sistem
pakar (expert system), penalaran berbasis
kasus (Case-Based Reasoning), pemrosesan
bahasa alami (natural language processing),
pengenalan pola (pattern recognition),
penglihatan komputer (computer vision),
jaringan syaraf tiruan (artificial neural
network), robotika, dan lainnya.
Case-Based
Reasoning
merupakan
penalaran berbasis kasus yang bertujuan untuk
menyelesaikan suatu permasalahan baru
dengan cara mengadaptasi solusi-solusi yang
terdapat kasus-kasus sebelumnya yang mirip
dengan kasus baru. Kasus baru dicocokkan
(matched) dengan kasus-kasus yang ada
didalam basis data penyimpanan kasus (case
base) dan menemukan satu atau lebih kasus
yang mirip. Solusi yang dianjurkan melalui
pencocokan kasus kemudian digunakan
kembali untuk kasus yang serupa. Jika kasus
baru tidak ada yang cocok didalam database
penyimpanan kasus, maka CBR akan
menyimpan kasus baru tersebut (Retain) di
dalam basis data pengetahuan. Implementasi
CBR dapat digunakan dalam berbagai bidang
yaitu psikologi klinis, kedokteran dan lainlain.
Implementasi CBR di bidang psikologi
klinis dan kedokteran dapat digunakan untuk
Permasalahan
Permasalahan yang diangkat dalam
penelitian adalah bagaimana mendiagnosa
awal terhadap gangguan autis pada anak serta
saran terapi yang harus diberikan dengan
melihat kasus-kasus pasien sebelumnya
dengan menggunakan penalaran berbasis kasus
(case-based reasoning), juga memberikan
sudut pandang lain dalam mengembangkan
CI-63
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
sistem untuk mendiagnosa gangguan yang
selama ini di dominasi oleh sistem pakar
berbasis aturan (rule-based expert system).
ISSN : 2302-7088
CBR untuk mendukung diagnosa penyakit
jantung yang dikembangkan oleh AbdelBadeeh M. Salem dan teman-temannya [7].
Mereka mengumpulkan 110 kasus untuk 4
jenis penyakit jantung (mitral stenosis, leftsided heart failure, stable angina pectoris dan
essential hypertension), dimana setiap kasus
mempunyai 207 atribut yang berhubungan
dengan demografis dan data klinis. Setelah
menghilangkan duplikasi kasus, sistem
mempunyai 24 kasus untuk pasien penyakit
jantung. Mereka menggunakan analisis
statistik untuk menentukan fitur-fitur kasus
dan nilai-nilai yang penting. Dua teknik
retrieval yang dipakai yaitu induction retrieval
dan nearest-neighbor retrieval yang masingmasing memberikan tingkat akurasi sebesar
53,8% untuk induction dan 100% untuk
nearest-neighborhood. Ahli jantung telah
mengevaluasi keseluruhan kinerja dari sistem
tersebut, dimana sistem dapat memberikan
diagnosis yang benar untuk 13 kasus baru.
Usaha yang paling lama dalam
membangun sistem CBR yaitu mengumpulkan
kasus-kasus yang akan disimpan dalam case
base. Jika dalam pengumpulan kasus terdapat
kesulitan maka sistem CBR akan susah
diterapkan [7]. Dalam proses pengumpulan
kasus peranan seorang pakar sangat
diperlukan, ini karena seorang pakar lebih
mengetahui permasalahan dan solusi dari suatu
kasus. Seorang pakar memiliki pengetahuan
umum yang mereka peroleh dari buku-buku
kedokteran ditambah lagi dengan pengalamanpengalaman mereka dalam menangani suatu
kasus [7].
TINJAUAN PUSTAKA
Case-Based Reasoning (CBR) merupakan
suatu teknik pemecahan masalah yang
mengadopsi
solusi
masalah-masalah
sebelumnya yang mirip dengan masalah baru
yang dihadapi untuk mendapatkan solusinya
[3]. Kasus-kasus pada masa lalu disimpan
dengan
menyertakan
fitur-fitur
yang
menggambarkan karakteristik dari kasus
tersebut beserta solusinya.
Penalaran berbasis kasus (Case-Based
Reasoning) dikembangkan dari sistem
pembelajaran berbasis kesamaan (similaritybased learning) [4]. CBR, secara sederhana
merupakan sebuah sistem yang menggunakan
pengalaman lama untuk dapat mengerti dan
menyelesaikan masalah baru [5]. Beberapa
kesulitan yang dihadapi dalam membangun
sistem penalaran berbasis kasus diantaranya
menentukan kesamaan kasus baru dengan
kasus lama yang ada dalam data base
penyimpanan kasus (case base), mencari
efisiensi dari kasus-kasus yang sama, dan
menyesuaikan solusi kasus lama dengan
masalah kasus baru. Kesulitan-kesulitan yang
dihadapi di atas menjadi tugas utama dalam
pengembangan sistem penalaran berbasis
kasus yaitu masalah kemiripan (similarity
problem), klasifikasi (classification), dan
adaptasi (adaptation).
CBR mempunyai beberapa kelebihan
yaitu CBR lebih efisien karena menggunakan
pengetahuan lama dan mampu mengadaptasi
pengetahuan
baru,
kemampuan
untuk
mendukung justifikasi dengan mengutamakan
dari kasus lampau [4]. CBR tidak seperti
sistem pakar yang selalu membangkitkan
aturan-aturan setiap akan menyelesaikan
masalah.
Dalam dunia nyata, ketika terdapat suatu
problem orang biasanya melihat kesamaan
problem tersebut dengan problem yang pernah
ditangani. Jika terdapat kesamaan atau
kemiripan maka akan digunakan pengalaman
dari problem yang lama untuk menyelesaikan
problem yang baru dengan sedikit adaptasi
yang cocok dengan kondisi problem yang baru
tersebut [6].
Aplikasi CBR di bidang medis telah
banyak dikembangkan, diantaranya adalah
METODE PENELITIAN
Data yang akan dijadikan case base
adalah Data-data kasus yang diambil dari
Sekolah Khusus Autis Fajar Nugraha,
Yogyakarta. Terdapat 27 gejala Autis dengan
tiga jenis Nama Penyakit. Kasus yang
dimasukan ke dalam case-base sebanyak 27
buah kasus dengan tiga kelas Nama Penyakit,
Kriteria berdasarkan jenis autis terbagi atas
autis ringan, autis sedang, dan autis berat.
Teknik retrieval yang digunakan dalam
penelitian ini adalah teknik Nearest Neighbor.
Nearest Neighbor adalah pendekatan untuk
mencari kasus dengan menghitung kedekatan
antara kasus baru dengan kasus lama, yaitu
berdasarkan pada pencocokan bobot dari
sejumlah fitur yang ada [4]. Ide dasar dari
CI-64
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
teknik ini adalah membandingkan setiap
atribut-atribut target case dengan atributatribut source case yang ada dalam case-base,
kemudian perbandingan tersebut dihitung
dengan menggunakan fungsi similarity. Solusi
dari source case akan dipromosikan untuk
menjadi solusi dari target case jika nilai
source case yang dibandingkan sama atau
hampir sama dengan nilai target case. Berikut
ini fungsi similarity yang digunakan dalam
penelitan ini [8].
Hasil diagnosa gangguan pada anak autis
ditentukan berdasarkan gejala-gejala yang
diderita oleh anak sehingga gejala-gejala
penyakit akan dijadikan fitur-fitur yang akan
dicari similarity-nya. Fungsi f(Ti , Si)
didefinisikan bahwa jika fitur target case ke-i
bernilai sama dengan fitur source case ke-i
maka fungsi akan bernilai 1, sebaliknya jika
tidak sama fungsi akan bernilai 0. Seorang
anak hanya mempunyai dua hubungan dengan
gajala yaitu memiliki gejala (disimbolkan
dengan angka 1) atau tidak memiliki gejala
(disimbolkan dengan angka 0).
Revisi merupakan bagian dari adaptasi
sistem terhadap kasus yang belum berhasil
didiagnosa. Revisi kasus dilakukan oleh
seorang pakar. Kasus tersebut disimpan untuk
menunggu revisi pakar. Pakar akan merevisi
nama penyakit berdasarkan gejala-gejala yang
ada dalam kasus.
n
Sim ( S , T ) =
∑
f ( Si , Ti ) * wi
i=1
(1)
n
∑
ISSN : 2302-7088
wi
i=1
Dimana:
T adalah kasus baru
S adalah kasus yang ada dalam penyimpanan
n adalah jumlah atribut dalam masing-masing
kasus
i adalah jumlah atribut dalam masing-masing
kasus
f adalah fungsi similarity atribut i antara kasus
T dan kasus S
wi adalah bobot yang diberikan pada atribut
ke-i
HASIL DAN PEMBAHASAN
Tahap awal dari penggunaan sistem
adalah proses pengisian case-base. Data-data
kasus yang akan dimasukan ke dalam casebase diambil dari Sekolah Khusus Autis Fajar
Nugraha, Yogyakarta. Terdapat 27 gejala
Autis dengan tiga jenis Nama Penyakit. Kasus
yang dimasukan ke dalam case-base sebanyak
27 buah kasus dengan tiga kelas Nama
Penyakit.
Setiap gejala Penyakit dapat memiliki
bobot.
Pembobotan
diperlukan
untuk
menentukan tingkat signifikansi gejala
terhadap penyakit. Nilai bobot yang diberikan
adalah antara 1 sampai dengan bobot
maksimum masing-masing fitur. Pengisian
bobot dilakukan pada saat memasukan gejala
autis yang dilakukan oleh seorang pakar.
Proses diagnosa dapat dilakukan ketika
sudah melalui proses pemeriksaan awal.
Proses pemeriksaan awal digunakan untuk
menentukan apakah anak tergolong anak autis
atau tidak. Diagnosa penyakit dilakukan
dengan cara memasukan gejala-gejala kasus
yang akan didiagnosa. Ketika gejala autis
dimasukan, sistem secara otomatis akan
mencari kasus-kasus yang memiliki kemiripan
berdasarkan gejala penyakit yang telah
dimasukkan. Kasus-kasus yang mirip dapat
dimasukan ke dalam urutan jika nilai
similarity-nya lebih besar atau sama dengan
0.50 (nilai treshold). Nilai Similarity berada
Kedekatan biasanya berada pada nilai
antara 0 s/d 1. Nilai 0 artinya kedua kasus
mutlak tidak mirip, sebaliknya untuk nilai 1
kasus mirip dengan mutlak.
Fungsi f(Ti ,Si) didefinisikan sebagai berikut :
1 ; Ti = Si
f(Ti , Si) =
0 ; Ti ≠ Si
(2)
Berdasarkan fungsi similarity di atas,
setiap target case (disimbolkan dengan huruf
T) akan dicocokkan dengan source case yang
ada dalam case base (disimbolkan dengan
huruf S) simbol n merupakan jumlah total
fitur. Nilai similarity antara target case dengan
source case didapat dari fungsi f(Ti,Si) dikali
dengan bobot fitur. Pembobotan digunakan
untuk memberikan nilai penting suatu gejala
terhadap penyakit. Nilai bobot yang diberikan
adalah antara 1 sampai dengan bobot
maksimum masing-masing fitur. Semakin
besar nilai similarity yang diperoleh maka
akan semakin besar peluang source case untuk
dijadikan solusi bagi target case. Nilai
similarity maksimal adalah 1 dan nilai
minimalnya adalah 0.
CI-65
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
antara 0 sampai 1. Urutan kasus yang mirip
akan terus berubah-ubah seiring dengan
dimasukannya gejala penyakit baru.
Kasus yang tidak berhasil didiagnosa
akan diadaptasi oleh sistem dengan cara
melakukan revisi kasus. Ada dua kondisi revisi
kasus: pertama, kasus yang didiagnosa tidak
mempunyai kemiripan sama sekali dengan
kasus-kasus yang ada dalam case-base.Kedua,
kasus memiliki kemiripan dengan kasus yang
ada dalam case-base tetapi memiliki nilai
similiarity di bawah 0.50, sehingga derajat
kepercayaan terhadap kasus hasil diagnosa
tidak terlalu besar.
2.
3.
4.
Uji coba sistem dilakukan dengan cara
mendiagnosa sebanyak 20 kasus dengan
nilai treshold sebesar 0,6. Gambar 1
menunjukkan similarity kasus-kasus yang
diuji. Hasil uji coba menunjukan bahwa
tingkat akurasi sistem sebesar 90%. Dari
20 kasus terdapat dua kasus yang nilainya
di bawah 0,7 yaitu pada kasus nomor 6 dan
kasus nomor 12 sehingga
sistem
menganggap diagnosa tidak terlalu akurat.
5.
6.
HASIL UJI COBA KASUS
S IM IL A R IT Y
1,2
1
0,8
0,6
0,4
7.
0,2
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
KASUS
Gambar 1. Hasil Uji Coba Kasus
KESIMPULAN DAN SARAN
Berdasarkan hasil pengujian sistem CaseBased Reasoning untuk pendukung diagnosa
gangguan pada anak autis dapat ditarik
beberapa kesimpulan dan saran.
Kesimpulan
1. Nilai similarity berada antara 0 dan 1.
Nilai 0 menunjukan bahwa source case
tidak ada yang cocok dengan target case.
Nilai diantaranya menunjukan ada
kemiripan antara source case dengan
target case dan nilai 1 menunjukan bahwa
ISSN : 2302-7088
source case sama dengan target case.
Gejala-gejala penyakit dibuat sebagai
fitur dan mempunyai nilai 0 atau 1. Nilai
0 menandakan bahwa gejala tidak dimiliki
oleh penyakit dan nilai 1 menandakan
bahwa gejala dimiliki oleh penyakit.
Pembobotan
digunakan
untuk
memberikan nilai penting suatu gejala
terhadap penyakit. Nilai bobot yang
diberikan adalah antara 1 sampai dengan
bobot maksimum masing-masing fitur.
Pada saat proses similarity antara source
case dengan target case sistem akan
menampilkan kemungkinan kasus-kasus
yang mempunyai nilai similarity yang
lebih besar atau sama dengan 0.50.
Ada dua kondisi revisi kasus: pertama,
kasus yang didiagnosa tidak mempunyai
kemiripan sama sekali dengan kasuskasus yang ada dalam case-base.Kedua,
kasus memiliki kemiripan dengan kasus
yang ada dalam case-base tetapi memiliki
nilai similiarity dibawah 0.90, sehingga
derajat kepercayaan terhadap kasus hasil
diagnosa tidak terlalu besar.
Kondisi dimana ada lebih dari satu kasus
yang memiliki nilai similarity yang sama
diatasi dengan menggunakan voting kasus
yaitu dengan cara mencari similarity
kasus target dengan kelas kasus yang
memiliki nilai similarity yang sama. Total
dari similarity kelas akan menentukan
kelas mana yang akan dipilih.
Sistem ini dapat membantu Psikolog
maupun orang tua dalam mendiagnosa
awal gejala penyakit autis yang diderita
oleh anak.
Saran
1. Dewasa ini penggunaan fitur-fitur sudah
banyak digunakan, seperti menggunakan
citra atau gambar sebagai indeks similarity
kasus sehingga input yang digunakan untuk
mendiagnosa kasus berupa sebuah citra.
Similarity dihitung dengan melibatkan
fitur-fitur yang dimiliki citra tersebut.
Diharapkan
nantinya
sistem
dapat
menggunakan citra rekam otak untuk
tambahan input dalam mendiagnosa awal
gejala penyakit autis.
2. Diharapkan nantinya ada sistem yang dapat
memasukan alat-alat tes seperti Autism
Diagnostic Interview Revised (ADI-R) Kit,
Autism Diagnostic Observation Schedule
CI-66
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
3. (ADOS), Autism Social Communications
Questionnare (SCQ), Autism Test sehingga
dapat
membantu
psikolog
dalam
mendiagnosa gejala autis dengan biaya
yang lebih murah.
ISSN : 2302-7088
[5] Swoboda, W., Zwiebel, F.M., Spitz, R.,
and Gierl, L. (1994), “A case-based
consultation system for postoperative
management
of
liver-transplanted
patients”, Proceedings of the 12th MIE
Lisbon, IOS Press, Amsterdam, pp. 191195.
[6] Qu, Rong, 2002, “Case-Based Reasoning
for Course Timetable Problems”, Thesis
submitted to the University of
Nottingham for the degree of Doctor of
Philosofy
[7] Salem, Abdel-Badeeh M., Mohamed
Roushdy, Rania A HodHod, 2004, “A
Case-based expert system for supporting
diagnosis of heart diseases”. The
International Journal of Artificial
Intelligence and Machine Learning,
December 2004, Vol.05.
[8] Ong L.S., Sheperd B., Tong. L.C., SeowChoen F., Ho Y.H. “The Colorectal
Cancer Rec urrence Support (CARES)
System” Artificial Intelligence in
Medicine, Vol. 11(3), pp 175-188, 1997
DAFTAR PUSTAKA
[1] Lumbantobing, S.M., 2001, Anak Dengan
Mental Terbelakang, Balai Penerbit
Fakultas
Kedokteran
Universitas
Indonesia, Jakarta.
[2] Yusuf, E.A., 2003, Autisme: Masa Kanak,
http://www.library.usu.ac.id/modules.
php diakses tanggal 21 Januari 2008
[3] Riesbeck, C. dan Schank, R., 1989, “Inside
case-based
reasoning”,
Lawrence
Erlbaum,NJ.
[4] Watson, Ian., 1997, “Applying Case-Based
Reasoning: Techniques for Enterprise
Systems”, Morgan Kaufmann Publisher
Inc., San Franscisco, California.
CI-67
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
PENENTUAN LIRIK LAGU BERDASARKAN EMOSI
MENGGUNAKAN SISTEM TEMU KEMBALI INFORMASI DENGAN METODE
LATENT SEMANTIC INDEXING (LSI)
Yuita Arum Sari (1), Achmad Ridok, Marji (2)
1)Teknik Informatika, Institut Teknologi Sepuluh Nopember (ITS), Surabaya
2)Program Teknik Informatika dan Ilmu Komputer, Universitas Brawijaya (UB), Malang
E-mail: [email protected], [email protected], [email protected]
Abstrak
Lirik lagu merupakan salah satu elemen yang paling berpengaruh dalam menentukan
emosi. Jika dibandingkan dengan elemen yang bersifat audio, representasi makna yang
menggambarkan emosi, tampak lebih kuat dalam lirik lagu. Fokus penelitian ini terletak
pada lirik lagu yang sifatnya berupa teks, dan dapat diselesaikan dengan proses text
mining. Pada paper ini, sistem temu kembali informasi yang digunakan untuk
menentukan lirik lagu adalah Latent Semantic Indexing (LSI). Teknik dalam LSI
mengadopsi proses matematis reduksi dimensi Singular Value Decomposition (SVD).
Walaupun dimensi data direduksi, proses tersebut tidak mengganggu keterkaitan makna
antara lirik lagu pada corpus dan query. Pada masing-masing lirik lagu dalam corpus dan
query, diberi label emosi secara otomatis yaitu, label religius, sedih, marah, semangat,
takut, dan cinta. Sistem akan menentukan relevansi berdasarkan kecocokan label emosi
antara query dan corpus. Sistem dikatakan dapat bekerja dengan baik, ditunjukkan
dengan adanya hasil pengujian berupa nilai Mean Average Precision (MAP) pada
masing-masing k-rank 300, 200, 100, 50, dan 10 mendekati nilai 1.
Kata kunci
: Information Retrieval, Latent Semantic Indexing, Singular Value
Decomposition, Natural Language Processing, Text Mining
Abstract
Song lyrics is one of the most influential elements in determining emotion. Compared to
audio, lyric can represent meaning of emotion deeper and stronger. This research
focuses in song lyrics which use text and text mining can be implemented. In this paper,
Latent Semantic Indexing was used as a technique to determine song lyrics. LSI
technique adopts Singular Value Decomposition (SVD), which is a mathematics
technique to reduce dimension. Although data dimension is reduced, this process does
not affect meaning linkage of song lyrics in corpus and query. Each song lyric in corpus
and query is labeled automatically with these categories: religious, sad, angry, cheer,
fear, and love. This system will determine relevance based on emotion label match
between query and corpus. The system run well and it was shown by the result of Mean
Average Precision (MAP) in each k-rank 300, 200, 100, 50, and 10 which were almost 1.
Keywords
: Information Retrieval, Latent Semantic Indexing, Singular Value
Decomposition, Natural Language Processing, Text Mining
PENDAHULUAN
Sistem
temu
kembali
informasi
merupakan salah satu teknik pencarian untuk
mencari informasi yang relevan antara query
dan corpus. [1]. Kasus yang paling sering
banyak diteliti dalam proses sistem temu
kembali adalah teks [2]. Lirik lagu merupakan
salah satu betuk teks yang dapat digunakan
sebagai objek dalam penelitian sistem temu
kembali berdasarkan emosi. Dalam penentuan
emosi, lirik lagu merupakan elemen yang
memiliki makna yang paling kuat dalam
menggambarkan emosi [3]. Pada sebuah
dimensi data yang besar, dibutuhkan reduksi
dimensi untuk mengurangi adanya proses
CI-68
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
komputasi.
Penelitian
dilakukan
oleh
Kleedorfer, Knees, dan Pohle (2008) [3]
menggunakan proses reduksi dimensi matriks
Nonnegative Matrix Factorization (NMF), dan
penelitian Samat, Murad, Abdullah dan Atan
(2005) [4] menggunakan metode reduksi
matriks Singular Value Decomposition (SVD)
untuk proses clustering data. Pada penelitian
Peter, Shivapratap, Dyva, dan Soman (2009)
[5] melakukan analisis terhadap evaluasi SVD
dan NMF untuk proses Latent Semantic
Analysis (LSA) dan menyebutkan rata-rata
nilai interpolated average precission SVD
memiliki nilai lebih tinggi dibanding dengan
menggunakan NMF dan Vector Space Model
(VSM). Proses temu kembali dengan
menggunakan konsep SVD disebut dengan
LSI [5].
Pada penelitian ini, digunakan proses
temu kembali LSI yang memanfaatkan reduksi
dimensi SVD dengan menggunakan obyek
lirik
lagu
berbahasa
Indonesia
dan
mengabaikan bahasa yang sifatnya tidak resmi.
Proses pengolahan yang pertama dilakukan
adalah menggunakan teknik preprocessing
pada text mining yang merupakan salah satu
cabang ilmu dari Natural Language
Processing
(NLP).
Dalam
proses
prepocessing,
stemming yang digunakan
menggunakan algoritma Nazief-Andriani,
karena stemming tersebut mempunyai hasil
kebenaran sekitar 93% [6]. Hasil numerik dari
proses pembobotan setelah di-prepocessing
diolah menggunakan Latent Semantic Indexing
(LSI). Hasil dari sistem ini untuk mengetahui
akurasi dari LSI dalam proses penentuan lirik
lagu berdasarkan emosi.
TINJAUAN PUSTAKA
2.1.Lirik Lagu
Emosi
dalam
Menentukan
Menurut Kamus Besar Bahasa Indonesia
Online (KBBI online) lirik merupakan karya
sastra (puisi) yang berisi curahan perasaan
pribadi, atau susunan kata sebuah nyanyian,
dan lagu merupakan ragam suara yang
berirama. Lirik lagu merupakan salah satu
komponen yang ada dalam musik, selain
audio. Lirik lagu mempunyai makna emosi
yang kental, karena jika menggunakan
representasi audio saja terkadang kurang bisa
mengetahui makna dari lagu tersebut, sehingga
lirik digunakan untuk penelitian ini.
CI - 69
ISSN : 2302-7088
2.2.Proses Temu Kembali Teks
Proses temu kembali teks yang lebih
dikenal dengan nama text information
retrieval, merupakan sebuah teknik pencarian
dengan menggunakan algoritma tertentu untuk
mendapatkan hasil pencarian yang relevan
berdasarkan kumpulan (corpus) informasi
yang besar. Sebagian besar penggunaan sistem
temu kembali adalah pada teks. Pengguna
memasukkan kata kunci berupa teks, dan
kemudian sistem mengolahnya hingga
mendapatkan informasi semantik yang
diinginkan oleh pengguna [1].
2.3.Text Mining
Teknik text mining merupakan sebuah
teknik dimana data yang berupa teks
dikumpulkan dan diolah, untuk dapat
diidentifikasi dengan pola-pola tertentu .
Proses text mining termasuk dalam salah satu
bidang Natural Language Processing (NLP),
karena di dalam text mining, teks akan diolah
sehingga dapat dikomputasi dan dapat
menghasilkan informasi yang relevan satu
dengan yang lainnya. Pengolahan dalam teks
mining tahap awal dikenal dengan nama
preprocessing [7]. Teknik yang terdapat dalam
preprocessing yaitu case folding, stopword
removal, tokenizing, dan stemming. Case
foding merupakan proses untuk membuat
semua teks menjadi pola yang seragam
(uppercase atau lowercase). Stopword removal
menghilangkan kata-kata yang dianggap tidak
mempunyai kata penting. Tokenizing atau
teknik parsing digunakan untuk memecah
kalimat menjadi kata-kata. Selanjutnya, katakata tersebut diolah sehingga hanya
didapatkan kata-dasar saja. Teknik tersebut
dinamakan dengan stemming. Stemming yang
digunakan pada penelitian ini adalah algoritma
Nazief-Andriani.
2.4.Inverted Index
Inverted Index merupakan struktur data
berbentuk matriks, yang digunakan untuk
mempermudah
dalam merepresentasikan
banyaknya kata yang muncul dalam dokumen
teks [7].
Tabel 1. Contoh penerapan inverted index
Token
berdiri
nila
panjat
TF(i,j)
Lirik1
1
0
0
Lirik2
0
0
0
Lirik3
0
0
1
Lirik4
0
0
0
Lirik5
0
1
0
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
dosa
nyamai
suci
allah
tunjuk
lebur
ribu
tang
tuk
sahabat
sehat
dunia
doa
hadap
teman
malam
genggam
sejati
indah
ramadhan
0
0
0
0
1
0
0
0
0
1
0
1
0
0
0
0
0
0
0
0
1
0
1
0
0
1
0
0
1
0
0
0
0
0
0
0
0
0
1
1
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
1
1
0
0
0
0
0
0
0
1
0
0
1
1
0
1
2
0
1
1
0
0
0
1
0
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
1
pada dokumen j, max tfi,j adalah frekuensi
maksimum kata i pada dokumen j, D
adalah
banyaknya
dokumen
yang
diinputkan/ banyaknya dokumen dalam
corpus, dan dfi adalah banyaknya dokumen
yang mengandung kata i.
Pembobotan tersebut digunakan untuk
pembobotan pada corpus. Pembobotan
pada query dapat ditulis sebagai berikut :
Q
(4)
7ßà,&
‡
à,& +G.:RG.:∗
2.5.Pembobotan TF-IDF ternormalisasi
Terdapat tiga cara untuk menghitung
nilai term frequency (TF), yaitu dengan
menghitung frekuensi sebagai bobot,
menghitung peluang kemunculan sebagai
bobot (TF tanpa ternormalisasi), dan
menghitung logaritma dari banyaknya
kemunculan term (TF ternormalisasi). Dari
ketiga fungsi tersebut , menurut Garcia [8],
TF dengan normalisasi menghasilkan nilai
pembobotan yang baik, karena dapat
mengurangi efek panjang dari dokumen.
TF ternormalisasi dihitung sebagai berikut
[8] :
ß
(1)
7ß&,)
&,) +
ISSN : 2302-7088
yjz 7ßà,&
" ABC
6ß&
dimana Wi,j adalah bobot kata i pada
dokumen j, fi,j adalah frekuensi
ternormalisasi, tfi,j adalah frekuensi kata i
pada dokumen j, max tfi,j adalah frekuensi
maksimum kata i pada dokumen j, D
adalah
banyaknya
dokumen
yang
diinputkan/ banyaknya dokumen dalam
corpus, dan dfi adalah banyaknya dokumen
yang mengandung kata i.
2.6.Singular Value Decomposition (SVD)
Singular Value Decomposition (SVD)
merupakan model matematis yang
digunakan untuk reduksi dimensi data.
Proses
SVD
dilakukan
dengan
mendekomposisi matriks menjadi tiga
bagian [5], seperti pada gambar 1.
yjz 7ß&,)
dimana fi,j adalah frekuensi ternormalisasi,
tfi,j adalah frekuensi kata i pada dokumen j,
max tfi,j adalah frekuensi maksimum kata i
pada dokumen j. Untuk normalisasi
frekuensi dalam query diberikan rumus :
ß
(2)
7ßà,&
à,& +G,:R G.:∗
yjz 7ßà,&
dimana fi,j adalah frekuensi ternormalisasi,
tfi,j adalah frekuensi kata i pada dokumen
j, dan max tfi,j adalah frekuensi maksimum
kata i pada dokumen j. Sehingga,
pembobotan TF-IDF pada kata i dan
dokumen j dapat ditulis sebagai berikut :
Q
(3)
7ß&,)
‡
&,) +
yjz 7ß&,)
" ABC
Gambar 1. Ilustrasi matriks SVD
Matriks U dan V adalah matriks
othonormal, dimana baris pada matriks U
menggambarkan banyaknya baris pada
matriks A, sementara kolom pada matriks
V menggambarkan banyaknya kolom pada
matriks A. k-rank digunakan untuk
mereduksi dimensi dari matriks A. Matriks
S merupakan matriks simetris yang berisi
6ß&
dimana Wi,j adalah bobot kata i pada
dokumen j ,
fi,j adalah frekuensi
ternormalisasi, tfi,j adalah frekuensi kata i
CI - 70
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
nilai positif di sepanjang diagonal, daerah
selain diagonal berisi 0.
2.7.Latent Semantic Indexing (LSI)
Penggunaan SVD digunakan dalam
LSI. LSI merupakan salah satu bentuk
teknik proses temu kembali dengan
menggunakan Vector Space Model
(VSM), untuk menemukan informasi yang
relevan. Keterkaitan makna di dalam LSI
sifatnya tersembunyi. Fungsi matematis di
dalam LSI mampu menemukan hubungan
semantik
antar
kata
[4],[9],[10].
Representasi dari LSI adalah
~á = ~Œ . â . t
(5)
dimana q’ adalah
query vector
representasi dari LSI, qT adalah transpose
TDM dari pembobotan ternormalisasi TFIDF query, Uk adalah reduksi dimensi k
dari matriks U, dan S k−1 adalah inverse dari
reduksi dimensi k matriks S
2.8.Vector Space Model (VSM)
VSM adalah cara konvensional yang
biasa digunakan dalam proses temu
kembali informasi. Prosesnya dengan
menghitung kemiripan dua buah vektor,
yaitu antara vektor dari corpus dan vektor
dari query [10],[11]. Penghitungan
kemiripan dihitungdengan menggunakan
rumus cosine similarity [12].
∑ ~.6
=&'&0!3&7† = ãBä “ = ‖~‖‖6‖
(6)
=
,∑&
∑&
~& " 6 &
~& " ,∑&
6&
ISSN : 2302-7088
Dari persamaan 6 nilai q merupakan nilai
matriks hasil query SVD. d merupakan
nilai dari matriks V, dimana nilai dimensi
dari matriks V merupakan hasil input k
sesuai dengan nilai reduksi dengan k ≤
min(m x n), dimana m adalah banyaknya
kata-kata dan n adalah banyaknya
dokumen lirik.
2.9.Tipe Evaluasi
Precision, recall, dan F-Measure
merupakan kumpulan evaluasi untuk
mengetahui keakuratan sistem temu
kembali secara unranked retrieval, atau
dengan pengembalian dokumen tanpa
perangkingan.
Tipe
evaluasi
yang
digunakan untuk mengevaluasi sistem
temu kembali dengan ranked retrieval
pada penelitian ini digunakan Mean
Average Precission (MAP). Dalam
konteks sistem temu kembali, dokumen
yang dikembalikan dengan memasukkan
top-k dokumen yang retrieved. Average
Precission (AP) hanya mengambil nilai
presisi dari dokumen-dokumen yang
relevan dan kemudian hasilnya dibagi
dengan jumlah dokumen yang dilibatkan
[13]. Pengukuran dari MAP merupakan
hasil perhitungan rata-rata dokumen
relevan yang retrieved dari setiap query
yang terlibat di dalam sistem, sedangkan
dokumen yang tidak relevan nilainya
adalah 0 [14]. Rumus dari Mean Average
Precission adalah sebagai berikut [15]:
”U à =
'
∑|à| ∑ +) U35;&=&4 #T) %
|à| )+ '
(7)
METODE PENELITIAN
dimana nilai Q merupakan kumpulan
query atau menyatakan banyaknya query
yang diinputkan qj € Q {d1,……dmj} dan Rjk
adalah nilai precission dari kumpulan file
lirik lagu retrieved dan relevan yang telah
diranking. Nilai MAP mempunyai rentang
nilai 0 sampai 1, dan dalam sebuah
system dikatakan baik jika nilai MAP
mendekati 1 [15].
Kumpulan lirik lagu bahasa Indonesia
didapatkan dari berbagai sumber yang ada
di internet dan kemudian ditentukan
emosi-emosi apa saja yang terdapat di
dalam sebuah lirik lagu. Label emosi yang
digunakan diantaranya religius, sedih,
marah, semangat, takut, dan cinta.
Penelitian dilakukan melalui langkahlangkah sebagai berikut:
a. Mengumpulkan lirik lagu berbahasa
Indonesia. Kumpulan lirik lagu
CI - 71
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
b.
c.
d.
e.
f.
g.
h.
i.
j.
k.
ISSN : 2302-7088
sistem, jika data lirik musik yang
dikembalikan tidak relevan maka nilai
recall dan precission adalah 0. Nilai
recall berbanding lurus dengan posisi data
yang relevan dibagi dengan jumlah
keseluruhan data yang relevan. Nilai
recall akan semakin baik jika sistem dapat
mengenali kerelevanan sebuah lirik lagu
dari seluruh hasil kerelevanan yang
seharusnya dikenali. Nilai relevan pada
proses
pengembalian
ditentukan
berdasarkan adanya label emosi dalam
yang sama pada query maupun corpus.
Nilai Mean Average Precission
(MAP) pada masing-masing k-rank 300,
200, 100, 50, dan 10. Terlihat bahwa hasil
MAP cenderung menurun pada k-rank
=100, dengan nilai MAP=0.827 dari nilai
MAP=0.831 ketika pada k-rank=200.
Sistem menujukkan peningkatan MAP
ketika k-rank=50 yaitu dihasilkan
MAP=0.870, dan mengalami peningkatan
nilai MAP kembali saat nilai k-rank
dikecilkan menjadi k-rank=10 dengan
MAP=0.899. Dapat disimpulkan bahwa
pada
k-rank=10
sistem
dapat
mengembalikan dengan baik kebutuhan
informasi yang dibutuhkan.
tersebut disebut sebagai corpus.
Inputan sistem terdiri atas corpus dan
query yang berupa lirik.
Preprocessing file corpus dan query.
Membentuk struktur data inverted
index pada corpus.
Membentuk matriks pembobotan TFIDF ternormalisasi pada corpus dan
query.
Mendekomposisi matriks pembobotan
corpus dengan SVD.
Reduksi
dimensi
dari
hasil
dekomposisi matriks SVD.
Menghitung query vector yang
merupakan representasi dari LSI.
Mencari kemiripan antara corpus dan
query dengan cosine similarity.
Pengurutan nilai cosine similarity
secara descending order.
Pengambilan top-n teratas nilai cosine
similarity hasil pengurutan.
Melakukan
evaluasi
dari
hasil
penelitian dengan Mean Average
Precission (MAP). Hasil yang relevan
antara query dan corpus adalah yang
memiliki label emosi yang sama.
HASIL PENELITIAN
Analisis hasil secara kesuluruhan
dapat dikatakan sistem dapat bekerja
dengan baik, dibuktikan dengan nilai
MAP yang rata-rata mendekati nilai 1,
karena hal tersebut menujukkan sistem
dapat mendeteksi kemiripan makna antara
query dan corpus lirik lagu. Tabel 2
menujukkan hasil dari evaluasi MAP pada
masing-masing k-rank 300, 200, 100, 50,
dan 10. Data yang digunakan adalah lirik
lagu berbahasa Indonesia dengan julah
lirik lagu pada corpus 370 lirik dan pada
query terdapat 5 lirik.
Data interpolated average precission
dihasilkan dari penghitungan nilai
precission
dan recall pada masingmasing lirik lagu yang dikembalikan oleh
sistem secara terurut. Nilai recall dari
masing-masing
average
precission
semakin naik sesuai dengan hasil
relevansi lirik lagu yang dikembalikan
Tabel 2.MAP pada masing-masing k-rank
k-rank
Query
200
100
50
10
Q1
Q2
Q3
300
0.961
0.907
0.911
0.977
0.921
0.902
0.943
0.938
0.904
0.961
0.983
0.920
0.992
0.998
0.988
Q4
Q5
0.672
0.586
0.721
0.633
0.730
0.621
0.807
0.676
0.787
0.728
MAP
0.807
0.831
0.827
0.870
0.899
Hasil nilai Average Precission (AP)
dari masing-masing pengujian, tergantung
dari nilai k-rank. Hasil penelitian ini
menunjukkan bahwa rata-rata akurasi
sistem akan baik jika input k—rank yang
dimasukkan semakin kecil. Gambar 2
menunjukkan hasil MAP pada masingmasing
k-rank,
yang
mengalami
peningkatan ketika k-rank semakin kecil.
CI - 72
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
semantik antar kata. Pemilihan k-rank
yang optimal tidak dapat ditentukan
secara pasti karena banyaknya jumlah
kata dan dokumen yang berbeda akan
memungkinkan untuk menghasilkan krank optimal yang berbeda pula.
SARAN
Beberapa saran yang dari hasil
penelitian ini diantaranya yaitu banyaknya
jumlah kata yang terdapat dalam file lirik
lagu
berpengaruh
dalam
proses
pembobotan TF-IDF, yang menyebabkan
dimensi data tidak dapat diminimalkan,
sehingga
dibutuhkan
pemangkasan
frekuensi
kata
sebelum
proses
pembobotan dilakukan. Selain itu,
penggunaan frasa dalam penentuan makna
sangat berpengaruh, misalkan untuk kata
“air mata”, sistem ini belum bisa
mengenali bahwa “air mata” itu satu buah
makna (frasa), akan lebih baik dan
menghasilkan presisi yang cukup baik jika
penggunaan frasa dilibatkan. Penggunaan
frasa
dapat
diletakkan
sebelum
menghitung
pembobotan
dengan
menggunakan TF-IDF ternormalisasi.
Gambar 2. Grafik hasil MAP pada tiap krank
KESIMPULAN
Sistem yang digunakan dalam
penentuan lirik lagu berdasarkan emosi
pada penelitian ini menunjukkan hasil
yang cukup baik, dimana nilai MAP yang
dihasilkan mendekati nilai 1. Pada
penelitian ini digunakan
lirik lagu
berbahasa Indonesia, dimana dalam
proses stemming, sistem ini mengabaikan
penggunaan bahasa yang kurang resmi
(bahasa gaul), yang mengakibatkan
banyaknya kata yang dihasilkan proses
tokenizing semakin banyak. Jika dimensi
antara jumlah kata dan banyaknya lirik
lagu semakin besar maka waktu
komputasi yang dihasilkan juga cukup
lama. Sehingga, digunakan proses reduksi
dimensi SVD yang dapat mengurangi
jumlah dimensi. Proses LSI menggunakan
SVD juga digunakan untuk mencari
keterkaitan makna antar kata yang
tersembunyi. Proses matematis dalam
SVD mampu menunjukkan hubungan
ACKNOWLEDGEMENTS
Ucapan
terima
kasih
kepada
Drs.Achmad
Ridok,
M.Kom
dan
Drs.Marji M.T yang telah membantu dan
membimbing penulis dalam melakukan
penelitian ini di Universitas Brawijaya
Malang.
DAFTAR PUSTAKA
[8] Fuhr, N. 2002. Information
Introduction and Survey.
University of Disburg-Essen
[9] Manning,
Christoper.D,
Prabhakar, dan Schutze, H.
Introduction to Information
Cambridge.England.Cambridge
Press
RetrievalGermany.
Raghavan,
2007. An
Retrieval.
University
[10]
Kleedofer,F,dkk.2008. Oh Oh Oh
Whoah! Towards Automatic Topic
Detection in Song Lyrics.Austria. Studio
Smart Agent Tecnologies.
[11]
Samat,N.Ab,
Murad,
M.A.A,
Abdullah, M.T, dan Atan, R.2009. Malay
Document Clustering Algorithm Based on
Singular Value Decomposition. Malaysia.
Fakultas Ilmu Komputer dan Teknologi
CI - 73
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Informasi, Universitas Putra Malaysia.
[12]
Peter,Rakesh, G, Shivapratap, Dvya
G,dan Soman KP. 2009. Evaluation of
SVD and NMF Fungsis for Latent
Semantic
Analysis.
India.
Amrita
University.
[13]
Asian,Jelita, Wiliams, Hugh E, dan
Tahaghoghi S.M.M. .2005. Stemming
Indonesian. Australia : School of
Computer Science and Information
Technology.
[14]
Feldman,R dan James S. 2007. The
Text
Mining
Handbook.
England.Cambridge University Press.
[15]
Garcia,E.2006.Vector Models Based
on Normalized Frequencies : Improving
Word
Weights
with
Normalized
Frequencies.
http://www.miislita.com/wordvector/word-vector-4.html.
Diakses
tanggal 25 Mei 2011.
[16]
Sriyasa,W. 2009. Temu Kembali
Informasi : Rekonstruksi Inverted Index
dan Inplementasi Stopwords. Departemen
Ilmu Komputer.IPB
[17] Garcia,E.2006. SVD and LSI Tutorial 3:
Computing the Full SVD of a Matrix.
http://www.miislita.com/informationretrieval-tutorial/svd-lsi-tutorial-3-fullsvd.html. Diakses tanggal 7 Mei 2011.
ISSN : 2302-7088
[18] Kontostathis, April. 2007. Essential
Dimensions of Latent Semantic Indexing
(LSI). Departemen Matematika dan Ilmu
Komputer Universitas Ursinus.USA.
[19] Parsons,Kathryn,
McCormac,
A.,
Butavicius, M, Dennis*,S, dan Ferguson,
L. 2009. The Use of Context-Based
Information
Retrieval
Technique.
Australia.
Defence
Science
and
Technology Organization.
[20] Strehl,A,et al.2000.Impact of Similarity
Measures on Web-Page Clustering.
Proceeding of the Workshop of Artificial
Intelligent for Web Search, 17th National
Conference on Artificial Intelligence,2000.
[21] Blanken,H, Vries,Arjen P.de, Blok, Henk
Ernst, dan Feng, Ling ,.2007.Multimedia
Retrieval.Springer Berlin Heidelberg New
York
[22] Manning,
Christoper.D,
Raghavan,
Prabhakar, dan Schutze, H. 2009. An
Introduction to Information Retrieval.
Cambridge.England.Cambridge University
Press
CI - 74
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
CI-012 (wahyu)
CI - 75
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
EKSTRAKSI KATA KUNCI OTOMATIS UNTUK DOKUMEN BERBAHASA
INDONESIA MENGGUNAKAN METODE GENITOR-PLUS EXTRACTOR (GenEx)
Gregorius Satia Budhi1, Agustinus Noertjahyana2, Risky Yuniarto Susilo3
1, 2, 3)
Teknik Informatika Universitas Kristen Petra
Siwalankerto 121-131, Surabaya.
E-mail: [email protected], [email protected]
Abstrak
Ekstraksi Kata Kunci Otomatis adalah sebuah aplikasi yang digunakan untuk
menghasilkan sebuah daftar keyphrase / kata kunci secara otomatis. Algoritma utama
yang digunakan adalah algortima GenEx yang dibuat oleh Turney, dengan beberapa
penyesuaian karena digunakan untuk ekstraksi keyphrase dari artikel berbahasa
Indonesia. Penyesuaian dilakukan pada proses stemming pada bagian Extractor dengan
menggantinya mengunakan algoritma Porter Stemmer for Bahasa Indonesia yang dibuat
oleh Tala. Penyesuaian perlu dilakukan karena kata dalam bahasa Indonesia memiliki
tiga macam imbuhan (prefiks, infiks dan suffiks) sementara kata dalam bahasa Inggris
hanya memiliki imbuhan dibelakang (suffiks). GenEx adalah algoritma yang
memanfaatkan Algortima Genetika (Genitor) untuk membentuk sekelompok parameter
yang digunakan saat mengekstrak kata kunci dari sebuah artikel didalam proses
Extractor. Hasil pengujian nilai recall dari keyphrase yang di-generate terhadap kata
kunci dari author bernilai rata - rata 60%. Sementara hasil pengujian oleh responden
menunjukkan bahwa 95% responden menyatakan bila keyphrase yang di-generate dapat
mewakili artikelnya. Kedua hasil menunjukkan bahwa aplikasi ini telah berhasil
menggenerate kata kunci (keyphrase) yang sesuai dan dapat mewakili artikel yang
diproses.
Kata kunci: Ekstraksi Kata Kunci Otomatis, Kata kunci, Algoritma GenEx, Porter
Stemmer for Bahasa Indonesia, Dokumen Berbahasa Indonesia
Abstract
Automatic Keyword Extraction is an application used to generate a list of keyphrases /
keywords automatically. The main algorithm that is used is GenEx by Turney, with some
adjustments because it is used for keyphrase extraction from articles in Indonesian
language. Adjustments are made on the process of stemming inside the Extractor part. It
is replaced with “Porter Stemmer for Bahasa Indonesia” algorithm by Tala. Adjustments
need to be made because the words in the Indonesian language has three kinds of affixes
(prefix, infix and suffix) while the English word has only suffixes. GenEx is an algorithm
that uses Genetic algorithms (Genitor) to form a group of parameters that are used when
extracting keywords from an article in the Extractor. The test results of recall value for
keyphrase that are generated by the application divided by the number of keyword
author worth the average of 60%. While the results of testing by the respondents
indicated that 95% of respondents said if the keyphrase that are generated could
represent the article. Both results indicate that the application has been successfully
generating the keywords (keyphrases) that are suitable and can represent the processed
article.
Key words: Automatic Keyphrase Extraction, Keyphrase, GenEx algorithm, Porter
Stemmer for Bahasa Indonesia, Indonesian Language Document
CI - 76
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
PENDAHULUAN
ISSN : 2302-7088
Algoritma genetika Genitor
Proses pemberian daftar kata kunci
(keywords / keyphrases) pada dokumen cukup
sulit, terutama jika hal itu harus dilakukan
kemudian oleh orang lain yang bukan
pengarang dari dokumen, misal petugas
perpustakaan online atau administrator web
penyedia file dokumen makalah / paper. Oleh
karena itu dibutuhkan suatu proses otomatis
yang mampu mengekstraksi kata kunci secara
langsung dari sebuah input dokumen. Disini
kami menggunakan istilah keyphrase karena
biasanya kata kunci diabuat dalama bentuk
lebih dari 1 kata (frase).
Aplikasi yang dikembangkan
pada
penelitian ini adalah sebuah software yang
dapat secara otomatis menghasilkan daftar
kata kunci. Dimana daftar kata kunci tersebut
mewakili poin-poin penting dari sebuah
dokumen.
Algoritma yang digunakan dipenelitian ini
adalah algoritma GenEx (Genitor Plus
Extractor) yang telah disesuaikan agar tepat
untuk ekstraksi kata kunci dari dokumen
berbahasa indonesia. Penyesuaian dilakukan
pada tahap stemming dari proses Extractor.
Metode "Stemming by Truncation" pada
proses ini diganti dengan metode "Porter
Stemmer for Bahasa Indonesia" yang dibuat
oleh F.Z. Tala pada tahun 2003.
TINJAUAN PUSTAKA
Genitor yang merupakan akronim dari
Genetic ImplemenTOR, adalah algoritma
genetika steady-state, yang berbeda dengan
banyak algoritma genetika lainnya. Algoritma
genetika steady-state memperbaharui populasi
hanya satu individu di satu waktu,
mengakibatkan perubahan populasi yang terus
menerus, dengan tidak ada beda generasi.
Biasanya individu baru dengan fitnes terbaik
menggantikan individu dengan fitnes terrendah
[3]. Pseudo-code dari Genitor dapat dilihat
pada Gambar 1.
GENITOR (P)
create population of size P
while not (termination condition)
select two parents
breeds a single offspring by
(optional) crossover followed by
mutation O
evaluate least-fit chromosome by O
replace the least-fit member of the
population
output fittest kromosom
Gambar 1. Pseudo-code Genitor [3]
Algoritma ekstraksi keyphrase
Extractor
Extractor
akan
mengambil
sebuah
dokumen sebagai input dan menghasilkan
daftar keyphrase sebagai output. Extractor
mempunyai dua belas parameter yang akan
mempengaruhi pemrosesan dokumen teks
input [2]. Parameter - parameter tersebut dapat
dilihat pada Tabel 1.
Tabel 1. Daftar Parameter pada Extractor [2]
Text Mining
Text Mining dapat didefinisikan sebagai
metode atau teknik komputasi pada data
berbentuk teks guna menemukan informasi
yang relevan, intrinsik dan tidak diketahui
sebelumnya.
Metode
text
mining
dikelompokkan dalam empat kategori yaitu:
clasification, clustering, association analysis
dan information extraction [1].
Automatic Keyphrase Extraction
Automatic keyphrase extraction adalah
sebuah proses untuk menghasilkan daftar
keyphrase yang dapat mewakili poin-poin
penting dari sebuah teks. Automatic keyphrase
extraction adalah sebuah bentuk implementasi
dari text mining. Proses kerja dari Automatic
keyphrase extraction secara umum sama
dengan proses kerja didalam text mining [2].
CI - 77
No
Nama Parameter
Nilai
Awal
1
NUM_PHRASES
10
2
NUM_WORKING
3
FACTOR_TWO_ONE
4
FACTOR_THREE_ONE
5
MIN_LENGTH_LOW_RANK
0,9
6
MIN_RANK_LOW_LENGTH
5
7
FIRST_LOW_THRESH
40
8
FIRST_HIGH_THRESH
400
9
FIRST_LOW_FACTOR
2
10
FIRST_HIGH_FACTOR
0,65
11
STEM_LENGTH
5
12
SUPRESS_PROPER
0
50
2,33
5
Deskripsi
Maks frase di daftar
frase akhir
5 * NUM_PHRASES
Faktor dua kata dalam
satu frase
Faktor tiga kata dalam
satu frase
Peringkat yang rendah
harus memiliki Kata
yang lebih penjang dari
nilai ini
Kata yang pendek harus
memiliki peringkat lebih
dari nilai ini
Definisi posisi kata yang
ditemukan lebih awal
Definisi posisi kata yang
ditemukan lebih akhir
Penghargaan untuk kata
yang ditemukan lebih
awal
Penalti untuk kata yang
ditemukan lebih akhir
Maksimum karakter
panjang stem
Flag untuk suppres
proper nouns
Di dalam Extractor terdapat sepuluh
langkah seperti terlihat pada Gambar 2.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
sampai 1050 percobaan / individu (nilai
default). Setiap individu adalah parameter
pengaturan Extractor yang ditentukan dalam
binary string. Fitness cost tiap binary string
dihtung menggunakan rumus 1 sampai dengan
7 untuk seluruh training set. Output akhir dari
Genitor adalah nilai tertinggi binary string.
Output ini nantinya digunakan pada proses
Extractor di saat pemakaian aplikasi [4].
Perhitungan fitness cost didapatkan dari
rumus perhitungan di bawah ini [4]:
total_matches = jumlah frasa yang sama antara GenEx
dan manusia (author)
(1)
Gambar 2. Langkah - langkah proses
algoritma Extractor [2]
total_machine_phrases = jumlah output frasa yang
dihasilkan dari proses GenEx
(2)
Algoritma GenEx
Algoritma GenEx adalah algoritma hybrid
genetic yang digunakan untuk mengekstraksi
kata kunci. GenEx memiliki dua komponen,
yaitu algoritma genetika Genitor dan algoritma
ektraksi keyphrase Extractor. Extractor akan
mengambil sebuah dokumen sebagai input dan
menghasilkan daftar keyphrase sebagai output.
Extractor mempunyai dua belas parameter
yang akan mempengaruhi pemrosesan teks
input. Parameter dari Extractor ini diatur
menggunakan algoritma genetika Genitor.
Genitor tidak dibutuhkan lagi ketika proses
training telah selesai yaitu ketika nilai
parameter terbaik telah diketahui. Sementara
itu proses untuk mendapatkan keyphrase saat
testing atau pemakaian digunakan Extractor
(GenEx without Genitor).
Algoritma GenEx menggunakan dataset
(training dan testing subset) berupa pasangan
dokumen dengan target keyphrase-nya. Proses
learning yang ada di algoritma GenEx
bertujuan untuk menyesuaikan parameter
menggunakan data training yang berguna
untuk memaksimalkan kesamaan hasil antara
output dari Extractor dengan daftar target
keyphrase. Keberhasilan proses learning
diukur
dengan
memeriksa
kecocokan
menggunakan data testing.
Jika diasumsikan bahwa user menentukan
nilai NUM_PHRASES, jumlah frase yang
dikehendaki ke nilai antara lima dan lima
belas. Kemudian diatur NUM_WORKING
adalah 5 * NUM_PHRASES. Menyisakan
sepuluh parameter yang akan ditetapkan oleh
Genitor. Genitor menggunakan binary string
72 bit untuk mewakili sepuluh parameter,
seperti yang ditunjukkan pada Tabel 2.
Genitor dijalankan dengan ukuran populasi 50
CI - 78
precision = total_matches / total_machine_phrases
(3)
num_docs = jumlah dokumen yang digunakan sebagai
training set
(4)
total_desired = num_docs * NUM_PHRASES
(5)
penalty = (total_machine_phrases / total_desired)2 (6)
fitness = precision * penalty
(7)
Tabel 2. Sepuluh Parameter Extractor yang
diatur oleh Genitor [4]
Nama Parameter
Tipe
Range
FACTOR_TWO_ONE
real
[1, 3]
FACTOR_THREE_ONE
real
[1, 5]
MIN_LENGTH_LOW_RANK
real
[0.3, 3.0]
MIN_RANK_LOW_LENGTH
integer
[1, 20]
FIRST_LOW_THRESH
integer
[1, 1000]
FIRST_HIGH_THRESH
integer
[1, 4000]
FIRST_LOW_FACTOR
real
[1, 15]
FIRST_HIGH_FACTOR
real
[0.01, 1.0]
STEM_LENGTH
integer
[1, 10]
SUPRESS_PROPER
boolean
[0, 1]
Total Panjang Bit dalam Binary String:
Jml Bit
8
8
8
5
10
12
8
8
4
1
72
Faktor penalty bervariasi antara 0 dan 1.
Faktor penalty tidak mempunyai efek (jika 1)
ketika jumlah frase yang keluar sebagai output
dari GenEx sama dengan jumlah frase yang
diinginkan. Penalty didapat (mendekati 0) dari
pangkat hasil pembagian antara jumlah frase
yang keluar sebagai output dari GenEx dengan
jumlah frase yang diinginkan. Eksperimen
preliminary pada data training menetapkan
ukuran fitness yang membantu GenEx untuk
menemukan nilai parameter dengan rata-rata
ketepatan yang tinggi dan kepastian frase
sebanyak NUM_PHRASES akan keluar
sebagai output.
Genitor dijalankan dengan Selection Bias
of 2.0 dan Mutation Rate of 0.2. Ini adalah
pengaturan default untuk Genitor. Pada
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Genitor digunakan Adaptive Mutation
Operator dan Reduced Surrogate Crossover
Operator. Adaptive Mutation menentukan
tingkatan mutasi yang sesuai untuk seorang
children menurut hamming distance antara
kedua parent; semakin sedikit perbedaan, lebih
tinggi tingkat mutation rate. Reduced
Surrogate Crossover pertama mengidentifikasi
semua posisi di mana terjadi perbedaan pada
parent string. Poin-poin crossover hanya
diijinkan untuk terjadi pada posisi ini [4].
Stemming
Stemming adalah proses pemetaan dan
penguraian berbagai bentuk (variants) dari
suatu kata menjadi bentuk kata dasarnya [5].
Proses ini juga disebut sebagai conflation.
Proses Stemming membuat bentuk sebuah kata
menjadi kata dasarnya. Metode umum untuk
stemming adalah menggunakan kombinasi dari
analisa morphological [6].
Porter Stemmer for Bahasa Indonesia
Porter Stemmer for Bahasa Indonesia
dikembangkan oleh Fadillah Z. Tala pada
tahun 2003. Implementasi Porter Stemmer for
Bahasa Indonesia berdasarkan English Porter
Stemmer yang dikembangkan oleh M.F. Porter
pada tahun 1980. Karena bahasa Inggris
datang dari kelas yang berbeda, beberapa
modifikasi telah dilakukan untuk membuat
Algoritma Porter dapat digunakan sesuai
dengan bahasa Indonesia [7]. Desain dari
Porter Stemmer for Bahasa Indonesia dapat
dilihat pada Gambar 3.
Implementasi dari algoritma ini telah
dioptimasi untuk digunakan pada text mining
oleh penulis dan hasilnya telah dipublikasikan
sebelumnya [8].
ISSN : 2302-7088
Pada Gambar 3 terlihat beberapa langkah
'removal' menurut aturan yang ada pada tabel
3 sampai dengan tabel 7.
Tabel 3. Kelompok rule pertama : inflectional
particles [7]
Suffix
Replacement
Measure
Condition
Additional
Condition
kah
NULL
2
NULL
lah
NULL
2
NULL
pun
NULL
2
NULL
Examples
bukukah →
buku
adalah →
ada
bukupun →
buku
Tabel 4. Kelompok rule kedua :inflectional
possesive pronouns [7]
Suffix
Replacement
Measure
Condition
Additional
Condition
Examples
ku
NULL
2
NULL
bukuku → buku
mu
NULL
2
NULL
bukumu → buku
nya
NULL
2
NULL
bukunya → buku
Tabel 5. Kelompok rule ketiga: first order of
derivational prefixes [7]
Prefix
Replacement
Measure
Condition
Additional
Condition
Examples
mengukur →
ukur
meng
NULL
2
NULL
meny
s
2
V…*
men
NULL
2
NULL
mem
mem
me
peng
peny
p
NULL
NULL
NULL
s
2
2
2
2
V…
NULL
NULL
NULL
V…
pen
NULL
2
NULL
pem
pem
di
ter
ke
p
NULL
NULL
NULL
NULL
2
2
2
2
2
V…
NULL
NULL
NULL
NULL
menyapu → sapu
menduga → duga
menuduh →
uduh
memilah → pilah
membaca → baca
merusak → rusak
pengukur → ukur
penyapu → sapu
penduga → duga
penuduh → uduh
pemilah → pilah
pembaca → baca
diukur → ukur
tersapu → sapu
kekasih → kasih
Tabel 6. Kelompok rule keempat: second
order of derivational prefixes [7]
Prefix
Replacement
ber
NULL
Measure
Condition
2
Additional
Condition
NULL
bel
NULL
2
Ajar
be
NULL
2
K* er…
per
NULL
2
NULL
pel
NULL
2
Ajar
pe
NULL
2
NULL
Examples
berlari → lari
belajar →
ajar
bekerja →
kerja
perjelas →
jelas
pelajar →
ajar
pekerja →
kerja
Tabel 7: Kelompok rule kelima: derivational
suffixes [7]
Suffix
Replacement
Measure
Condition
Additional
Condition
kan
NULL
2
Prefix ∉ {ke,
peng}
an
NULL
2
Prefix ∉ {di,
meng, ter}
2
V|K…c1c1,
c1 ≠ s, s2 ≠ i
and prefix ∉
{ber, ke,
peng}
i
Gambar 3. Blok diagram dari Porter
Stemmer for Bahasa Indonesia [7]
NULL
Frase dalam bahasa Indonesia
CI - 79
Examples
tarikkan → tarik
(meng)ambilkan
→ ambil
makanan →
makan
(per)janjian →
janji
tandai → tanda
(men)dapati →
dapat
pantai → panta
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Frase adalah bagian kalimat yang terdiri
atas dua kata atau lebih yang tidak melebihi
batas fungsi. Misalnya: akan datang, kemarin
pagi, yang sedang menulis. Artinya satu frase
maksimal hanya menduduki gatra subjek (S),
predikat (P) atau objek (O) atau keterangan
(K).
Perbedaan antara frase dalam Bahasa
Indonesia dengan frase dalam Bahasa Inggris
bukanlah perbedaan yang mencolok dan tanpa
pola [9].
ISSN : 2302-7088
Open document memungkinkan user untuk
melihat isi dokumen atau memilih dokumen
yang ingin dicari keyphrase-nya. Proses open
document
akan
mentransfer
dokumen
berbentuk *,doc / *.pdf untuk menjadi teks.
Teks yang terbentuk akan dikenai proses
selanjutnya.
DISAIN APLIKASI
Berikut pada Gambar 4 dapat dilihat use
case diagram dari aplikasi yang dibuat.
Gambar 4. Diagram Use Case dari aplikasi
Ekstraksi Kata Kunci Otomatis
Berikut pada Gambar 5 sampai dengan
Gambar 8 dapat dilihat diagram activity dari
masing - masing use case.
Gambar 6. Diagram activity dari use case Do
Extractor Process
Do Extractor Process adalah implementasi
dari algoritma Extractor. Proses yang
dilakukan kurang lebih sama dengan sepuluh
langkah pada algoritma Extractor, namun
dengan sedikit penyesuaian karena digunakan
untuk mengekstrak dokumen berbahasa
Indonesia. Langkah - langkah tersebut adalah
sebagai berikut:
Langkah 1: Find Single Stems
Hal pertama yang dilakukan pada langkah
ini adalah membuat daftar kata-kata dari teks
input. Jika kata kurang dari 3 huruf maka
hapus kata tersebut kecuali kata memiliki
kapitalisasi pattern stem yang menunjukkan
sebuah singkatan. Penghapusan ini dilakukan
dengan asumsi bahwa kata kurang dari 3 huruf
tidak memiliki arti penting. Setelah itu hapus
stopword menggunakan daftar stopword yang
disediakan pada paper dari Tala [7]. Proses
selanjutnya adalah Stemming. Di dalam
algoritma GenEx, stemming dilakukan dengan
cara memotong kata sesuai dengan nilai
STEM_LENGTH (metode stemming by
truncation) dengan tujuan mempercepat
proses. Namun metode ini tidak cocok bila
Gambar 5. Diagram activity dari use case
Open Document
CI - 80
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
diterapkan untuk bahasa Indonesia. Alasannya
adalah karena kata dalam bahasa Indonesia
memiliki imbuhan di depan (prefiks), belakang
(suffiks), sisipan (infiks) atau gabungan
ketiganya, sementara kata dalam bahasa
inggris hanya memiliki imbuhan dibelakang
(suffiks). Oleh sebab itu proses stemming pada
langkah ini dirubah menggunakan algoritma
"Porter Stemmer for Bahasa Indonesia" [7]
yang kemudian telah dioptimasi oleh penulis
untuk diimplementasikan pada text mining [8].
Hasil implementasi tersebut digunakan pada
penelitian ini.
Langkah 2: Score Single Stems
Pada langkah ini dihitung seberapa sering
sebuah stem tunggal ada di dalam teks, dan
catat dimana kata tersebut pertama kali
ditemukan. Setelah itu, berikan skor untuk
setiap stem tunggal. Skor adalah jumlah
berapa kali stem tunggal tersebut muncul di
dalam teks dikalikan dengan sebuah faktor.
Jika stem tunggal pertama kali ditemukan
sebelum
FIRST_LOW_THRESH,
maka
kalikan frekuensi tersebut dengan FIRST_
LOW_FACTOR. Jika stem tunggal pertama
kali ditemukan sesudah FIRST_HIGH_
THRESH, maka kalikan frekuensi tersebut
dengan FIRST_HIGH_FACTOR.
Langkah 3: Select Top Single Stems
Langkah ketiga adalah merangking nilai
tiap stem tunggal dari skor tinggi ke skor
rendah dan buat daftar top stem tunggal
sebanyak NUM_WORKING.
Pomotongan daftar stem tunggal sebanyak
NUM_WORKING untuk mengatasi agar stem
tunggal di dalam daftar tidak terlalu banyak
sehingga dapat meningkatkan efisiensi
Extractor. Pemotongan juga sebagai penyaring
untuk menghapuskan stem tunggal dengan
kualitas rendah.
Langkah 4: Find Stem Phrases
Pada langkah ini dibuat daftar semua frase
yang ada di input teks. Sebuah frase
didefinisikan sebagai kumpulan dari satu, dua,
atau tiga kata yang teratur di dalam teks, dan
tidak terdapat stopword atau batasan frase
(tanda baca). Setelah itu dilakukan stemming
setiap frase dengan memotong tiap kata di
dalam frase menjadi root word.
Extractor hanya mempertimbangkan frase
dengan satu, dua, atau tiga kata karena Frase
dengan empat kata atau lebih sangat jarang.
CI - 81
ISSN : 2302-7088
Extractor tidak mempertimbangkan frase
dengan stopword didalamnya, karena author
cenderung menghindari keyphrase dengan
stopword didalamnya.
Langkah 5: Score Stem Phrases
Pada langkah kelima dilakukan perhitungan
seberapa sering setiap stem frase muncul di
teks dan catat dimana stem frase tersebut
pertama kali muncul. Tetapkan skor untuk
setiap stem frase, dengan cara yang sama
dengan langkah kedua, dengan menggunakan
parameter FIRST_LOW_FACTOR, FIRST_
LOW_THRESH,
FIRST_HIGH_FACTOR,
dan FIRST_HIGH_THRESH. Selanjutnya
buat penyesuaian untuk setiap skor,
berdasarkan jumlah stem kata dari tiap frase.
Jika hanya ada satu stem tunggal di dalam
frase, maka tidak dilakukan apa-apa. Jika
terdapat dua stem tunggal dalam frase, kalikan
skor dengan FACTOR_TWO_ONE. Jika
terdapat tiga stem tunggal dalam frase, kalikan
skor dengan FACTOR_THREE_ONE.
Langkah 6: Expand Single Stems
Pada langkah keenam, untuk setiap stem
dalam daftar top stem tunggal sebanyak
NUM_WORKING dicari nilai tertinggi stem
frase dari satu, dua, atau tiga stem yang berisi
stem tunggal tersebut. Hasilnya adalah daftar
stem frase sebanyak NUM_WORKING.
Simpan daftar ini dan susun sesuai dengan
ranking skor yang dihitung di langkah 2.
Langkah 7: Drop Duplicates
Pada
langkah
ketujuh
dilakukan
penghapusan stem frase yang memiliki
duplikat pada daftar top NUM_WORKING.
Misalnya, dua stem tunggal mungkin diperluas
menjadi stem frase yang terdiri dari dua kata.
Hapus duplikat dari daftar peringkat
NUM_WORKING
stem
frase,
dan
pertahankan peringkat tertinggi frase.
Langkah 8: Add Suffixes
Untuk masing-masing dari sisa stem frase,
temukan frase yang paling sering muncul di
seluruh input teks. Misalnya, jika "penggalian
data" sepuluh kali muncul dalam teks dan
"menggali data" muncul tiga kali, maka
"penggalian data" lebih sering sesuai untuk
stem frase "gali data". Di dalam bahasa
Indonesia kata dapat memiliki prefiks, suffiks,
atau kombinasi dari keduanya (confixes).
Maka dari itu pada langkah ini kata
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
dikembalikan ke bentuk awal, yaitu dengan
penambahan prefiks, suffiks, atau kombinasi
dari keduanya (confixes). Jadi sebenarnya
langkah ini lebih tepat bila dinamakan "Add
Affixes".
Di dalam metode automatic keyphrase
extractor dokumen berbahasa Inggris jika ada
frase yang memiliki kata dengan suffiks, yang
menunjukkan kemungkinan menjadi kata sifat
(adjective), maka frekuensi untuk seluruh frase
diatur ke nol. Juga, jika ada frase yang
memiliki
kata
yang
menunjukkan
kemungkinan kata kerja (verb), frekuensi
untuk frase diatur ke nol.
Pada bahasa Indonesia teknik untuk
mendeteksi kemungkinan kata sifat dan kata
kerja berbeda dengan dalam bahasa Inggris,
Oleh sebab itu didalam aplikasi ini digunakan
tabel kata sifat dan kata kerja yang terdapat
pada database kamus elektronik Indonesia.
Bila ditemukan maka frekuensi dari frase-nya
diatur ke nol.
Langkah 9: Add Capitals
Dilangkah kesembilan dicari kemungkinan
terbaik untuk proses kapitalisasi pada seluruh
frase yang ada. Istilah terbaik didefinisikan
sebagai berikut: Untuk setiap frase, temukan
proses kapitalisasi dengan jumlah kapital
paling sedikit. Dari aturan ini kandidat terbaik
adalah frase yang hanya berisi satu kata. Untuk
frase yang terdiri dari dua atau tiga kata,
disebut terbaik (best) di dalam kapitalisasi jika
konsisten.
Langkah 10: Final Output
Pada langkah sepuluh diambil sejumlah
frase yang telah dirangking sebayak
NUM_WORKING dari rangking tertinggi.
Selanjutnya adalah menampilkan daftar
output, frase sebanyak NUM_PHRASES yang
paling baik. Untuk mendapatkan hal itu setiap
frase akan melewati tes berikut:
(1) frase tidak memiliki kapitalisasi dari kata
benda, kecuali flag SUPPRESS_PROPER
diatur ke 1 (jika 1 kemungkinan kata
benda).
(2)
frase
sebaiknya
tidak
memiliki
kemungkinan yang menunjukkan kata sifat.
(3) frase harus lebih panjang daripada
MIN_LENGTH_LOW_RANK,
dimana
panjang diukur oleh rasio jumlah karakter
dalam kandidat frase dengan jumlah
karakter di rata-rata frase, dimana rata-rata
dihitung untuk semua frase di input teks
CI - 82
ISSN : 2302-7088
yang terdiri dari satu sampai tiga kata nonstopword yang berturut-turut.
(4)
jika
lebih
pendek
dari
frase
MIN_LENGTH_LOW_RANK, maka frase
tersebut masih dapat diterima, jika
peringkatnya di daftar kandidat frase lebih
baik
daripada
MIN_RANK_LOW_LENGTH.
(5) jika kata gagal di kedua tes (3) dan (4), ia
masih dapat diterima, jika kapitalisasi
pattern stem menunjukkan bahwa mungkin
sebuah singkatan.
(6) frase tidak boleh mengandung apapun kata
yang sering digunakan sebagai kata kerja.
(7) frase seharusnya tidak sama dengan isi
daftar stop-phrase.
Frase yang ditampilkan harus lulus tes (1),
(2), (6), (7), dan sekurang-kurangnya salah
satu tes (3), (4), dan (5). Bila jumlah frase
yang lolos tes lebih banyak dari jumlah
NUM_PHRASE maka hanya frase rangking 1
sampai dengnan NUM_PHRASE yang
ditampilkan.
Langkah 11: Display Result
Pada langkah ini hasil dari langkah 10
ditampilkan ke pada user. Selanjutnya user
dapat memilih keyphrase mana yang
digunakan dan mana yang dihapus.
Gambar 7. Diagram activity dari use case Save
Keyphrase
Pada aktifitas ini hasil keyphrase yang telah
dipilih oleh user beserta dokumennya
disimpan dengan bentuk file text (*.txt).
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
Gambar 10. Antar muka 'Final Result'
Pada antar muka 'Final Result' akan
ditampilkan hasil output yang dapat dipilih
oleh user (box Output). Pada antar muka ini
ditampilkan pula frase - frase yang lolos dari
test pada langkah 10 Extractor (box Output
List) dan juga informasi detail tentang hasil
test
dari
urutan
frase
sebanyak
NUM_WORKING (box Check List).
Gambar 8. Diagram activity dari use case Do
GenEx Process
PENGUJIAN
Pada aktifitas Do GenEx Process dilakukan
proses yang sama persis dengan proses GenEx
yang telah dijelaskan sebelumnya pada bab
Tinjauan Pustaka.
ANTAR MUKA APLIKASI
Pada Gambar 9 dilihat tampilan antar muka
awal dari aplikasi yang dibuat di penelitian ini.
Ada tiga macam pengujian yang dilakukan
pada penelitian ini, yaitu:
1. Pengujian waktu proses learning GenEx.
Pengujian ini dilakukan saat Genitor
bekerja untuk mengoptimasi parameter
Extractor. Sementara untuk proses
Extractor karena sangat cepat maka tidak
perlu diuji. Hasil pengujian dapat dilihat
pada Gambar 11.
Waktu Proses GenEx
3000
Waktu (menit)
2500
2000
50 populasi
100 populasi
1500
150 populasi
1000
500
0
15
30
70
Jumlah dokumen yg diproses
Gambar 11. Hasil pengujian waktu proses
GenEx
Gambar 9. Antar muka awal setelah proses
open dokumen dilakukan oleh user
Setelah melewati 9 step yang ada dengan
cara menekan tombol 'next' maka kepada user
akan disajikan hasil dari ekstraksi otomatis
kata kunci dari dokumen yang diproses.
Tampilan antar muka 'Final Result' dapat
dilihat pada Gambar 10.
CI - 83
Dari hasil pengujian terlihat bahwa
semakin banyak jumlah dokumen sample yang
ikut dalam proses learning GenEx dan semakin
besar populasi, maka semakin lama pula waktu
prosesnya. Namun waktu proses learning ini
masih dibawah 1 jam untuk 70 dokumen
dengan maks 150 populasi (10500 kali proses).
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
2. Pengujian perbandingan hasil yang
didapat dengan parameter default yang didapat
dari paper PD Turney [1] dengan nilai
parameter yang didapat dari proses learning
GenEx. Pada pengujian ini digunakan 70
dokumen untuk learning GenEx dan 5
dokumen untuk testing. Hasil pengujian dapat
dilihat pada Tabel 8 dan Tabel 9.
Tabel 8. Perbandingan precision antara hasil
Extractor dengan parameter default dan
parameter hasil learning GenEx
Judul Dokumen
Analisis Persepsi
Pelanggan Terhadap
Kualitas Layanan Coffee
Shop Asing Dan Coffee
Shop Lokal
Representasi Perempuan
Pada Lukisan Di Bak Truk
Desain Interior Dan
Perilaku Pengunjung Di
Ruang Publik
Penerapan Fuzzy If-Then
Rules Untuk Peningkatan
Kontras Pada Citra Hasil
Mammografi
Perilaku Dan Keputusan
Pembelian Konsumen
Restoran Melalui Stimulus
50% Discount Di Surabaya
Rata - rata Precision
Precision
utk Default
Parameter
Precision utk
Parameter
hasil GenEx
0.125
0.125
0.375
0.5
0.25
0.25
0.25
0.25
0.25
0.375
0.25
0.3
Nilai precision pada tabel 8 dihitung
dengan rumus berikut:
Precision = jumlah hasil benar / total hasil proses
(8)
Nilai precision yang tidak besar disebabkan
karena besarnya nilai pembagi. Pada aplikasi
ini nilai pembagi tersebut identik dengan isi
variable NUM_PHRASES yang disetting oleh
user. Oleh sebab itu dihitung pula nilai Recall
menggunakan rumus sebagai berikut:
Recall = jumlah hasil benar / total keyphrase author (9)
Tabel 9. Perbandingan recall antara hasil
Extractor dengan parameter default dan
parameter hasil learning GenEx
Judul Dokumen
Analisis Persepsi
Pelanggan Terhadap
Kualitas Layanan
Coffee Shop Asing Dan
Coffee Shop Lokal
Representasi Perempuan
Pada Lukisan Di Bak
Truk
Desain Interior Dan
Recall utk
Default
Parameter
Recall utk
Parameter
hasil GenEx
0.33
0.33
0.5
0.75
0.66
0.66
CI - 84
ISSN : 2302-7088
Perilaku Pengunjung Di
Ruang Publik
Penerapan Fuzzy IfThen Rules Untuk
Peningkatan Kontras
Pada Citra Hasil
Mammografi
Perilaku Dan Keputusan
Pembelian Konsumen
Restoran Melalui
Stimulus 50% Discount
Di Surabaya
Rata - rata Recall
0.5
0.5
0.5
0.75
0.5
0.6
Pada Tabel 9 dapat dilihat bahwa nilai
recall dari kedua macam parameter yang
diteliti cukup baik karena rata - rata setengah
atau lebih dari hasil yang benar telah sesuai
dengan kata kunci dari pengarang / author.
Kelemahan dari aplikasi ini adalah keyphrase
yang dihasilkan berasal dari frase - frase yang
memang ada pada dokumen, sementara author
dapat membuat kata kunci (keyphrase) dari
frase diluar yang ada pada karangannya.
Pada dua pengujian terlihat bahwa
parameter yang didapat dari learning
menggunakan GenEx memiliki nilai rata - rata
precision dan recall yang lebih baik.
3. Pengujian terhadap responden. Pengujian
ini dilakukan dengan cara meminta 20
responden untuk membaca artikel berbahasa
Indonesia lalu memberi jawaban apakah kata
kunci yang ada telah mewakili artikel dan
memiliki arti yang jelas. Kata kunci tersebut
dibuat secara otomatis oleh aplikasi.
Selanjutnya
respoden
juga
menjawab
pertanyaan tentang daftar kata kunci mana
yang lebih tepat. Hasil dapat dilihat pada
Tabel 10.
Tabel 10. Pengujian tehadap responden
No
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
Mewakili
Artikel
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Ya
Ya
Arti Jelas
Tidak
Ya
Ya
Ya
Ya
Tidak
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Ya
Ya
Daftar Keyphrase
default hasil GenEx
V
V
V
V
V
V
V
V
V
V
V
V
V
V
V
V
V
V
V
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
20
Ya
95%
Ya
85%
10%
V
90%
ISSN : 2302-7088
DAFTAR PUSTAKA
Dari pengujian dapat dilihat bahwa hampir
semua
responden
beranggapan
bahwa
keyphrase yang dihasilkan aplikasi memiliki
arti yang jelas dan dapat mewakili artikel.
Responden juga berpendapat bahwa kata kunci
yang digenerate dengan parameter hasil
learning GenEx lebih baik dari parameter
default.
KESIMPULAN
Dari pengujian dapat dilihat bahwa nilai
recall dari aplikasi cukup baik (60%), sehingga
dapat disimpulkan bahwa keyphrase yang
dihasilkan aplikasi dapat membantu user untuk
membuat kata kunci dari sebuah artikel. Hal
ini didukung pula dengan hasil dari pengujian
responden
dimana
95%
responden
beranggapan bahwa keyphrase yang digenerate
oleh aplikasi dapat mewakili artikelnya. Selain
itu dari uji kecepatan proses GenEx, dapat
disimpulkan bahwa proses GenEx masih dapat
ditolerir waktunya mengingat proses ini hanya
dilakukan sekali saja untuk kurun waktu lama.
Proses GenEx baru dilakukan lagi bila ada
penambahan jumlah dokumen sample yang
cukup signifikan dan dianggap dapat merubah
parameter yang dihasilkan.
CI - 85
[1] Prado HA, Ferneda E. Emerging
Technologies of Text Mining: Techniques and
Applications. New York: Information Science
Reference. 2008.
[2] Turney PD. Learning to Extract
Keyphrases from Text. National Research
Council, Institute for Information Technology,
Technical Report ERB-1057. 1999.
[3] Whitley D. The GENITOR algorithm and
selective pressure. Proceedings of the Third
International
Conference
on
Genetic
Algorithms (ICGA-89): 116-121. California:
Morgan Kaufmann. 1989.
[4] Turney PD. Learning algorithms for
keyphrase extraction. Information Retrieval, 2
(4): 303-336. (NRC #44105). 2000.
[5] Porter MF. An algorithm for suffix
stripping. Program, 14(3): 130-137. 1980.
[6] Chakrabarti S. Mining the Web:
Discovering Knowledge from Hypertext Data.
Morgan Kaufmann Publishers. 2003.
[7] Tala FZ. A Study of Stemming Effects on
Information Retrieval in Bahasa Indonesia.
Master of Logic Project. Institute for Logic,
Language and Computation Universeit Van
Amsterdam. 2003.
[8] Budhi GS., Gunawan I., Yuwono F.
Algortima Porter Stemmer For Bahasa
Indonesia Untuk Pre-Processing Text Mining
Berbasis Metode Market Basket Analysis.
PAKAR Jurnal Teknologi Informasi Dan
Bisnis vol. 7 no. 3. November 2006.
[9] Depdiknas. Panduan materi bahasa dan
sastra Indonesia SMK. Depdiknas. 2003.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
INTEGRASI METODE 2DPCA-ICA DAN SVM PADA PENGENALAN WAJAH
Rima Tri Wahyuningrum
Laboratorium Komputasi dan Sistem Cerdas
Program Studi Teknik Informatika, Universitas Trunojoyo Madura
Jl. Raya Telang PO.BOX 2, Kamal, Bangkalan, Madura - 691962
E-mail : [email protected]
Abstrak
Pada penelitian ini, kami mempresentasikan sebuah integrasi metode ekstraksi fitur yang
efisien antara Two Dimensional Principal Component Analysis (2DPCA) - Independent
Component Analysis (ICA) dan Support Vector Machines (SVM) Multiclass pada
pengenalan wajah. Berbeda dengan PCA-ICA pada pengenalan wajah, 2DPCA
melakukan ekstraksi fitur berdasarkan pada 2D matrik citra wajah dan eigenvektornya
berkorespondensi dengan eigenvalue yang diurutkan secara descending. Hal ini
mengatasi kekurangan dari PCA-ICA. Kemudian untuk pengukuran kemiripan / metode
klasifikasi menggunakan SVM yang memiliki performa sangat tinggi di berbagai proses
pengenalan obyek. Untuk uji coba dan evaluasi performansi dari sistem yang dibuat,
penelitian ini menggunakan basis data wajah Yale, ORL dan Bern. Berdasarkan hasil uji
coba, rata-rata pengenalan wajah menggunakan 2DPCA-ICA dan SVM lebih tinggi
dibandingkan dengan metode lainnya yaitu 99.6%.
Kata Kunci : 2DPCA, ICA, SVM, pengenalan wajah.
Abstract
In this paper,we presented an integration of an efficient feature extraction method between Two
Dimensional Principle Component Analysis (2DPCA) - Independent Component Analysis (ICA)
and Support Vector Machines (SVM) multiclass in face recognition. Unlike the PCA-ICA in face
recognition, 2DPCA to extract features based on the 2D facial image where eigenvector matrix
corresponding to eigenvalue in descending order. It overcomes the shortcomings of PCA-ICA.
Then to measure the similarity / classification method using SVM which have performance very
high in object recognition processes. To test and evaluate the performance of the system are
made, this research used a face database Yale, ORL and Bern. Based on the test results, the
average face recognition using 2DPCA-ICA and SVM is higher than other methods, namely
99.6%.
Keywords: 2DPCA, ICA, SVM, face recognition.
PENDAHULUAN
Pengenalan adalah suatu kemampuan dasar
dari beberapa sistem visual. Hal ini
menunjukkan proses pemberian label suatu
obyek yang merupakan bagian dari kelas
tertentu. Wajah manusia adalah salah satu
obyek terpenting pada sistem visual. Manusia
hanya dapat mengenali manusia lainnya dalam
keadaan tertentu saja, padahal kemampuan ini
sangat krusial untuk saling berinteraksi, sistem
keamanan dan lain sebagainya.
Masalah pengenalan wajah menjadi daya
tarik para peneliti dalam kurun waktu terakhir.
Matrik citra wajah orang yang sama dapat
memiliki perbedaan. Hal ini disebabkan
CI - 86
beberapa faktor, seperti pencahayaan, ekspresi
wajah, dan pose. Dalam melakukan proses
pengenalan terdapat dua hal penting yaitu
ekstraksi fitur dan pengukuran kemiripan/
metode klasifikasi yang digunakan.
Metode ekstraksi fitur yang banyak
digunakan adalah Principal Component
Analysis (PCA) dan Independent Component
Analysis (ICA). PCA pertama dikenalkan oleh
Turk and Pentland pada tahun 1991 sedangkan
ICA dikenalkan oleh Bell and Sejnowski pada
tahun 1995. PCA bertujuan untuk mewakili
citra masukan berdasarkan eigenvector yang
berkorespondensi dengan eigenvalue yang
disusun secara decreasing sedangkan ICA
bertujuan untuk menemukan transformasi
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
linear pada data masukan menggunakan
variabel bebas secara statistik yang mungkin.
Kedua metode ini sangat sensitif terhadap
pencahayaan. Sehingga konsep ICA dapat
dianggap generalisasi dari PCA [1].
Pada metode PCA, matrik citra wajah harus
terlebih dahulu diubah menjadi 1D vektor
citra. Sehingga hasil citra vektor memiliki
ruang dimensi yang tinggi, akibatnya sulit
untuk melakukan evaluasi matrik kovarian
secara akurat karena ukurannya yang besar dan
hanya efektif untuk jumlah data pelatihan yang
sedikit [2]. Oleh karena itu, dilakukan
pengembangan metode PCA yaitu 2DPCA
untuk mengatasi kelemahan metode PCA
tersebut.
Pada 2DPCA menggunakan teknik
proyeksi citra langsung, matrik citra wajah 2D
tidak perlu ditransformasikan ke dalam bentuk
citra vektor namun secara langsung matrik
kovarian citranya dapat dibentuk langsung
dengan menggunakan matrik citra aslinya
sehingga ukuran matrik kovarian citranya
menjadi lebih kecil. Metode 2DPCA memiliki
dua keuntungan penting daripada PCA, yaitu
pertama, lebih mudah dan akurat untuk
melakukan evaluasi matrik kovarian. Kedua,
waktu yang dibutuhkan untuk menentukan
eigenvector lebih sedikit [2].
Pada penelitian sebelumnya, Denis et. al
membandingkan metode PCA dan ICA dengan
pengukuran kemiripan menggunakan SVM
[3]. Selain itu telah dilakukan penerapan
ekstraksi kemiripan menggunakan Euclidean
Distance dan SVM [4]. Kemudian Gan et.al
melakukan penelitian dengan menggunakan
2DPCA-ICA sebagai metode ekstraksi fitur
dan nearest neighbor sebagai metode
klasifikasinya [5].
Pada penelitian ini mempresentasikan
integrasi metode 2DPCA-ICA dan SVM
sebagai metode klasifikasi dengan tujuan
meminimalkan kesalahan (error) yang terjadi
sehingga nilai akurasi pada pengenalan wajah
meningkat serta komputasi yang diperlukan
lebih cepat. Uji coba dilakukan menggunakan
basis data wajah Yale, ORL dan Bern.
METODE
Two Dimensional Principal Component
Analysis (2DPCA)
Algoritma 2DPCA dapat dijelaskan sebagai
berikut [1]:
CI - 87
ISSN : 2302-7088
1. Himpunan sebanyak M citra dari basis
data citra wajah pelatihan (xi), yang
diproyeksikan ke dalam matrik dua
dimensi (xi).
 x 11
x
Y =  12
K

 x1 N
x 21
x 22
K
L
K
x2N
K
K
xM 1 
x M 2 
K 

x MN 
(1)
2. Perhitungan rata-rata dari total matrik citra
pelatihan (±̅ ):
r
±̅ = å ∑å+r x¯
(2)
3. Perhitungan
matrik
kovarian
dari
himpunan citra pelatihan (G):
æ
r
Ï = å ∑å+r#± − ±̅ % ± − ±̅
(3)
4. Perhitungan eigenvalue dan eigenvector
dari matrik kovarian dapat diperoleh
berdasarkan persamaan 4:
çæ Ï ç = ∧
(4)
Eigenvalue (∧) selalu berkorespondensi
dengan perubahan eigenvector (U).
Selanjutnya eigenvector diproyeksikan
sesuai eigenvalue mulai dari yang terbesar
(d).
5. Memperoleh fitur vektor proyeksi optimal
dari 2DPCA, yang direpresentasikan oleh
Y1, Y2, …, Yd, yang disebut sebagai
principal component vectors dari sampel
citra wajah pelatihan (x).
Independent
(ICA)
Component
Analysis
Pemodelan ICA dinotasikan sebagai r(t) =
As(t) dengan r(t) adalah variabel acak yang
diteliti, s(t) adalah vektor dari komponen
bebas (independent component) dan A adalah
matrik citra [3]. Tujuan dari ICA yaitu
meramalkan matrik A dan komponen bebas
s(t) menggunakan variabel masukan r(t).
Berdasarkan ICA asli, diasumsikan sangat
sederhana yaitu s(t) merupakan komponen
bebas secara statistik. Pada penelitian ini
diasumsikan
bahwa
komponen
bebas
menggunakan distribusi non-gauss yaitu FAST
ICA yang bertujuan untuk memaksimalkan
fungsi kontras.
Two
Dimensional
Principal
Component Analysis - Independent
Component Analysis (2DPCA-ICA)
Diasumsikan matrik data pelatihan
dinotasikan dengan X = [x1 x2 … xn], dan
berkorespondensi dengan komponen bebas S =
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
[s1 s2 … sm]. Hubungan antara X dan S
ditunjukkan pada persamaan berikut [5]:
X
=
AS
(5)
Berdasarkan persamaan 5, setiap citra
wajah xi dapat diwakili sebagai kombinasi
linear dari s1, s2, …, sm dengan nilai bobot
masing-masing ai1, ai2, …, aim. Oleh karena itu,
A adalah matrik n x m yang disebut sebagai
matrik fitur gabungan. FAST ICA digunakan
untuk menghitung matrik gabungan, A.
Matrik gabungan, A merupakan matrik
balikan, sehingga didapatkan W dengan rumus:
A = W-1
(6)
dimana W adalah matrik transformasi.
Pada penelitian ini, 2DPCA digunakan
untuk mereduksi dimensi dari data pelatihan xi,
i = 1, 2, …, M. Berdasarkan persamaan 4,
eigenvalue (∧) dan eigenvector (U) diperoleh
dari perhitungan matrik kovarian. Selanjutnya
eigenvector diproyeksikan sesuai eigenvalue
mulai dari yang terbesar (d) untuk menghitung
matrik
pemutihan
(whitened
matrix)
berdasarkan persamaan 7 berikut:
é =∧t½ ç æ
(7)
ìr
ìM 0
dengan ∧ = ë
í,
…
0
ì
ì î = 1,2, … , o
disebut
sebagai
eigenvalue dan disusun ìr ≥ ìM ≥ ⋯ ≥ ì .
Eigenvector
berkorespondensi
dengan
eigenvalue dinotasikan sebagai ð î =
1,2, … , o , selanjutnya kompresi matrik fitur
dari eigenvector ditunjukkan sebagai ç =
[ðr ðM … ð ].
Proses terakhir, data pelatihan dinotasikan
ñññæ , ò = 1,2, … , ó. FAST-ICA
sebagai é ± − ±
digunakan
untuk
menghitung
matrik
gabungan, A, dan matrik fitur, W, ô ∈
õ Â . Jika d adalah komponen bebas yang
dipilih, maka matrik bebas (independent
matrix) didefinisikan sebagai berikut:
ö = ôé
(8)
dengan ô ∈ õ Â , é ∈ õ Â , dan ö ∈
õ Â . Selanjutnya vektor proyeksi optimal
dari 2DPCA-ICA diperoleh dari
ø öæ
÷ = [± − ±]
(9)
dengan ÷ ∈ õ Â .
Setelah ekstraksi fitur dengan 2DPCA-ICA,
maka didapatkan vektor fitur proyeksi dari
CI - 88
ISSN : 2302-7088
setiap citra dan matrik ù = [÷r ÷M … ÷ ]
dibentuk. Kemudian dilakukan proses
klasifikasi menggunakan SVM multiclass.
Support Vector Machines (SVM)
Salah satu metode klasifikasi yang
memiliki performa sangat tinggi adalah
Support Vector Machines (SVM). Metode ini
pertama kali dikenalkan oleh Vapnik tahun
1995 untuk klasifikasi biner. SVM mampu
mengoptimalkan
hyperplane
yang
memisahkan kelas – kelas saat melakukan
ujicoba. Selanjutnya Hsu dan Lin berhasil
mengembangkan SVM multiclass [6]. Pada
dasarnya terdapat dua pendekatan untuk
menyelesaikan permasalahan SVM multiclass.
Pendekatan
pertama
adalah
dengan
menggabungkan semua data dalam suatu
permasalahan optimasi, sedangkan pendekatan
kedua adalah dengan membangun multiclass
classifier, yaitu dengan cara menggabungkan
beberapa SVM biner. Pendekatan pertama
menuntut penyelesaian masalah optimasi yang
lebih rumit dan
komputasi yang tinggi,
sehingga pendekatan ini tidak banyak
dikembangkan. Selain itu, Liu et.al telah
mengembangkan SVM multiclass one against
all [7].
Dalam penelitian ini menggunakan SVM
one against all dengan kernel gaussian. Pada
proses
klasifikasi
pelatihan
variabel
hyperplane untuk setiap pengklasifikasi
(classifier) yang didapat akan disimpan dan
nantinya digunakan sebagai data tiap
pengklasifikasi dalam proses pengujian,
dengan kata lain proses klasifikasi pelatihan
adalah untuk mencari support vector dari data
input (dalam hal ini digunakan quadratic
programming).
Pada
proses
klasifikasi
pengujian
menggunakan hasil ekstraksi fitur data
pengujian dan hasil proses klasifikasi
pelatihan. Hasil dari proses ini berupa nilai
indeks dari fungsi keputusan yang terbesar
yang menyatakan kelas dari data pengujian.
Jika kelas yang dihasilkan dari proses
klasifikasi pengujian sama dengan kelas data
pengujian, maka pengenalan dinyatakan benar.
Hasil akhirnya berupa citra wajah yang sesuai
dengan nilai indeks dari fungsi keputusan yang
terbesar hasil dari proses klasifikasi pengujian.
Berikut ini adalah algoritma SVM one
against all pada proses pelatihan dilanjutkan
dengan proses pengujian:
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
1. Membangun sejumlah k SVM biner (k
adalah jumlah kelas).
2. Proses pelatihan pada setiap SVM biner
(no.2-4). Memetakan input space ke
feature space menggunakan kernel
Gaussian
K ( x, y ) = exp(
ISSN : 2302-7088
dibagi menjadi dua, sebagian digunakan untuk
proses pelatihan (training) dan sisanya
digunakan untuk proses pengujian (testing).
− | x − y |2
)
( 2σ 2 )
(10)
3. Menentukan sejumlah support vector
dengan cara menghitung nilai alpha α1, ...,
αN ( N = sejumlah data pelatihan)
menggunakan quadratic programming
l
rr
1 l
Q(α ) = ∑αi − ∑αiα j yi y j xi x j
2
i =1
i ,i =1
(11)
dengan : α i ≥ 0 (i = 1,2,..., l )
r
l
∑α y
i =1
i
i
=0
Data xi yang berkorelasi dengan αi > 0
inilah yang disebut sebagai support vector
4. Solusi bidang pemisah didapatkan dengan
(12)
rumus: w =Σαiyixi
dan b = yk- wTxk untuk setiap xk , dengan
αk≠ 0.
5. Proses pengujian pada setiap SVM biner
(no.5-6).
Memetakan input space ke feature space
menggunakan kernel Gaussian, seperti
ditunjukkan pada persamaan 10.
6. Menghitung
fungsi
keputusan:
f i = K ( xi , x d ) wi + bi
(13)
dengan: i = 1 sampai k; xi = support
vector; xd = data pengujian.
7. Menentukan nilai fi
yang paling
maksimal. Kelas i dengan fi terbesar
adalah kelas dari data pengujian.
RANCANGAN SISTEM
Secara garis besar sistem terdiri dari dua
bagian, yaitu proses pelatihan citra dan proses
pengujian. Pada Gambar 1 merupakan
gambaran garis besar sistem pengenalan wajah
menggunakan metode 2DPCA-ICA dan SVM.
Pada proses pelatihan terdapat proses 2DPCAICA yang digunakan untuk mengekstraksi
fitur, fitur-fitur yang terpilih pada saat proses
pelatihan digunakan dalam proses klasifikasi
dan juga digunakan untuk mendapatkan fiturfitur yang terpilih pada data uji coba. Masingmasing basis data wajah yang digunakan
CI - 89
Gambar 1. Rancangan sistem pengenalan
wajah menggunakan metode 2DPCA-ICA dan
SVM
HASIL DAN PEMBAHASAN
Pada penelitian
ini, integrasi metode
2DPCA-ICA dan SVM diterapkan pada
pengenalan wajah menggunakan database
wajah Yale, ORL dan Bern. Database wajah
Yale menggunakan variasi ekspresi wajah dan
pencahayaan. Database ini terdiri dari 165
citra dari 15 orang, setiap orang memiliki 11
perbedaan citra dengan ukuran dimensi 64 x
88. Sedangkan database wajah ORL
menggunakan variasi pose dan ukuran data.
Database ini terdiri dari 40 orang, masingmasing orang memiliki 10 perbedaan, dengan
ukuran dimensi 92 x 112.. Pada database
wajah Bern terdiri dari 28 orang, masingmasing orang memiliki 10 perbedaan, dengan
ukuran dimensi 64 x 88..
Pada uji coba, semua citra pada tiga
database wajah diubah menjadi grayscale dan
dilakukan normalisasi menjadi 30 x 24 piksel
dengan
metode
interpolasi
bilinear.
Selanjutnya ukuran matrik kovarian adalah 24
x 24 untuk mendapatkan eigenvector. Pada
penelitian ini, memilih eigenvector yang
berkorespondensi dengan 6 eigenvalue
terbesar sehingga dilakukan perhitungan
matrik pemutihan (whitened matrix) é =
∧t½ ç æ , dengan d = 6. Kemudian dilakukan
proses FAST-ICA untuk menghitung vektor
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
dari komponen bebas, S. Pada penelitian ini
menggunakan 6 komponen bebas (d = 6).
Berdasarkan persamaan 8, bahwa dimensi S
adalah 24x6x24. Selanjutnya menghitung
vektor proyeksi berdasarkan persamaan 9
sehingga didapatkan Y, dengan ukuran dimensi
sama dengan 24x24x6.
Dilanjutkan dengan proses klasifikasi
menggunakan SVM one against all. Setelah
menghitung fungsi keputusan (fi) dan kelas
data x akan ditentukan berdasarkan nilai fungsi
keputusan yang tertinggi. Untuk pencarian
solusi tersebut menggunakan quadratic
programming.
Pada
penelitian
ini
menggunakan
Matlab
2010,
termasuk
quadratic
programming
langsung
menggunakan yang sudah tersedia di Matlab.
Untuk masing-masing database wajah
pelatihan menggunakan 3 wajah (uji 3), 4
wajah (uji 4), 5 wajah (uji 5) . Sisa wajah yang
tidak digunakan pada proses pelatihan, maka
digunakan sebagai data pengenalan/ pengujian.
Pada Tabel 1, 2 dan 3 menunjukkan hasil
pengenalan wajah menggunakan database
Yale, ORL, dan Bern dengan membandingkan
metode 2DPCA + SVM dan 2DPCA-ICA +
SVM.
2DPCA +
SVM
2DPCA-ICA
+ SVM
Akurasi pengenalan (%)
Uji 3
Uji 4
Uji 5
80.65
83.42
87.25
84.5
89.55
93.6
Tabel 2 Perbandingan hasil pengenalan wajah
menggunakan 2DPCA dan 2DPCA-ICA
dengan SVM sebagai pengklasifikasinya pada
database ORL
Metode
2DPCA
+
SVM
2DPCA-ICA
+ SVM
Akurasi pengenalan (%)
Uji 3
Uji 4
Uji 5
88.3
92.5
98.75
90.5
94.75
99.6
Tabel 3 Perbandingan hasil pengenalan wajah
menggunakan 2DPCA dan 2DPCA-ICA
dengan SVM sebagai pengklasifikasinya pada
database Bern
Metode
2DPCA
+
84.5
94.55
99
Berdasarkan Tabel 1, 2 dan 3 menunjukkan
bahwa rata-rata akurasi pengenalan wajah
menggunakan 2DPCA-ICA + SVM lebih
tinggi dibandingkan dengan 2DPCA + SVM,
yaitu sebesar 99,6% dengan 5 data pelatihan
pada database ORL. Metode 2DPCA-ICA
mampu menggabungkan kelebihan 2DPCA
(ukuran matrik kovarian yang lebih kecil
dibandingkan PCA) dan ICA (generalisasi dari
PCA).
SIMPULAN
Pada penelitian ini mempresentasikan
integrasi metode 2DPCA-ICA dan SVM one
against all pada pengenalan wajah. Uji coba
menggunakan database wajah Yale, ORL dan
Bern. Berdasarkan hasil uji coba, 2DPCA-ICA
dan SVM memiliki rata-rata akurasi
pengenalan wajah lebih tinggi dibandingkan
2DPCA dan SVM, yaitu sebesar 99.6%
menggunakan pada 5 data pelatihan pada
database ORL.
DAFTAR PUSTAKA
Tabel 1 Perbandingan hasil pengenalan wajah
menggunakan 2DPCA dan 2DPCA-ICA
dengan SVM sebagai pengklasifikasinya pada
database Yale
Metode
SVM
2DPCA-ICA
+ SVM
ISSN : 2302-7088
Akurasi pengenalan (%)
Uji 3
Uji 4
Uji 5
86.47
93.65
96.25
CI - 90
[1] Liu,
C.
Enhanced
Independent
Component Analysis of Gabor Features
for Face Recognition. IEEE Transactions
on Neural Networks. 14: 919-928. 2003.
[2] Yang, J., Zhang, D., Frangi, A.F. and
Yang, J.Y. Two-Dimensional PCA : A
New Approach to Appearance-Based
Face Representation and Recognition.
IEEE Transactions on Pattern Analysis
and Machine Intelligence. 26 (1) : 131137. 2004.
[3] Deniz, O., Castrillon, M., and Hernandez,
M. Face Recognition Using Independent
Component Analysis and Support Vector
Machines. Pattern Recognition Letters.
24: 2153-2157. 2003.
[4] Fortuna, J. and Capson, D. Improved
Support Vector Classification Using PCA
and ICA Feature Space Modification.
Pattern Recognition. 37: 1117-1129.
[5] Gan, J.-y., Li, C.-z., and Zhou, D.-p. A
Novel Method for 2DPCA-ICA in Face
Recognition. ICIC 2007, CCIS 2, pp.
1203-1209. 2007.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
[6] Hsu, C.W., and Lin, C.J. A Comparison
of Methods for Multi-class Support
Vector Machines, IEEE Transactions on
Neural Networks. 13(2): 415-425. 2002.
[7] Liu, Y., Wang, R., Zeng, Y., and He, H.
An Improvement of One-against-all
Method for Multiclass Support Vector
Machine. 4th International Conference:
Sciences of Electronic, Technologies of
Information and Telecommunications
(SETIT 2007). Tunisia. 2007.
CI - 91
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
STUDI PERFORMANSI PENERAPAN MANAJEMEN AKSES JAMAK
TERPUSAT DAN TERDISTRIBUSI PADA JARINGAN KOMPUTER
Achmad Ubaidillah Ms.
Fakultas Teknik – Universitas Trunojoyo Madura
Email : [email protected]
Abstrak
Universitas Trunojoyo Madura pernah menerapkan sistem manajemen akses
jamak (multiple access) terdistribusi pada jaringan komputernya, tepatnya
sampai tahun 2010. Namun akhirnya sistem manajemen akses jamak tersebut
diganti dengan sistem manajemen akses jamak terpusat. Permasalahannya
adalah, perubahan sistem manajemen akses jamak tersebut dilakukan tanpa
dilakukan kajian ilmiah terlebih dahulu. Penelitian ini akan mengkaji dan
membandingkan kinerja penerapan manajemen akses jamak terpusat dan
manajemen akses jamak terdistribusi pada jaringan komputer Universitas
Trunojoyo Madura. Tujuan dilakukan kajian seperti ini adalah untuk
merekomendasikan sistem manajemen akses jamak yang lebih baik kinerjanya
jika diterapkan pada jaringan komputer Universitas Trunojoyo Madura.
Hasil penelitian menunjukkan bahwa kinerja sistem manajemen akses jamak
terpusat lebih baik dari pada sistem manajemen akses jamak terdistribusi karena
tidak kaku dan selalu dapat menyesuaikan diri dengan kebutuhan bandwidth
masing-masing grup.
Kata kunci : Manajemen akses Jamak, Terpusat, Terdistribusi
Abstract
Trunojoyo University of Madura has implemented distributed system of multiple
access management on it’s computer network until 2010. But, this multiple
access management system finally was changed to become centralized system of
multiple access management. The problem is, the change of that multiple access
management system, was not based on scientific observation. This research
observes and compares the performance between centralized and distributed
multiple access management system on computer network of Trunojoyo
University of Madura. The aim of this research is, to recommend which one of
multiple access management system is better tobe implemented in computer
network of Trunojoyo University of Madura.
The result of this research show that centralized multiple access management
system is better than distributed multiple access management system, because it
is not stiff and it is ajustable depend on the need of bandwidth of each group.
Key words : centralized, distributed, multiple access management
PENDAHULUAN
Dalam membangun jaringan komputer
di perusahaan/ organisasi, ada beberapa
keuntungan yang dapat diperoleh dalam
hal-hal resource sharing, reliabilitas
tinggi, lebih ekonomis, skalabilitas, dan
media komunikasi. Resource sharing
bertujuan agar seluruh program, peralatan,
khususnya data dapat digunakan oleh
setiap orang yang ada pada jaringan tanpa
terpengaruh oleh lokasi resource dan
pemakai. Jadi source sharing adalah suatu
usaha untuk menghilangkan kendala jarak.
Dengan
menggunakan
jaringan
komputer akan memberikan reliabilitas
tinggi yaitu adanya sumber-sumber
NW - 92
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
alternatif pengganti jika terjadi masalah
pada salah satu perangkat dalam jaringan,
artinya karena perangkat yang digunakan
lebih dari satu jika salah satu perangkat
mengalami masalah, maka perangkat yang
lain dapat menggantikannya.
Yang dimaksud dengan skalabilitas
yaitu kemampuan untuk meningkatkan
kinerja sistem secara berangsur-angsur
sesuai dengan beban pekerjaan dengan
hanya menambahkan sejumlah prosesor.
Sebuah jaringan komputer mampu
bertindak sebagai media komunikasi yang
baik bagi para pegawai yang terpisah jauh.
Dengan menggunakan jaringan, dua orang
atau lebih yang tinggal berjauhan akan
lebih mudah bekerja sama dalam
menyusun laporan. [5]
Universitas Trunojoyo Madura sebagai
pengguna sistem jaringan komputer,
seharusnya melakukan kajian tentang
sejauh mana kinerja jaringan komputer
yang telah diterapkan tersebut sehingga
dapat melakukan perencanaan instalasi
jaringan komputer dengan baik untuk
menjaga kualitas jaringan komputer
tersebut. Karena, tanpa kajian dan
perencanaan jaringan yang jelas, akan
berakibat pada menurunnya kualitas
layanan (misalnya koneksi sering putus,
lambat dsb.), dan ujung-ujungnya pasti
dapat
menurunkan
kinerja
sivitas
akademika di lingkungan Universitas
Trunojoyo Madura sendiri, apalagi
semakin lama jumlah pengguna jaringan
komputer .di lingkungan Universitas
Trunjoyo Madura semakin banyak
berhubung jumlah program studi dan
jumlah pengadaan komputer juga semakin
banyak, belum lagi pengguna fasilitas
WLAN dengan media laptop. [7]
Salah satu evaluasi performansi yang
dapat dilakukan pada jaringan komputer
Universitas Trunojoyo Madura adalah
kajian performansi penerapan sistem
manajemen akses jamak terpusat dan
terdistribusi. Pada sistem jaringan
komputer Universitas Trunojoyo Madura,
pernah diterapkan manajemen akses jamak
terdistribusi terutama sampai tahun 2010.
Pada akhirnya, sistem tersebut diubah
menjadi manajemen akses jamak terpusat.
Akan tetapi perubahan tersebut tidak
didasari pada kajian ilmiah. Pada
penelitian ini akan dtinikaji bagaimana
ISSN : 2302-7088
performansi jaringan
komputer
di
lingkungan
Universitas Trunojoyo
Madura dengan sistem manajemen akses
jamak
terpusat
dan
terdistribusi.
Tujuannya
adalah
untuk
merekomendasikan sistem yang lebih baik
kinerjanya untuk diaplikasikan pada
jaringan komputer Universitas Trunojoyo
Madura.
TINJAUAN PUSTAKA
Pada [2] dituliskan definisi tentang
kinerja, yaitu :
1. Standar industri Jerman DIN55350:
Kinerja terdiri dari semua karakteristik
dan aktivitas penting yang dibutuhkan
dalam suatu produksi, yang meliputi
perbedaan kuantitatif dan kualitatif
produksi atau aktivitas keseluruhan.
2. Standar ANSI (ANSI/ASQC A3/1978)
: Kinerja adalah gambaran dan
karakteristik produksi keseluruhan atau
pelayanan yang berhubungan dengan
pemenuhan kebutuhan.
3. Standar IEEE untuk kinerja perangkat
lunak (IEEE Std 729 - 1983) : Kinerja
adalah tingkatan untuk memenuhi
kombinasi perangkat lunak yang
diinginkan.
Menurut [2], indeks eksternal yang
dapat dijadikan tolok ukur kinerja suatu
sistem jaringan antara lain turn around
time, response time, throughput, kapasitas,
availability, dan realibility. Sedangkan
menurut [3], metrik ukuran kinerja
jaringan yang biasa digunakan oleh para
peneliti antara lain delay, jitter,
throughput, goodput, utilisasi, dan
probabilitas
blocking.
Salah
satu
contohnya adalah [1], yang menganalisa
kinerja
jaringan
LAN
dengan
mengimplementasikan
adaptive
transcoder dengan cara mengukur besar
kecilnya throughput dan kapasitas
penggunaan bandwidth sebagai tolok ukur
kinerja. Throughput merupakan rate
informasi yang diterima secara sukses oleh
user/client/terminal
dengan
satuan
bit/sekon
atau
paket/sekon
atau
frame/sekon. Pada [7] dilakukan studi
pengukuran kinerja jaringan komputer di
Universitas Trunojoyo Madura dengan
pendekatan bit rate
dan utilisasi
bandwidth dalam setiap harinya sebagai
NW - 93
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
tolok ukur kinerjanya. Pada penelititan ini
akan
dibandingkan
kinerja
antara
manajemen akses jamak yang terpusat dan
terdistribusi pada jaringan komputer
Universitas Trunojoyo Madura, yang
untuk kemudian akan menghasilkan
rekomendasi tentang metode yang mana di
antara kedua metode tersebut yang lebih
baik.
MANAJEMEN AKSES
TERPUSAT
TERDISTRIBUSI
JAMAK
DAN
Model referensi OSI (Open System
Interconection) yang dikembangkan oleh
ISO (International Standards Organization) pada tahun 1974, memberikan
gambaran tentang terjadinya proses
komunikasi antara dua terminal, yaitu
dengan cara membagi proses tersebut ke
dalam 7 layer yang memiliki tujuan dan
tanggung jawab yang berbeda serta saling
tidak tergantung satu dengan lainnya.
Masing-masing layer tersebut memiliki
tugas dan fungsi yang berbeda-beda
namun juga menyediakan layanan kepada
layer di atasya dan layer di bawahnya.
Layer-layer tersebut adalah :
1. Layer Physical, yaitu layer yang
bertugas untuk menyatakan informasi
yang akan dikirimkan agar dapat
dilewatkan pada medium komunikasi,
baik
melalui
kabel
tembaga,
gelombang radio maupun melalui
serat optik.
2. Layer Data Link, yaitu layer yang
bertugas untuk menyediakan protokol
deteksi dan koreksi sinyal error, dan
protokol Medium Access Control
(MAC).
3. Layer Network, yaitu layer yang
memiliki
fungsi
utama
untuk
merutekan paket-paket informasi dari
sumber ke tujuan
4. Layer Transport, yaitu layer yang
memiliki
fungsi
utama
untuk
menyediakan protokol dalam hal flow
control terhadap trafik jaringan
5. Layer Session, yaitu layer yang
bertugas untuk manajemen koneksi
end to end yang handal, termasuk juga
mengatur kapan koneksi dibangun,
dan kapan koneksi diputus.
ISSN : 2302-7088
6. Layer Presentation, yaitu layer yang
memiliki
fungsi
utama
untuk
menyediakan aplikasi filter data yang
handal, terutama dalam fungsi
kompresi dan enkripsi data untuk
melayani layer di atasnya.
7. Layer Application, yaitu layer yang
merupakan interface terhadap program
aplikasi pengguna. [6]
Dari 7 layer standar OSI di atas, layer
yang berhubungan dengan masalah
multiple acces adalah data link layer, yaitu
dengan protokol MAC (Medium Access
Control). Beberapa metode multiple
access adalah sebagai berikut:
1. Frequency Division Multiple Access
(FDMA), adalah metode akses jamak
yang didasarkan pada pembagian
frekuensi. Satu kanal pada FDMA
adalah satu sub bandwidth.
2. Time Division Multiple Access
(TDMA), adalah metode akses jamak
yang didasarkan pada pembagian
waktu antrian pengiriman. Satu kanal
pada TDMA adalah satu time slot.
3. Code Division Multiple Access
(CDMA), adalah metode akses jamak
yang didasarkan pada pembagian
kode. Satu kanal pada CDMA adalah
satu kode yang bersifat orthogonal
Satu dengan lainnya.
4. Orthogonal
Frequency
Multiple
Access (OFDMA), adalah metode
akses jamak yang didasarkan pada
pembagian frekuensi dan waktu secara
sekaligus sehingga menjadi carrier
kecil yang bersifat orthogonal. Satu
kanal pada OFDMA adalah satu sub
carrier kecil yang bersifat orthogonal
satu dengan lainnya. [8]
5. Carrier Sensing Multiple Access
(CSMA), adalah metode akses jamak
yang didasarkan pada pembagian pita
frekuensi menjadi carrier yang
berukuran kecil. Setiap terminal yang
berkepentingan untuk mengirimkan
informasi harus mendengar dan
mendeteksi adanya carrier terlebih
dahulu. Jika ada carrier yang idle,
maka
terminal
tersebut
dapat
mengirimkan informasinya melalui
carrier tersebut.
Pada jaringan komputer, protokol
MAC yang terkenal dan paling banyak
NW - 94
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
diterapkan
adalah
CSMA.
Dalam
penerapannya, manajemen akses jamak
pada jaringan komputer, ada yang bersifat
terpusat dan ada juga yang terdistribusi.
Yang dimaksud dengan manajemen akses
jamak terpusat pada jaringan komputer
adalah cara pembagian bandwidth yang
dalam hal ini adalah penggunaan carrier,
yang diatur secara terpusat. Semua carrier
atau total bandwidth dikelola secara
terpusat dan terpadu oleh satu pengatur
trafik, tanpa membeda-bedakan pengguna.
Sedangkan manajemen akses jamak
terdistribusi pada jaringan komputer
adalah cara pembagian bandwidth kepada
pengguna secara tidak terpusat oleh satu
pengatur trafik, melainkan melalui sub-sub
pengatur trafik pada masing-masing grup
atau kelompok. bandwidth total atau
semua carrier dibagi dan didistribusikan
terlebih dahulu kepada sub pengatur yang
menjadi
induk
di
masing-masing
kelompok. Kemudian sub pengatur itulah
yang membagi-bagikan carrier kepada
pengguna yang berada di dalam
kelompoknya. Besar kecilnya bandwidth
pada masing-masing kelompok ditentukan
terlebih dahulu oleh pengatur pusat dan
tergantung pada kebutuhan masing-masing
kelompok tersebut.
METODE PENGUKURAN
Mengevaluasi kinerja jaringan adalah
elemen kunci dalam desain, operasi dan
manajemen jaringan. Seperti misalnya
menentukan berapa banyak terminal yang
dapat dihubungkan ke suatu mainframe
computer system, menentukan kebutuhan
buffer dalam suatu switch, mengetahui
bagaimana adaptive windowing bekerja,
mengukur delay backbone dan lain
sebagainya.
Metriks adalah kriteria yang digunakan
untuk evaluasi performansi suatu sistem.
Metriks pada umumnya berupa kuantitas
statistik. Beberapa metriks yang biasa
digunakan untuk mengevaluasi kinerja
suatu sistem jaringan komunikasi adalah :
1. Delay
2. Jitter (variasi delay)
3. Throughput (jumlah request/paket
yang melalui jaringan per unit waktu
4. Goodput (sama dengan throughput,
akan tetapi tanpa overhead)
ISSN : 2302-7088
5. Utilisasi (fraksi dari waktu link
komunikasi)
6. Blocking probability (kemungkinan
tidak mendapatkan layanan jaringan)
7. Dan lain-lain
Pada dasarnya ada tiga metode untuk
melakukan kajian performansi suatu
jaringan komunikasi, yaitu :
1. Pengukuran langsung, mengumpulkan
data eksperimental dari suatu
prototype atau sistem existing
2. Simulasi, eksperimen dengan model
komputer dari sistem
3. Analisa murni, penggambaran model
secara analitis dari sistem.
Metode pengukuran langsung memiliki
kelebihan dan kekurangan. Adapun
beberapa kelebihan metode pengukuran
langsung antara lain adalah akurasi yang
tinggi serta dapat mencakup permasalahan
secara detail. Sedangkan beberapa
kekurangannya antara lain adalah harus
memiliki peralatan untuk pengukuran,
kesulitan
dalam
mempertimbangkan
semua parameter yang memungkinkan,
sulit dalam melakukan reproduksi,
menghabiskan banyak waktu dan lain
sebagainya.
Metode simulasi juga memiliki
kelebihan serta kekurangan. Adapun
beberapa kelebihan metode simulasi antara
lain
adalah
memungkinkan
dapat
mencakup detail permasalahan, dapat
membandingkan alternatif desain sistem,
dapat mengendalikan skala waktu dan
tidak memerlukan sistem. Sedangkan
beberapa kelemahan dari metode simulasi
antara lain adalah kesulitan mengeneralisir
hasil,
kesulitan
dalam
mengukur
sensitivitas,
memerlukan
banyak waktu untuk mengembangkan dan
mengeksekusi
simulasi,
masih
memerlukan validasi dan analisa data out
put.
Metode analisa murni, sebagaimana
metode pengukuran dan simulasi juga
memiliki kelebihan dan kekurangan.
Beberapa kelebihan metode analisa murni
antara lain adalah cepat, aplikasi untuk
semua
tingkatan
dari
sistem,
memungkinkan mempelajari tradeoff dan
sensitivitas dari sistem. Sedangkan
beberapa kelemahan dari metode analisa
NW - 95
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
murni antara lain adalah kemungkinan
hanya sampai pada tahap aproksimasi,
perlu
waktu
yang
lama
untuk
mengembangkan
model
dan
permasalahan, dan sebagainya. [3]
LANGKAH – LANGKAH
PENELITIAN
Penelitian ini akan mengkaji dan
membandingkan
kinerja
serta
menghasilkan
rekomendasi
tentang
penerapan manajemen akses jamak secara
terpusat dan terdistribusi pada jaringan
komputer khususnya yang diterapkan di
Universitas Trunojoyo Madura. Kajian
kinerja
manajemen
akses
jamak
terdistribusi, akan dijalankan dalam dua
skenario. Skenario pertama diasumsikan
bahwa
pembagian
bandwidth
per
kelompok adalah sama. Skenario kedua
diasumsikan bahwa pembagian bandwidth
per kelompok akan disesuaikan dengan
distribusi usage of bandwidth per hari.
Sedangkan pada kajian kinerja manajemen
akses jamak terpusat, tidak ada distribusi
atau pembagian bandwidth kepada setiap
kelompok.
Metode pengukuran kinerja jaringan
komputer dalam penelitian ini adalah
metode pengukuran langsung, yaitu
mengukur beberapa parameter yang dapat
menunjukkan quality of service (QoS)
seperti bit rate dan rata-rata usage of
bandwidth total per hari yang dipakai
dalam satu universitas maupun setiap
fakultas. Semakin tingginya bit rate
menunjukkan semakin baiknya kualitas
layanan jaringan. Sedangkan semakin
besarnya rata-rata usage of bandwidth
total per hari, menunjukkan semakin
banyaknya penggunaan/akses jaringan.
Semakin banyaknya penggunaan/akses
jaringan akan berakibat pada menurunnya
kualitas jaringan itu sendiri. Data-data
pengukuran dapat diperoleh dari rekaman
aktivitas penggunaan jaringan yang
diperlukan di PTIK (Pusat Teknologi
Informasi dan Komunikasi) baik pada
level fakultas maupun level universitas.
ANALISA HASIL PENELITIAN
ISSN : 2302-7088
Seperti dijelaskan pada langkahlangkah penelitian bahwa pada pokoknya
penelitian ini akan mengkaji kinerja
jaringan komputer Universitas Trunojoyo
Madura dalam 3 kondisi :
1. Manajemen
multiple
access
terdistribusi dengan asumsi bandwidth
total dibagi secara sama rata untuk
setiap grup
2. Manajemen
multiple
access
terdistribusi dengan asumsi bandwidth
total dibagi kepada setiap grup
berdasarkan kebutuhan masing-masing
grup, yaitu dengan mengukur rata-rata
kebutuhan sebelumnya
3. Manajemen multiple access terpusat,
yaitu tidak ada batasan bagi setiap grup
maupun setiap user, dengan kata lain
semua berebut carrier ke scheduler
pusat.
Pada
skenario
pertama,
yaitu
pengukuran kinerja jaringan dengan
kondisi
manajemen
akses
jamak
terdistribusi dan dengan asumsi bandwidth
total dibagi secara sama rata untuk setiap
grup, diperoleh data-data seperti pada
tabel 1. Data mentah hasil pengukuran
hanya berupa data transaksi Byte pada
masing-masing grup per hari. Langkah
pertama dalam proses pengolahan data
adalah dengan mencari “Rt_TB” dalam
Byte (Rata-rata Transaksi Byte masingmasing grup per hari), yaitu dengan:
T7_Ξ
=
3!7! − 3!7! 73! =! =& û†75 =57&!2 83/2 253 1!3&
)/'0! 1!3&
Ternyata jumlah total dari “Rt_TB”
atau jumlah total dari rata-rata transaksi
Byte seluruh jaringan komputer di
Universitas Trunojoyo Madura adalah
2.24E+11 Byte atau ± 224 GByte.
Kemudian dicari nilai Rt_TB’ (rata-rata
transaksi Byte per grup yang baru yaitu
dengan membagi sama rata Rt_TB kepada
semua grup) dengan cara:
T7′Œû =
=
T7Ξ
)/'0! 83/2
. üû†75
-G
= ‰, .Š üû†75
Permasalahannya
adalah rata-rata
kebutuhan transaksi Byte per grup tidak
sama satu dengan yang lainnya dan sangat
bervariasi dari yang terendah (grup FP,
NW - 96
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
3.30E+02) sampai yang tertinggi (grup
LABSHARE, 7.00E+10). Jelas sekali
terjadi ketimpangan dalam masalah akses
dari kedua grup tersebut. Sehingga apabila
dipukul rata secara kaku bahwa setiap
grup akan mendapatkan jatah transaksi
Byte ± 7,48 GByte, maka akan terjadi
kekacauan jaringan yaitu sebagian akan
sangat kekurangan dan sebagian besar
yang lain akan sangat kelebihan, seperti
tampak pada Tabel 1.
50&=&
û†75 = T7_Œû′ − T7_Œû
Dan dapat dikonversi ke dalam besaran
bit rate menggunakan rumus :
ö¸ýî§îℎ þî- ¹¸ §¸Û ›
ö¸ýî§îℎ ù -¸ × 8 þî=
24 ò • × 60 •¸›î- × 60 o¸-îÛ
Dari Tabel 1, tampak bahwa sebagian
grup akan kekurangan dalam hal
kecepatan bit dan otomatis juga
kekurangan bandwidth (bahkan grup
LABSHARE kekurangan sampai 7.23E+05 bit/sekon atau ± 723 Kbps),
sedangkan sebagian besar grup yang lain
akan kelebihan bandwidth (bahkan grup
FP kelebihan sampai 8.65E+04 bit/sekon
atau ± 86,5 Kbps). Bagi grup-grup yang
mengalami kekurangan bandwidth akan
mengalami akses jaringan yang sangat
lambat, karena jumlah informasi dalam
bentuk bit-bit yang akan ditransaksikan
sangat besar padahal bandwidth-nya kecil,
yang dalam hal ini adalah jumlah carrier
yang akan membawa informasi besar
tersebut sangat kecil dan sedikit.
Sebaliknya,
bagi
grup-grup
yang
mengalami surplus bandwidth akan
mengalami proses akses jaringan yang
sangat cepat, yang dikarenakan jumlah
informasi dalam bentuk bit-bit yang akan
dikirimkan atau ditransaksikan sangat
sedikit, padahal bandwidth-nya besar,
yang dalam hal ini adalah jumlah carrier
yang akan membawa bit-bit informasi
kecil tersebut sangat besar dan banyak.
Pada evaluasi kinerja skenario kedua,
yaitu dengan kondisi Manajemen multiple
access terdistribusi dengan asumsi
bandwidth total dibagi kepada setiap grup
berdasarkan kebutuhan masing-masing
grup, yaitu dengan mengukur rata-rata
kebutuhan sebelumnya, diperoleh datadata seperti pada tabel 2. Tidak seperti
ISSN : 2302-7088
analisa tabel 1, analisa kinerja pada
skenario 2 seperti tampak pada tabel 2
jauh lebih baik dan lebih adil
dibandingkan dengan skenario 1. Grupgrup yang terbiasa melakukan transaksi
Byte sangat besar diberikan hak
bandwidth yang besar juga, sebaliknya
grup-grup yang terbiasa melakukan
transaksi Byte kecil diberikan bandwidth
yang lebih kecil, dengan kata lain
disesuaikan dengan kebutuhan masingmaing.
Yang menjadi permasalahan adalah,
pembagian bandwidth pada setiap grup
tersebut bersifat kaku dan tidak bisa
berubah secara otomatis sesuai dengan
jumlah user dan jumlah transaksi. Untuk
merubah jatah bandwidth per grup harus
dilakukan secara pengaturan manual.
Padahal pembagian jatah bandwidth pada
skenario ini hanya didasarkan pada ratarata transaksi Byte per grup. Artinya
ukuran jatah tersebut bisa kurang dan bisa
lebih seperti tampak pada tabel 2. Ketika
jumlah transaksi pada grup sedang kecil,
akan terjadi surplus dan akses bisa sangat
cepat. Sebaliknya ketika jumlah transaksi
pada grup sedang besar, akan terjadi
kekurangan carrier dan proses akses akan
sangat lambat.
Tidak seperti pada skenario 1 dan 2,
yaitu manajemen akses jamak terdistribusi
yang kedua-duanya bersifat kaku, sistem
manajemen akses jamak terpusat jauh
lebih baik karena jatah bandwidth tidak
dibagi-bagikan secara kaku pada masingmasing grup, melainkan diatur secara
terpusat oleh scheduler pusat. User pada
level grup tidak akan pernah mengalami
kekurangan atau kelebihan secara pribadi.
Dengan sistem manajemen akses jamak
terpusat ini, kekurangan resource jaringan
akan ditanggung bersama oleh semua user,
demikian juga kelebihan resource jaringan
juga akan dinikmati secara bersama-sama
oleh semua user dari grup manapun.
Ukuran-ukuran kecepatan bit (bit rate)
seperti tampak pada tabel 3 akan selalu
berubah-ubah secara dinamis tergantung
pada jumlah user dan aktivitas masingmasing user pada setiap grup.
NW - 97
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
Tabel 1. Kinerja jaringan komputer Universitas Trunojoyo Madura dengan sistem manajemen akses
jamak terdistribusi dengan asumsi bandwidth total dibagi sama rata pada setiap grup
No
GROUP
LABSHARE
Rt_TB
(Byte)
7.00E+10
Rt_TB’
(Byte)
7.48E+09
Keterangan
7.48E+09
Selisih
(Byte)
6.25E+10
1.89E+10
1.20E+10
8.91E+09
6.25E+09
5.76E+09
2.09E+09
Kekurangan
Selisih
Bit rate
-7.23E+05
1
2
FT-1
2.64E+10
7.48E+09
Kekurangan
-2.19E+05
3
WIFI
1.95E+10
7.48E+09
Kekurangan
-1.39E+05
4
UKM
1.64E+10
7.48E+09
Kekurangan
-1.03E+05
5
Lab-FE
1.37E+10
7.48E+09
Kekurangan
-7.23E+04
6
FP-Labkom
1.32E+10
7.48E+09
Kekurangan
-6.67E+04
7
FT-2
9.57E+09
Kekurangan
-2.42E+04
8
REktorat
6.93E+09
7.48E+09
5.53E+08
Kelebihan
6.40E+03
9
RE-Wifi
6.45E+09
7.48E+09
1.03E+09
Kelebihan
1.19E+04
10
Lab-Dasar
6.31E+09
7.48E+09
1.16E+09
Kelebihan
1.35E+04
11
SS-Wifi
6.11E+09
7.48E+09
1.37E+09
Kelebihan
1.58E+04
12
FP-iKL
5.04E+09
7.48E+09
2.44E+09
Kelebihan
2.82E+04
13
Lab-FH
4.96E+09
7.48E+09
2.52E+09
Kelebihan
2.91E+04
14
FISIB
4.44E+09
7.48E+09
3.04E+09
Kelebihan
3.52E+04
15
PUSKOM
3.74E+09
7.48E+09
3.74E+09
Kelebihan
4.33E+04
16
FP-Agri
2.33E+09
7.48E+09
5.15E+09
Kelebihan
5.96E+04
17
FE
1.86E+09
7.48E+09
5.62E+09
Kelebihan
6.50E+04
18
PERPUS
1.70E+09
7.48E+09
5.78E+09
Kelebihan
6.69E+04
19
FP-AgroTiP
1.41E+09
7.48E+09
6.07E+09
Kelebihan
7.02E+04
20
LPPM
1.34E+09
7.48E+09
6.13E+09
Kelebihan
7.10E+04
21
FH
6.18E+08
7.48E+09
6.86E+09
Kelebihan
7.94E+04
22
FP-Admin
5.70E+08
7.48E+09
6.91E+09
Kelebihan
8.00E+04
23
FP-R.Dosen
5.44E+08
7.48E+09
6.93E+09
Kelebihan
8.03E+04
24
UPT-Bahasa
4.21E+08
7.48E+09
7.06E+09
Kelebihan
8.17E+04
25
SS
3.08E+08
7.48E+09
7.17E+09
Kelebihan
8.30E+04
26
HUMAS
2.98E+08
7.48E+09
7.18E+09
Kelebihan
8.31E+04
27
RE.Lt2-wifi
2.19E+08
7.48E+09
7.26E+09
Kelebihan
8.40E+04
28
Dmz
6.32E+05
7.48E+09
7.48E+09
Kelebihan
8.65E+04
29
Localhost
7.01E+03
7.48E+09
7.48E+09
Kelebihan
8.65E+04
30
FP
3.30E+02
7.48E+09
7.48E+09
Kelebihan
8.65E+04
Total
2.24E+11
Tabel 2. Kinerja jaringan komputer Universitas Trunojoyo Madura dengan sistem manajemen akses
jamak terdistribusi dengan asumsi bandwidth total dibagi berdasarkan pada prosentase kebutuhan
masing-masing grup
No
1
GROUP
LABSHARE
Rt_TB
(Byte)
7.00E+10
Min TB (Byte)
NW - 98
2.44E+10
Max TB
(Byte)
1.48E+11
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
2.64E+10
9.40E+09
ISSN : 2302-7088
2
FT-1
4.54E+10
3
WIFI
1.95E+10
1.07E+10
2.50E+10
4
UKM
1.64E+10
8.10E+09
2.54E+10
5
Lab-FE
1.37E+10
4.20E+09
2.43E+10
6
FP-Labkom
1.32E+10
2.50E+09
3.04E+10
7
FT-2
9.57E+09
8.53E+08
2.06E+10
8
REktorat
6.93E+09
2.40E+09
1.28E+10
9
RE-Wifi
6.45E+09
2.80E+09
1.10E+10
10
Lab-Dasar
6.31E+09
3.73E+08
2.01E+10
11
SS-Wifi
6.11E+09
2.20E+09
1.37E+10
12
FP-iKL
5.04E+09
1.50E+09
1.25E+10
13
Lab-FH
4.96E+09
1.40E+09
1.14E+10
14
FISIB
4.44E+09
2.70E+09
6.90E+09
15
PUSKOM
3.74E+09
1.20E+09
7.70E+09
16
FP-Agri
2.33E+09
1.29E+08
6.80E+09
17
FE
1.86E+09
1.20E+09
2.80E+09
18
PERPUS
1.70E+09
5.99E+08
3.50E+09
19
FP-AgroTiP
1.41E+09
8.41E+08
2.90E+09
20
LPPM
1.34E+09
2.19E+08
6.10E+09
21
FH
6.18E+08
1.85E+08
1.40E+09
22
FP-Admin
5.70E+08
4.07E+08
8.47E+08
23
FP-R.Dosen
5.44E+08
1.06E+08
1.60E+09
24
UPT-Bahasa
4.21E+08
4.34E+07
1.10E+09
25
SS
3.08E+08
6.81E+07
5.96E+08
26
HUMAS
2.98E+08
6.70E+07
6.29E+08
27
RE.Lt2-wifi
2.19E+08
1.50E+07
1.10E+09
28
Dmz
6.32E+05
0.00E+00
2.20E+06
29
Localhost
7.01E+03
0.00E+00
3.16E+04
30
FP
3.30E+02
0.00E+00
1.32E+03
Total
2.24E+11
Tabel 3. Kinerja jaringan komputer Universitas Trunojoyo Madura dengan sistem manajemen akses
jamak terpusat
No
GROUP
Rt UoB (Byte)
Rt bit rate (bit/s)
%
1
LABSHARE
7.00E+10
6.48E+06
31.19
2
FT-1
2.64E+10
2.44E+06
11.77
3
WIFI
1.95E+10
1.80E+06
8.67
4
UKM
1.64E+10
1.52E+06
7.31
5
Lab-FE
1.37E+10
1.27E+06
6.12
6
FP-Labkom
1.32E+10
1.23E+06
5.90
7
FT-2
9.57E+09
8.86E+05
4.27
8
REktorat
6.93E+09
6.41E+05
3.09
9
RE-Wifi
6.45E+09
5.97E+05
2.88
10
Lab-Dasar
6.31E+09
5.85E+05
2.81
11
SS-Wifi
6.11E+09
5.66E+05
2.72
NW - 99
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
5.04E+09
12
FP-iKL
13
Lab-FH
4.96E+09
4.59E+05
2.21
14
FISIB
4.44E+09
4.11E+05
1.98
15
PUSKOM
3.74E+09
3.46E+05
1.67
16
FP-Agri
2.33E+09
2.16E+05
1.04
17
FE
1.86E+09
1.72E+05
0.83
18
PERPUS
1.70E+09
1.57E+05
0.76
19
FP-AgroTiP
1.41E+09
1.31E+05
0.63
20
LPPM
1.34E+09
1.24E+05
0.60
21
FH
6.18E+08
5.72E+04
0.28
22
FP-Admin
5.70E+08
5.27E+04
0.25
23
FP-R.Dosen
5.44E+08
5.04E+04
0.24
24
UPT-Bahasa
4.21E+08
3.90E+04
0.19
25
SS
3.08E+08
2.85E+04
0.14
26
HUMAS
2.98E+08
2.76E+04
0.13
27
RE.Lt2-wifi
2.19E+08
2.03E+04
0.10
28
Dmz
6.32E+05
5.85E+01
0.00
29
Localhost
7.01E+03
6.49E-01
0.00
30
FP
3.30E+02
3.06E-02
0.00
Total
2.24E+11
2.08E+07
100.00
KESIMPULAN DAN SARAN
Beberapa kesimpulan yang dapat diambil dari
penelitian ini adalah :
1. Performansi penerapan sistem manajemen
multiple access terdistribusi dengan
asumsi bandwidth total dibagi sama rata
pada setiap grup, sama sekali tidak baik
dilakukan,
karena
selain
sifat
pembagiannya bersifat kaku, juga akan
menimbulkan ketimpangan jaringan, yaitu
sebagian grup yang kebutuhannya sedikit
akan mengalami surplus bandwidth
sedangkan sebagian grup yang lain yang
kebutuhan bandwidth-nya tinggi akan
mengalami kekurangan dan proses akses
jaringannya
akan
sangat
lambat.
terdistribusi dengan asumsi bandwidth
total
2. Performansi penerapan sistem manajemen
multiple access terdistribusi dengan
asumsi
bandwidth
total
dibagi
berdasarkan pada prosentase kebutuhan
masing-masing grup, menunjukan lebih
baik dari pada pembagian bandwidth
secara sama rata. Hal ini dikarenakan
pembagian bandwidth didasarkan pada
kebiasan kebutuhan bandwidth masa lalu
dari masing-masing grup. Akan tetapi
sistem ini tidak dapat mengatasi
4.66E+05
ISSN : 2302-7088
2.25
permasalahan secara otomatis jika suatu
waktu tingkat kebutuhan bandwidth di
masing-masing
grup
mengalami
perubahan drastis.
3. Performansi penerapan sistem manajemen
multiple access terpusat lebih baik dari
pada
manajemen
akses
jamak
terdistribusi, karena jatah bandwidth tidak
dibagi-bagikan secara kaku pada masingmasing grup, melainkan diatur secara
terpusat oleh scheduler pusat. Segala
kekurangan resource jaringan akan
ditanggung bersama oleh semua user,
demikian juga kelebihan resource
jaringan juga akan dinikmati secara
bersama-sama oleh semua user dari grup
manapun.
Sebagai saran untuk penelitian selanjutnya,
hendaknya diusulkan penerapan peramalan
yang dinamis terhadap berbagai macam
parameter dan berbagai macam variabel
terutama yang terkait dengan pengukuran
kinerja jaringan komputer itu sendiri.
DAFTAR PUSTAKA
[1] Daryanto T., Ramli K., Budihardjo B.,
“Analisa Kinerja dan Implementasi
Adaptive Transcoder Pada Jaringan Local
Area Network”, Seminar Nasional
NW - 100
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
[2]
[3]
[4]
[5]
Aplikasi Teknologi Informasi (SNATI),
ISSN : 1907-5022, 2006
Iqbal M. Dr., “Handout : Analisis Kinerja
Sistem”, Universitas Gunadarma, 2012
Hendrawan, Dr., “Handout : Kinerja
Jaringan Telekmunikasi dan Komputer”,
Teknik Elektro - Telekomunikasi Institut Teknologi Bandung, 2012
Peterson LL., Davie BS., “Computer
Networks A Systems Approach, 3rd
Edition”, Morgan Kaufmann Publisher,
2003
Erdiansyah, “Jaringan Komputer”, Teknik
Elektro, Universitas Hasanuddin, 2007
ISSN : 2302-7088
[6] Hendrawan, Dr., “Handout : Jaringan
Komputer”,
Teknik
Elektro
Telekomunikasi - Institut Teknologi
Bandung, 2012
[7] Ubaidillah A., “Studi Kinerja Sistem
Jaringan
Komputer
Universitas
Trunojoyo Madura (Sampai Februari
2012)”, SIMANTEC, Juni 2012
[8] Ubaidillah A., “Perbaikan Kapasitas
Kanal Jaringan Komunikasi Seluler
dengan
Metode
Pemecahan
Sel,
SIMANTEC, Juni 2011
NW - 101
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
REVIEW: KEAMANAN KATA SANDI
Tohari Ahmad
Teknik Informatika – ITS
Kampus ITS, Sukolilo Surabaya
E-Mail: [email protected]
Abstrak
Penggunaan kata sandi (password) sebagai alat untuk melakukan otentikasi telah banyak
digunakan dalam berbagai macam aplikasi, mulai dari yang sederhana sampai dengan
yang kompleks. Dalam single modal authentication, keamanan suatu aplikasi sangat
tergantung pada keamanan kata sandi itu sendiri. Akan tetapi, kata sandi ini sering
menjadi titik terlemah dari suatu aplikasi dikarenakan penerapan kata sandi yang tidak
tepat. Pada makalah ini, kami akan mendeskripsikan permasalahan-permasalahan
otentikasi, kelemahan dan ancaman terhadap kata sandi dan kemungkinan solusi yang
bisa digunakan untuk mengatasi kelemahan dan ancaman tersebut. Dalam hal ini,
permasalahan-permasalahan yang dihadapi adalah berhubungan dengan tingkat
ketidakpastian (entropy) dan seberapa sering kata sandi tersebut digunakan (frequency of
uses). Serangan terhadap kerahasiaan kata sandi bisa berupa cracking (memecahkan kata
sandi dengan menggunakan tools yang ada), atau pun stealing (mengambil kata sandi
yang tersimpan dalam storage atau transmission channel). Makalah ini juga
menambahkan satu faktor penting dalam manajemen kata sandi yang bisa digunakan
untuk mengatasi permasalahan-permasalahan tersebut, yaitu faktor lingkungan. Ini
adalah sebagai pelengkap dari beberapa faktor yang telah dikenal sebelumnya, yaitu:
pengguna (manusia), proses dan teknologi.
Kata kunci: kata sandi, keamanan, otentikasi
Abstract
The use of passwords in an authentication process has been applied in various
applications, from a simple to complex one. In a single modal authentication, security of
applications much relies on the security of the password itself. However, a password is
often to be the weakest point in the systems because of its inappropriate use. In this
paper, we will describe the authentication problems, vulnerabilities and threats against
passwords along with their possible solutions .In this case, the authentication problems
relate to the password’s entropy level and its frequency of uses. Threats to the security of
passwords can be cracking and stealing The former is about guessing the password by
using any means while the later is obtaining the password from the storage or
transmission channel. This paper also introduces an important factor in managing
passwords,which can be used to solve those problems, namely: the environmental factor.
This can be viewed as a complement to the existing factors: people (users), process and
technology.
Key words: password, security, authentication
PENDAHULUAN
Survei yang telah dilakukan oleh CSI [1]
menunjukkan bahwa hanya terdapat sekitar
8.7%
responden
yang
mengalami
permasalahan finansial yang diakibatkan oleh
serangan elektronik dalam beberapa tahun
terakhir. Meskipun angka ini menunjukkan
penurunan dari periode sebelumnya, kerugian
secara finansial yang diakibatkan masih cukup
tinggi, yaitu bisa mencapai 25 juta dollar.
Sehingga, perlindungan terhadap komputer
dan informasi yang ada di dalamnya masih
menjadi hal yang penting.
NW - 102
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Sebagai salah satu prinsip penting dalam
keamanan
komputer,
otentikasi
(authentication) dapat menjadi target utama
dari suatu serangan elektronik. Begitu
otentikasi bisa dilemahkan, prinsip-prinsip
keamanan yang lain, misalnya kerahasiaan
(confidentiality), integritas (integrity) data
akan sangat mungkin menjadi target
berikutnya. Dalam hal ini, otentikasi telah
menjadi faktor yang sangat penting dalam
defense in depth approach [2], selain integritas
dan kerahasiaan. Lebih khsus lagi, kata sandi
(password) adalah rawan untuk diserang, baik
karena faktor internal (kelemahan kata sandi
itu sendiri) dan eksternal (serangan yang
dilakukan oleh pihak lain). Sehingga, dari segi
keamanan informasi, proses otentikasi harus
mendapatkan prioritas.
Proses otentikasi di dalam suatu jaringan
komputer adalah lebih rawan diserang
daripada yang ada di komputer yang berdiri
sendiri (stand alone) karena terdapat lebih
banyak titik (mesin/komputer) yang tersedia
untuk melakukan serangan. Terlebih lagi, kata
sandi itu sendiri mungkin dikirimkan dari satu
komputer ke komputer lain, yang bisa
diduplikasi dalam prosesnya.
Beberapa mekanisme telah diperkenalkan
untuk meminimalisir penggunaan kata sandi,
artinya, jumlah titik lemah yang bisa menjadi
target serangan juga berkurang. Misalnya,
federated identity management yang telah
diaplikasikan dalam single sign on (SSO) [3,
4] seperti yang telah dibangun oleh Liberty
Alliance Project [5]. Penggunaan kata sandi
dalam jumlah yang lebih sedikit telah
memudahkan
pengguna
(user)
untuk
mengaturnya. Namun demikian, bagaimana
suatu kata sandi dibuat dan digunakan adalah
tetap menjadi permasalahan yang harus
diselesaikan dengan baik untuk melindungi
keseluruahan proses otentikasi.
Dalam praktiknya, biaya yang diperlukan
untuk membuat proteksi (dalam hal ini adalah
otentikasi) terhadap suatu obyek tidak boleh
melebihi nilai dari obyek yang akan dilindungi
tersebut. Akan sangat tidak efisien untuk
membuat suatu proses otentikasi yang
kompleks untuk memprotek data yang bersifat
umum dan bernilai rendah.
Meskipun kata sandi mempunyai beberapa
permasalahan keamanan, implementasinya
mungkin tidak dapat digantikan dalam jangka
waktu dekat ini. Makalah ini mengidentifikasi
faktor-faktor yang menentukan keamanan kata
ISSN : 2302-7088
sandi dan kemungkinan langkah-langkah yang
dapat dilakukan untuk menjaganya. Alernatif
media otentikasi yang lain (misalnya
biometrik) akan dibahas secara garis besar,
disertai kelebihan dan kurangannya.
PERMASALAHAN OTENTIKASI
Kekuatan kata sandi dapat didefinisikan
sebagai seberapa sulit kata sandi tersebut dapat
dipecahkan, yang bisanya diukur dengan
menggunakan tingkat entropy, meskipun
dalam
praktiknya,
kesulitan
untuk
memecahkan suatu kata sandi juga ditentukan
oleh banyak faktor, seperti seberapa sering
kata sandi tersebut diubah, yang berarti pula
seberapa sering suatu kata sandi digunakan.
Secara umum, faktor yang menentukan
keamanan kata sandi dapat dikelompokkan
menjadi: tingkat entropy (termasuk panjang
kata sandi) dan seberapa sering digunakan
(termasuk seberapa sering diubah). Terlepas
dari kekuatannya, manajemen kata sandi,
terutama dalam menghindari berbagi (sharing)
kata sandi adalah penting dalam keamanan
sistem otentikasi [17].
Ketidakpastian – Tingkat Entropy
Berdasakan teori Shanon [6] (dalam
persamaan 1), semakin tinggi tingkat entropy,
semakin tidak pasti (random) kata sandi
tersebut.
n
H = −∑ p i log( p i )
(1)
i =1
Dimana H, n, dan pi adalah entropy, nilai
dengan probabilitas p1 , p 2 ,..., p n . Ini juga
menunjukkan bahwa semakin tinggi jumlah
kata sandi yang dapat dibentuk bisa
meningkatkan entropy. Hal ini dapat dicapai
dengan:
• Menambah panjang kata sandi. Seperti
yang ditunjukkan dalam [7] bahwa suatu
kata sandi yang dibuat oleh 3, 6, dan 9
karakter dapat dipecahkan dalam waktu
kurang dari 1 detik, 3 jam dan 70 tahun.
• Meningkatkan ukuran domain space.
Suatu kata sandi yang disusun oleh 7 bit
ASCII adalah lebih baik daripada kata
sandi yang disusun oleh huruf dan angka
saja atau huruf besar/kecil saja. Kata
sandi-kata sandi yang tersusun atas kode
NW - 103
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
karakter tersebut dapat dipecahkan dalam
waktu 350 tahun, 1 tahun dan 9 jam [7].
Namun demikian, terdapat suatu timbalbalik dari dua faktor tersebut. Pertama, lebih
panjang kata sandi akan memerlukan tempat
yang lebih banyak untuk menyimpan.
Meskipun memperpanjang kata sandi bisa
mengurangi jumlah kata sandi yang
terpecahkan[7, 8], tetap terdapat pertanyaan
apakah kata sandi yang relatif panjang benarbenar diperlukan jika frekuensi menggunakan
kata sandi yang salah sudah dibatasi [9].
Kedua, menambah ukuran ukuran domain
space, bisa menghasilkan kata sandi yang
lebih random, tetapi sulit diingat oleh
pengguna[10]. Di sisi yang lain, pengguna
lebih suka menggunakan kata sandi yang
mudah diingat, misalnya kata ”password” dan
kata-kata popular yang terdapat dalam kamus
(dictionary) [11, 12].
Frekuensi penggunaan
Berdasarkan frekuensi penggunaannya,
kata sandi dapat dikelompokkan menjadi dua
bagian: one time passwords (OTP) dan
reusable passwords, yang masing-masing bisa
digunakan satu dan beberapa kali. Dalam hal
ini, OTP adalah lebih aman karena informasi
yang diperoleh darinya tidak bisa digunakan
(sangat sulit) untuk memecahkan kata sandi
yang lain.
Berbagi (Shareability)
Permasalahan umum yang dihadapi oleh
otentikasi dengan menggunakan sesuatu yang
kita ketahui (misalnya kata sandi) atau sesuatu
yang kita punyai (misalnya token/kartu
identitas) adalah shareability, yaitu bagaimana
mediumnya bisa digunakan oleh pengguna
lain; sehingga, proses otentikasi mungkin tidak
bisa membedakan mana pengguna yang asli
dan mana yang tidak. Hal ini berarti bahwa
proses yang ada tidak sesuai dengan prinsip
non-repudiation.
Sebuah
survei[13]
membuktikan bahwa sekitar 42% pengguna
adalah tidak keberatan untuk membagi
informasi kata sandinya kepada orang lain
yang dipercaya. Hal ini menunjukkan bahwa
berbagi informasi kata sandi adalah
merupakan hal yang sudah relatif umum
dipraktikkan.
ISSN : 2302-7088
Biometrik (sesuatu yang ada pada diri
manusia) dapat menjadi salah satu solusi untuk
permasalahan ini. Akan tetapi, biometrik juga
menyebabkan permasalahan yang lain,
misalnya, tingkat akurasinya masih dibawah
kata sandi.
KELEMAHAN DAN ANCAMAN
Secara umum, ancaman terhadap kata
sandi dapat dikelompokkan menjadi 2 grup,
yaitu: cracking dan stealing [17]. Yang
pertama adalah berhubungan dengan kualitas
kata sandi (tingkat entropy), sedangkan yang
kedua berhubungan dengan bagaimana
pengguna menjaganya. Hal ini dapat
dideskripsikan dalam gambar 1.
Gambar 1 Permasalahan kata sandi dan
ancamannya
Cracking
Di satu sisi, informasi yang berhubungan
dengan pengguna (misal: alamat, no telepon)
mudah didapatkan. Di sisi yang lain, informasi
ini sering digunakan sebagai kata sandi[14],
yang sesungguhanya tingkat randomnya
adalah sangat rendah. Tanpa menggunakn
tools pun, kata sandi seperti ini mungkin bisa
ditebak dengan mudah. Dengan kata lain,
berdasarkan informasi yang berhubungan
dengan pengguna, kata sandi bisa dengan
mudah ditebak.
Metode yang lebih canggih bisa dilakukan
dengan menggunakan tools baik perangkat
keras maupun perangkat lunak. Hal ini bisa
dilakukan dengan menggunakan dictionary
attack atau brute force attack. Salah satu cara
untuk menghindari serangan ini adalah dengan
meningkatkan entropy dari kata sandi
semaksimal mungkin.
Stealing
NW - 104
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
Terlepas dari kekuatannya, suatu kata
sandi dapat dicuri, baik dilakukan secara
teknis maupun secara non-teknis (misal
dengan social engineering).
yang dipakainya sehingga mudah untuk
dibaca. Hal lain yang mungkin terjadi adalah
dengan melakukan shoulder surfing atau
masquarade attack.
Pendekatan teknis
Shoulder surfing attack bisa dilakukan
dengan memperhatikan apa yang pengguna
tuliskan pada keyboard. Beberapa teknologi
bisa digunakan untuk meminimalisir serangan
ini, misalnya dengan tidak menampilkan sama
sekali karakter kata sandi pada monitor ketika
dituliskan pada keyboard, seperti yang sudah
diterapakan pada UNIX; teknologi eye-gaze
untuk kata sandi berbasis grafis[16] dan
sebagainya.
Beberapa metode telah diperkenalkan
untuk mendapatkan kata sandi, misalnya
password sniffing dan SQL injection. Secara
umum, kata sandi dapat diserang melalui
beberapa titik seperti ditunjukkan dalam
gambar 2: client, sever dan link antara
keduanya.
Kata sandi bisa juga didapatkan dengan
bertindak seolah-olah sebagai pengguna yang
sebenarnya. Hal ini lebih mudah dilakukan
jika informasi tentang pengguna telah
didapatkan.
Gambar 2 Komunikasi pada suatu jaringan
komputer
Pada komputer client, suatu perangkat
keras atau perangkat lunak bisa ditambahkan
oleh penyerang untuk menangkap dan
menganalisis kata sandi yang dituliskan oleh
pengguna. Misalnya, keystroke logger
software yang bisa merekam segala sesuatu
yang pengguna tuliskan melalu keyboard.
Meskipun beberapa metode sudah digunakan
untuk mengantisipasinya (misalnya di [15]),
tidak semuanya bisa benar-benar bisa
melindungi kata sandi secara penuh. Dalam
hal ini, virtual-based password lebih efektif
untuk digunakan.
Dalam hal perlu mengirimkan kata sandi
melalui jaringan, bisa dilakukan perlindungan
dengan menerapkan algoritma enkripsi dan
dekripsi. Namun demikian, penggunaan
enkripsi juga mempunyai permasalahan yang
lain, misalnya ukuran key yang digunakan dan
juga distribusinya.
Pendekatan non-teknis
Seperti yang telah diketahui secara umum,
pengguna bisa menjadi titik lemah dalam
mekanisma keamanan data. Dalam hal ini,
pengguna mungkin memberikan informasi
kata sandinya secara tidak sengaja. Misalnya,
mereka menuliskan kata sandinya pada suatu
kertas dan meletakkannya di dekat komputer
MANAJEMEN KATA SANDI
Dari
pembahasan
sebelumnya,
permasalahan terhadap manajemen kata sandi
dan keamanannya dapat dikelompokkan
menjadi empat kategori, dimana tiga
diantaranya telah didefinisikan di [17]. Empat
kategori tersebut adalah:
• pengguna (people)
• teknologi (technology)
• proses (process)
• lingkungan (environment)
Hal ini bisa dijelaskan sebagai berikut.
Manajemen kata sandi melibatkan pengguna
yang menerapkan teknologi dengan mengikuti
proses yang telah ditetapkan dalam suatu
kebijakan keamanan (security policy);
keseluruhan proses ini dapat berjalan baik jika
semua hal yang terlibat di dalamnya dapat
menyediakan dukungan satu sama lain dalam
lingkungan yang baik. Dalam praktiknya,
“proses” menjadi faktor utama dalam
manejemen kata sandi. Keamanan kata sandi
dapat dijaga selama semua hal yang
berhubungan dengan manajemen kata sandi ini
telah dideskripsikan secara detail dan diikuti
oleh semua pihak dengan konsisten.
Faktor pengguna (people), seperti yang
sudah didiskusikan pada bagian sebelumnya
adalah berhubungan erat dengan faktor
lingkungan dimana pengguna menghabiskan
NW - 105
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
sebagaian besar waktunya. Lingkungan yang
sesuai
sangat
dimungkinkan
untuk
memberikan efek yang positif terhadap
manajemen kata sandi ini. Hal ini karena
sumber daya yang diperlukan untuk
mengimplementasikan security policy telah
tersedia.
Terlebih lagi, pengguna yang telah
mempunyai pengetahuan (knowledge) dan
kesadaran (awareness) terhadap ancaman
keamanan komputer dan pengaruhnya, dapat
membangun lingkungan yang lebih baik.
Mereka bisa mengingatkan satu sama lain jika
terdapat hal-hal yang bisa mengancam
keamanan data.
ISSN : 2302-7088
pengguna untuk melakukan proteksi data dan
melakukan otentikasi. Lebih khusus lagi, ini
dapat digunakan untuk memenuhi prinsip
kerahasiaan (confidentiality), tidak adanya
penyangkalan
(non-repudiation),
dan
kesederhanaan (simplicity). Namun demikian,
tingkat akurasi dari biometrik tidak setinggi
kata sandi, dikarenakan adanya perbedaan data
yang bisa diambil dalam waktu yang berbeda.
DAFTAR PUSTAKA
KESIMPULAN
Dari permasalahan-permasalahan yang
telah dideskripsikan sebelumnya, terdapat
beberapa hal yang perlu diperhatikan untuk
menjaga keamanan kata sandi. Hal-hal tersebut
menjadi topik penelitian selanjutnya, yang
dapat dijelaskan sebagai berikut.
Sesuai dengan karakteristiknya, pengguna
dapat menjadi titik terlemah di dalam proses
otentikasi. Survei telah menunjukkan bahwa
kelemahan ini tidak dikarenakan pengguna
tersebut tidak mengetahui apa dan bagaimana
kata sandi yang baik, akan tetapi dikarenakan
pengguna lebih menyukai kenyamanan
(convenience) daripada kemanan (security) itu
sendiri. Seperti yang telah diketahui, bahwa
convenience berbanding terbalik dengan
security. Satu hal penting yang perlu dilakukan
adalah membuat pengguna mempunyai
kesadaran tentang ancaman keamanan
komputer dan pengaruhnya terhadap mereka,
baik secara langsung atau tidak langsung.
Di antara faktor-faktor yang telah
teridentifikasi, pengguna (people) sebenarnya
hanyalah salah satu di antara empat faktor
yang ada, yaitu: pengguna, proses, teknologi
dan lingkungan. Untuk meminimalisir
kekurangannya, faktor-faktor yang lain,
terutama faktor “proses”, harus dioptimalkan
penerapannya.
Penggunaan biometrik sebagai media
otentikasi diharapkan dapat menyediakan
keamanan dan kenyamanan secara bersamaan
terhadap pengguna. Hal ini dapat memudahkan
NW - 106
[1] Richardson R. 2010 / 2011 CSI
Computer Crime and Security Survey.
CSI Computer Security Institute,
2011.
[2] Talbot D.; Bishop M. Demythifying
Cybersecurity. IEEE Security &
Privacy, 8:56-59. 2010.
[3] Landau S., Gong H. L. V., dan Wilton
R. Achieving Privacy in a Federated
Identity Management System. LNCS,
5628:51-70. 2009.
[4] Alsaleh M. dan Adams C. Enhancing
Consumer Privacy in the Liberty
Alliance Identity Federation and Web
Services
Frameworks.
LNCS.
4258:59-77. 2006.
[5] Liberty Alliance Project. 2012
(URL:http://www.projectliberty.org/).
[6] Verdu S. Fifty Years of Shannon
Theory. IEEE Transactions on
Information Theory. 44: 2057-2078.
1998.
[7] AusCERT.
Choosing
Good
Passwords.
2012:
AusCERT
(Australian Computer Emergency
Response
Team).
http://www.auscert.org.au/render.html
?it=2260. 2009.
[8] Weir M., Aggarwal S., Collins M., dan
Stern H. Testing Metrics for Password
Creation Policies by Attacking Large
Sets of Revealed Passwords. 17th
ACM conference on Computer and
communications security. 2010.
[9] Schaffer
K.
Are
Password
Requirements too Difficult? IEEE
Computer. 44:90-92. 2011.
[10] Vua K.-P. L., Proctorb R. W.,
Bhargav-Spantzelb A., Taib B.-L. B.,
Cookb J., dan Schultzc E. E.
Improving Password Security and
Memorability to Protect Personal and
Organizational
Information.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
[11]
[12]
[13]
[14]
[15]
[16]
[17]
International Journal of HumanComputer Studies. 65: 744–757.
2007.
Prabhakar S., Pankanti S., dan A.
Jain.
Biometric
Recognition:
Security and Privacy Concerns. IEEE
Security & Privacy. 1:33-42. 2003.
Jain A. K., Ross A., dan Pankanti S.
Biometrics: A Tool for Information
Security. IEEE Transactions on
Information Forensics and Security.
:125–143. 2006.
Tam L., Glassman M., dan
Vandenwauver M. The Psychology
of Password Management: A
Tradeoff between Security and
Convenience.
Behaviour
&
Information Technology.29:233-244.
2010.
Bishop M. Introduction to Computer
Security. Boston, MA: Pearson
Education. 2005.
Nasaka K., Takami T., Yamamoto T.
dan Nishigaki M. A Keystroke
Logger Detection Using KeyboardInput-Related API Monitoring. 14th
International
Conference
on
Network-Based
Information
Systems. 2011.
Forget A., Chiasson S., dan Biddle
R. Shoulder-Surfing Resistance with
Eye-Gaze Entry in Cued-Recall
Graphical
Passwords.
28th
International Conference on Human
Factors in Computing Systems.
2010.
Ahmad T. Password Security: An
approach to Mitigate Cyber Crimes.
3rd Information and Communication
Technology Seminar. 2007.
NW - 107
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
IMPLEMENTASI GENERALIZED VECTOR SPACE MODEL
MENGGUNAKAN WORDNET
Adi Wibowo*, Andreas Handojo**, Charistian Widjaja***
Jurusan Teknik Informatika
Fakultas Teknologi Industri, Universitas Kristen Petra
E-Mail: *[email protected], **[email protected], ***[email protected]
Abstrak
Dengan pesatnya perkembangan dalam penggunaan teknologi komputer baik di
perusahaan maupun di bidang pendidikan, maka semakin banyak pula dokumendokumen yang berbentuk digital yang dihasilkan. Metode yang sering dipergunakan
untuk mencari dokumen adalah Vector Space Model (VSM). Kelemahan utama dari
VSM adalah tidak mampu menemukan dokumen yang walaupun relevan dengan kata
kunci tetapi tidak mengandung kata kunci tersebut. Oleh karena itu dibutuhkan sebuah
metode search engine yang dapat memanfaatkan kemiripan makna antar kata untuk
mengatasi masalah diatas.
Salah satu metode yang dipergunakan dalam perancangan search engine adalah
Generalized Vector Space Model (GVSM). George Tsatsaronis dan Vicky
Panagiotopolou mengembangkan metode GVSM dengan melakukan pemberian nilai
kedekatan antar sense didapatkan dengan metode Semantic Relatedness yang
mempergunakan database leksikal “WordNet”.
Dari hasil pengujian yang dilakukan maka GVSM menghasilkan hasil pencarian
dokumen-dokumen yang memiliki nilai recall yang sama atau lebih tinggi yaitu 0,4 ; 1
; 0,7778 jika dibandingkan dengan VSM (0,4 ; 0 ; 0,2222). Sedangkan nilai precision
dari hasil pencarian GVSM memiliki nilai yang lebih rendah yaitu 0,0526 ; 0,0588 ;
0,1707 jika dibandingkan dengan nilai precision dari hasil pencarian VSM yaitu
0,1333 ; 0 ; 0,2857 .
Kata kunci: Vector Space Model, GVSM, WordNet, Relasi Makna.
Abstract
With the rapid growth in the use of computer technology both in companies and in the
field of education, more documents are generated in digital form. The method
frequently used to search for documents is Vector Space Model (VSM). The main
drawback of the VSM is not able to find relevant documents which do not contain the
keyword terms. So we need a search method that can utilize the similarity of meaning
between terms to overcome the above problems.
One of the methods used in the design of search engines is the Generalized Vector
Space Model (GVSMGeorge and Vicky Tsatsaronis Panagiotopolou develop methods
GVSM by scoring sense closeness between Semantic Relatedness obtained with the
method that uses lexical databases "WordNet".
The test results produce that GVSM documents have the same recall value or higher at
0.4; 1; 0.7778 compared with VSM (0.4; 0; 0.2222). While the value of precision of
the search results GVSM have a lower value is 0.0526; 0.0588; 0.1707 when
compared with the value of precision of the search results VSM is 0.1333; 0; 0.2857.
Key words: Vector Space Model, GVSM, WordNet, Semantic Relatedness.
SI- 108
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
PENDAHULUAN
Dengan
pesatnya
perkembangan
penggunaan teknologi komputer baik di
perusahaan maupun di bidang pendidikan,
maka semakin banyak pula dokumen yang
berbentuk digital. Untuk mencari dokumendokumen tersebut dibutuhkan waktu yang
relatif lama apabila pencariannya dilakukan
secara manual. Maka dari itu dibutuhkan
sebuah search engine yang dapat mencari
dokumen-dokumen yang relevan secara lebih
mudah. Salah satu metode yang dipergunakan
dalam perancangan search engine adalah
Vector Space Model.
Vector Space Model (VSM) sebagai metode
yang mengukur kemiripan antara suatu
dokumen dengan suatu query user dengan
menggunakan cosinus dari sudut antar vektor
yang dibentuk oleh dokumen dengan vektor
dari kata kunci yang diinputkan oleh user [4].
Salah satu kelemahan dari VSM adalah
metode ini menganggap bahwa setiap term
pada dokumen bersifat independen, yaitu
metode ini tidak melihat hubungan makna
dengan term lain [2]. Sebagai contoh, apabila
user melakukan pencarian dengan kata kunci
“programming” maka hasil pencariannya
adalah semua dokumen yang hanya memiliki
kata “programming” saja, padahal masih
banyak dokumen-dokumen yang masih
berhubungan
makna
dengan
kata
“programming” seperti “PHP”, “Java” , dan
lain-lain. Dengan adanya kasus ini maka
terjadi penurunan recall dari hasil pencarian.
Karena itu dibutuhkan metode yang dapat
mengembangkan
VSM
ini
dengan
menambahkan fungsi sense pada model ini
yaitu GVSM (Generalized Vector Space
Model).
Generalized Vector Space Model adalah
model pencarian pengembangan dari Vector
Space Model yang menambahkan fungsi sense
dan penilaian terhadap hubungan makna antar
term dalam dokumen [6]. Generalized Vector
Space Model (GVSM) adalah Vector Space
Model yang mempertimbangkan kedekatan
sense antar term dalam merepresentasikan
dokumen. Dalam GVSM ini pemberian nilai
kedekatan antar sense didapatkan dengan
metode Semantic Relatedness. Dimana
metode Semantic Relatedness adalah metode
yang menghitung nilai kedekatan sense dengan
menggunakan kedalaman term
dalam
ISSN : 2302-7088
thesaurus dan banyaknya path yang dilalui
antar dua term yaitu term yang ada di
dokumen dan term pada kata kunci dari user.
Dalam melakukan perhitungan dengan
menggunakan metode Semantic Relatedness
ini dibutuhkan thesaurus kata seperti
“WordNet”. Upaya penggunaan metode
GVSM dan Semantic Relatedness ini
dimaksudkan untuk meningkatkan recall dari
hasil pencarian sehingga hasil pencariannya
mencakup dokumen-dokumen yang relevan
terhadap kata kunci dari user.
VECTOR SPACE MODEL
Vector Space Model adalah suatu model
yang digunakan untuk mengukur kemiripan
antara suatu dokumen dan suatu query dengan
mewakili setiap dokumen dalam sebuah
koleksi sebagai sebuah titik dalam ruang
(vektor dalam ruang vektor) [7]. Poin yang
berdekatan di ruang ini memiliki kesamaan
semantik yang dekat dan titik yang terpisah
jauh memiliki kesamaan semantik yang
semakin jauh. Kesamaan antara vektor
dokumen dengan vektor query tersebut
dinyatakan dengan cosinus dari sudut antar
keduanya [4].
Dalam metode Vector Space Model bobot
dari setiap term yang didapat dalam semua
dokumen dan query dari user harus dihitung
lebih dulu. Term adalah suatu kata atau suatu
kumpulan kata yang merupakan ekspresi
verbal dari suatu pengertian. Perhitungan
bobot tersebut dilakukan melalui persamaan
nomor 1.
(1)
tfi = frekuensi term atau banyak term i yang
ada pada sebuah dokumen (Term
Frequency)
dfi = frekuensi dokumen atau banyak
dokumen yang mengandung term i
(Inverse Document Frequency)
D = jumlah semua dokumen
Setelah itu untuk mengetahui tingkat
kemiripan antar dokumen nilai cosinus dari
sudut antar vektor dokumen dengan vektor
query dihitung melalui persamaan nomor 2.
NW - 109
(2)
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Dimana
Sim(Q,Di) = nilai kesamaan antara sebuah
dokumen i dengan query Q
= bobot term j pada query Q
wQ,j
wi,j
= bobot term j pada dokumen i
Hasil cosinus tersebut diurutkan dari nilai
kesamaan yang terbesar ke nilai yang terkecil.
Hasil terbesar memiliki kedekatan yang lebih
baik dengan user query dibandingkan nilai
kesamaan yang lebih kecil [5].
GENERALIZED
MODEL
VECTOR
elaboration), dan SR (semantic relatedness).
Langkah-langkah mencari nilai ti dan tj adalah
[6]:
• Bila ada sebuah thesaurus O, sebuah
bagan pembobotan (weight) yang
menentukan weight e ϵ (0,1) untuk setiap
edge, sepasang senses S=(s1,s2), dan
sebuah path dengan panjang l yang
menyambungkan 2 senses tersebut, maka
Semantic compactness dari S dihitung
menggunakan persamaan (4).
(4)
SPACE
Generalized Vector Space Model (GVSM)
adalah perkembangan dari Vector Space
Model yang mempertimbangkan kedekatan
sense antar term dengan lebih akurat, dalam
merepresentasikan dokumen. Wong et al.
(1987) membuat GVSM pertama, yang
memperkenalkan korelasi antar term, yang
menganggap bahwa setiap term dinyatakan
sebagai kombinasi linier dari vektor 2 dimensi.
Pengukuran similiarity antara sebuah dokumen
dengan sebuah query dilakukan dengan
persamaan nomor 3.
•
•
dimana di adalah kedalaman sense si
yang didasarkan pada O dan dmax adalah
kedalaman maksimum dari O.
Jika s1 = s2 dan d =d1 = d2 maka SPE(S,O)
= d/dmax dan jika tidak ada path antar
keduanya maka SPE(S,O) = 0.
Bila ada thesaurus O, sepasang term
T=(t1,t2), dan semua pasang senses
S=(s1i,s2j), dimana s1i,s2j merupakan sense
dari t1 dan t2, maka Semantic relatedness
dari T ditunjukkan dari persamaan (6).
SR(T,S,O) = max{SCM(S,O) . SPE(S,O)} (6)
SR antar dua terms ti,tj dimana ti ≡ tj ≡ t
dan t ∉ O didefinisikan dengan 1. Jika ti ∈
O tapi tj ∉ O atau ti ∉ O tapi tj ∈ O, SR=0.
SEMANTIC RELATEDNESS
ti tj menunjukkan besar relasi antara term I
dan term j. Dalam Semantic Relatedness nilai
dari ti tj dalam rumus GVSM Wong et al.
dicari dengan rumus baru yang dikembangkan
oleh George Tsatsaronis dan Vicky
Panagiotopoulou dengan bantuan database
leksikal “WordNet”. Nilai ti dan tj dihitung
melalui penghitungan SCM (semantic
compactness),
SPE
(semantic
path
dimana e1, e2, e3 adalah path’s edges
Jika s1 = s2 maka SCM(S,O) = 1 dan jika
tidak ada path antar keduanya maka
SCM(S,O) = 0.
Bila ada sebuah thesaurus O dan
sepasang senses S=(s1,s2), dimana s1,s2 ϵ
O dan s1 ≠ s2 dan sebuah path dengan
panjang l yang menyambungkan 2 senses,
maka Semantic path elaboration dari S
dihitung menggunakan persamaan (5).
(5)
(3)
Dimana, ti dan tj adalah term vektor di
sebuah ruang vektor 2 dimensi; dk, dan q
adalah vektor dokumen dan query; aki adalah
bobot (weight) dari dokumen yang dihitung
dengan rumus Term Weight; qj adalah bobot
(weight) dari query yang dihitung dengan
rumus Term Weight; n adalah dimensi ruang
[6].
ISSN : 2302-7088
IMPLEMENTASI DAN PENGUJIAN
Ada beberapa proses utama yang ada pada
sistem, yaitu
1. Data Preparation.
2. Indexing.
3. Calculating Semantic Relatedness.
4. Calculating Term to Term Cooccurence.
NW - 110
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
5. Searching.
Gambar 1 menunjukkan blok diagram dari
aplikasi ini.
Gambar 1. Blok Diagram dari Aplikasi
Data Preparation
Proses ini melakukan pengubahan terhadap
file yang dipergunakan sebagai obyek
pencarian
yaitu
“ClueWeb09_English_Sample.warc”
yang
didapatkan dari Web Track TREC (The Text
Retrieval Conference). File tersebut berisi
kumpulan file HTML menjadi beberapa file
HTML yang terpisah. Setelah selesai akan
dilakukan proses merubah HTML ke teks,
yang kemudian diteruskan dengan proses
parsing pada teks tersebut.
Indexing
Proses ini melakukan perhitungan weight
pada setiap kata yang merupakan hasil parsing
dari proses data preparation dengan
menggunakan metode Term Frequency dan
Inverse Document Frequency (TF-IDF) yang
juga terdapat pada metode Vector Space Model
(VSM). Hasil perhitungan weight untuk setiap
kata/term ini nantinya dipergunakan dalam
proses Generalized Vector Space Model
(GVSM), yang nilainya dapat berpengaruh
terhadap kemunculan dokumen yang diwakili
oleh kata/term tersebut pada hasil pencarian.
Calculating Semantic Relatedness
ISSN : 2302-7088
WordNet adalah sebuah thesaurus yang
menggambarkan hubungan antar term secara
semantik/makna. Dalam WordNet hubungan
antar term berupa relasi synonym (sama
makna), hyponym (makna lebih sempit),
hypernym (makna lebih luas), meronym
(makna bagian lebih utuh), dan holonym
(makna bagian dari sebuah benda). Tidak
setiap term memiliki semua relasi di atas
dengan term yang lain.
Proses ini melakukan perhitungan semantic
relatedness dari tiap kata/term dalam database
“WordNet” yang nilainya nanti dijadikan
sebagai nilai kedekatan makna antara dua
kata/term, yang dapat meningkatkan recall
dari hasil pencarian. Nilai kedekatan makna ini
nantinya
dipergunakan
dalam
proses
Generalized Vector Space Model (GVSM).
Kesulitan yang muncul adalah karena
WordNet yang berbentuk graph sehingga sulit
ditentukan term dengan level tertinggi,
berbeda dengan misalnya WordNet berbentuk
sebuah tree. Hal ini membuat kedalaman
sebuah sense sulit untuk ditentukan. Untuk itu
perlu dicari sebuah term yang dapati dianggap
sebagai level yang paling tinggi dari hampir
semua term, yaitu term “Thing”.
Calculating Term to Term Cooccurence
Bila sebuah term tidak terdapat dalam
WordNet, maka relasi makna antar term
didapatkan dari term-to-term co-occurence
matrix. Proses ini melakukan perhitungan
terhadap nilai kedekatan makna dengan
menghitung jumlah kemunculan bersama
antara dua term yang berbeda. Jumlah
kemunculan
tersebut
nantinya
dinormalisasikan dengan mambagi setiap
jumlah tersebut dengan jumlah terbesar. Nilai
kedekatan makna dari semantic term to term
nantinya dipergunakan sebagai nilai kedekatan
makna yang menggantikan nilai semantic
relatedness apabila kata/term tersebut tidak
terdapat pada database “WordNet” atau nilai
semantic relatedness menghasilkan nilai 0.
Searching
Proses ini berguna untuk mencari dokumen
yang dicari oleh user sesuai dengan kata kunci
yang dimasukkan oleh user. Pada proses ini
menggabungkan nilai weight hasil dari proses
indexing dengan nilai kedekatan makna, baik
dari semantic relatedness ataupun dari
semantic term to term dengan metode
Generalized Vector Space Model (GVSM)
NW - 111
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
perhitungan cosinus, untuk melakukan
perankingan terhadap hasil pencarian.
Pengujian dilakukan dengan menggunakan
data yang berjumlah 100 dokumen yang
didapatkan dari TREC di atas yang seluruh
datanya menggunakan bahasa Inggris sebagai
obyek pencarian.
Pertama dilakukan pengujian program
dengan memasukkan kata 'disease' dan ‘news’
sebagai kata kunci yang dipergunakan sebagai
kata kunci untuk menguji hasil dari aplikasi
pencarian dokumen berbasis Generalized
Vector Space Model dan Semantic Relatedness
ini. Hasil yang didapatkan dari proses
searching dengan kata kunci 'disease' dan
‘news’ dapat dilihat pada Tabel 1 .
Tabel 1.
“News”
Kata
Kunci
Disease
News
Hasil Pencarian “Disease” dan
Semua
Dokumen
Hasil
Pencarian
Dokumen 5,
80, 6, 76, 71,
26, 43, 94,
82, 28, 2, 17,
1, 64, 16, 62,
63
Dokumen 50,
70, 10, 61,
60, 79, 25,
77, 78, 96,
44, 52, 65,
29, 98, 58,
59, 18, 22,
69, 39, 26,
80, 99, 7, 40,
90, 100, 8,
83, 17, 16,
62, 13, 63,
14, 43, 64
Dokumen
Relevan
dari Hasil
Pencarian
Dokumen
Relevan dari
Keseluruhan
Dokumen
Dokumen 6
Dokumen 6
Dokumen
7, 16, 40,
69, 77, 90,
100
Dokumen 7,
15, 16, 28,
40, 69, 77,
90, 100
Dari Tabel 1 dapat dilihat bahwa aplikasi
ini dapat mengeluarkan hasil pencarian
dokumen yang relevan.
Pengujian yang kedua dilakukan dengan
membandingkan nilai precision dan recall dari
pencarian dengan metode GVSM baru (GVSM
& SR) dan VSM. Hasil yang didapatkan dari
pengujian precision dari pencarian dengan
metode GVSM dan VSM dengan kata kunci
‘history’, 'disease', dan ‘news’ dapat dilihat
pada Gambar 2.
0.4
0.2
0
ISSN : 2302-7088
GVS
M
VS
M
Gambar 2. Grafik perbandingan nilai Precision
antara GVSM dan VSM
Dapat dilihat pada gambar 2 bahwa GVSM
memiliki nilai precision yang lebih kecil jika
dibandingkan dengan VSM. Nilai precision
yang dihasilkan oleh GVSM adalah 0,0526 ;
0,0588 ; 0,1707 , sedangkan nilai precision
yang dihasilkan oleh VSM adalah 0,1333 ; 0 ;
0,2857 . Hanya pada kata kunci “Disease” saja
yang nilai precision GVSM-nya lebih tinggi
jika dibanding dengan nilai precision VSM,
dikarenakan tidak diketemukan sama sekali
dokumen yang relevan pada hasil pencarian
VSM.
Dapat dilihat pada gambar 3 bahwa GVSM
memiliki nilai recall yang selalu lebih besar
atau sama jika dibandingkan dengan VSM.
Nilai recall yang dihasilkan oleh GVSM
adalah 0,4 ; 1 ; 0,7778 , sedangkan nilai recall
yang dihasilkan oleh VSM adalah 0,4 ; 0 ;
0,2222. Peningkatan recall terjadi karena
Generalized Vector Space Model tidak hanya
menampilkan dokumen yang mengandung
keyword yang dimasukkan user saja, tetapi
juga
menampilkan
dokumen
yang
mengandung keyword lain yang memiliki
similiarity makna dengan keyword user.
Pengujian yang ketiga adalah pengujian
waktu Semantic Relatedness (SR). Pengujian
waktu SR ini dilakukan dengan menghitung
rata-rata waktu proses pencarian nilai SR.
Rata-rata waktu proses ini didapatkan dengan
membagi total waktu yang dibutuhkan dalam
sebuah proses dengan jumlah hasil yang
didapatkan dari proses tersebut. Hasil
pengujian tersebut disajikan pada Gambar 4.
NW - 112
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
1.5
1
0.5
0
pencarian. Hal ini dikarenakan pada GVSM
terdapat proses mencari nilai kedekatan makna
yang membutuhkan waktu yang lama dan
waktu
tersebut
berpengaruh
pada
bertambahnya total waktu pencarian GVSM
jika dibanding dengan pencarian dengan VSM.
GVS
M
Lama Waktu
(detik)
VSM
Gambar 3. Grafik perbandingan nilai Recall
antara GVSM dan VSM
Rata-Rata
Waktu (detik)
ISSN : 2302-7088
100
50
VSM
0
GVSM
10
400.000
70
Jumlah Dokumen
200.000
0.000
5 15 25
Jumlah Hasil Pencarian
Gambar 4. Grafik rata-rata waktu proses
pencarian nilai SR
Dari gambar 4 dapat kita lihat bahwa ratarata waktu proses terus meningkat secara
linear terhadap jumlah hasil pencarian. Jadi
semakin banyak hasil pencarian yang
dibutuhkan, maka semakin banyak pula ratarata waktu untuk melakukan proses tersebut,
sehingga semakin banyak waktu yang
dibutuhkan untuk melakukan proses untuk
mendapatkan hasil pencarian nilai SR tersebut.
Pengujian yang keempat adalah pengujian
waktu proses Searching. Pengujian waktu
Searching ini dilakukan dengan menghitung
waktu setiap proses yang dilakukan dalam
proses seraching dengan metode GVSM dan
juga pada proses searching dengan metode
VSM. Hasil pengujian tersebut disajikan pada
Gambar 5.
Dari hasil perbandingan waktu searching
pada gambar 5 maka dapat kita lihat bahwa
proses searching
dengan menggunakan
metode GVSM memiliki waktu yang jauh
lebih lama jika dibandingkan dengan waktu
proses searching dengan menggunakan
metode VSM. Hal ini bisa dilihat pada Gambar
5, dimana untuk melakukan searching dengan
metode GVSM dengan 10 dokumen sebagai
obyek pencariannya membutuhkan waktu yang
lebih lama jika dibandingkan dengan
melakukan searching dengan metode VSM
dengan 100 dokumen sebagai obyek
Gambar 5. Grafik jumlah dokumen terhadap
waktu searching GVSM & VSM
Pengujian yang terakhir adalah Pengujian
jumlah keyword user. Pengujian jumlah
keyword user ini dilakukan untuk menguji
hasil pencarian yang dihasilkan oleh aplikasi,
apabila user memasukkan keyword yang
terdiri dari satu kata atau lebih. Proses
pengujian
ini
dilakukan
dengan
membandingkan
hasil pencarian
yang
diberikan oleh sistem dengan jumlah keyword
1 kata, 2 kata dan juga 3 kata. Hasilnya dapat
dilihat pada Tabel 6.
Tabel 2. Hasil pengujian jumlah keyword
No
Kata Kunci
1
Disease
2
Lethal
3
Medicine
4
Lethal
Disease
5
Disease
Medicine
NW - 113
Hasil
Pencarian
Dokumen 5,
80, 6, 76, 71,
26, 43, 94,
82, 28, 2, 17,
1, 64, 16, 62,
63
Tidak ada
Dokumen 19,
11, 71, 20, 8,
64, 26, 80,
16
Dokumen 5,
80, 6, 76, 71,
26, 43, 94,
82, 28, 2, 17,
1, 64, 16, 62,
63
Dokumen 19,
11, 71, 5, 20,
80, 8, 6, 26,
76, 64, 16,
43, 94, 82,
Jumlah
Dokumen
17
Dokumen
0 Dokumen
9 Dokumen
17
Dokumen
21
Dokumen
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
6
Lethal
Disease
Medicine
7
Common
8
Common
Disease
28, 2, 17, 1,
62, 63
Dokumen 19,
11, 71, 5, 20,
80, 8, 6, 26,
76, 64, 16,
43, 94, 82,
28, 2, 17, 1,
62, 63
Dokumen 67,
6, 74, 100,
89, 31, 66,
28, 87, 88,
17, 80, 63,
43
Dokumen 6,
5, 67, 80, 74,
100, 89, 31,
66, 28, 76,
87, 17, 88,
71, 43, 63,
26, 94, 82, 2,
1, 64, 16, 62
21
Dokumen
14
Dokumen
25
Dokumen
Dari tabel 2 dapat dilihat bahwa:
1. Kata kunci yang pertama “Disease”
mendapatkan 17 dokumen sebagai hasil
pencarian.
2. Kata kunci yang kedua “Lethal” tidak
mendapatkan hasil pencarian
3. Kata kunci yang kedua “Medicine”
mendapatkan 9 dokumen sebagai hasil
pencarian.
4. Kata kunci keempat, dengan dua suku
kata, yaitu “Lethal Disease” mendapatkan
17 dokumen sebagai hasil pencarian. Dari
hasil ini dapat dilihat bahwa hasil
pencarian “Lethal Disease” ini didapatkan
dari hasil pencarian dengan kata kunci
“Lethal” yang menghasilkan hasil
pencarian sebesar 0 dokumen dan
“Disease” yang menghasilkan hasil
pencarian sebesar 17 dokumen. Sehingga
hasil pencarian dengan kata kunci “Lethal
Disease” sebesar 17 dokumen.
5. Kata kunci kelima, dengan dua suku kata,
yaitu “Disease Medicine” mendapatkan 21
dokumen sebagai hasil pencarian. Dari
hasil ini dapat dilihat bahwa hasil
pencarian
“Disease
Medicine”
ini
didapatkan dari gabungan kata kunci
“Disease” yang menghasilkan hasil
pencarian sebesar 17 dokumen dan
“Medicine” yang menghasilkan hasil
pencarian sebesar 9 dokumen, serta 5
dokumen yang merupakan irisan dari
kedua hasil tersebut. Sehingga hasil
ISSN : 2302-7088
pencarian dengan kata kunci “Disease
Medicine” sebesar 21 dokumen.
6. Kata kunci keenam, dengan tiga suku kata,
yaitu
“Lethal
Disease
Medicine”
mendapatkan 21 dokumen sebagai hasil
pencarian. Dari hasil ini dapat dilihat
bahwa hasil pencarian “Lethal Disease
Medicine” ini didapatkan dari gabungan
kata kunci “Lethal” yang menghasilkan
hasil pencarian sebesar 0 dokumen,
“Disease” yang menghasilkan hasil
pencarian sebesar 17 dokumen dan
“Medicine” yang menghasilkan hasil
pencarian sebesar 9 dokumen, serta 5
dokumen yang merupakan irisan dari hasil
pencarian “Disease” dan “Medicine”.
Sehingga hasil pencarian dengan kata
kunci “Lethal Disease Medicine” sebesar
21 dokumen.
7. Kata
kunci
ketujuh
“Common”
mendapatkan 14 dokumen sebagai hasil
pencarian.
8. Kata
kunci
“Common
Disease”
mendapatkan 25 dokumen sebagai hasil
pencarian.
Dari urutan perankingan
terhadap keyword ini terdapat peningkatan
peringkat dokumen nomor 6. Pada hasil
pencarian dengan keyword “Common”,
dokumen nomor 6 terdapat pada peringkat
kedua dan pada hasil pencarian dengan
keyword “Disease”, dokumen nomor 6
terdapat pada peringkat ketiga. Tetapi
pada hasil pencarian dengan keyword
“Common Disease”, dokumen nomor 6
terdapat pada peringkat pertama. Dengan
ini dapat kita lihat bahwa pencarian
dengan keyword lebih dari satu dapat
meningkatkan peringkat dokumen yang
relevan.
Aplikasi pencarian dokumen berbasis
Generalized Vector Space Model dan
Semantic Relatedness dapat dilihat pada
gambar 6 dan gambar 7.
NW - 114
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
untuk
melakukan
proses
untuk
mendapatkan hasil pencarian nilai SR
tersebut.
4. Berdasarkan pengujian lama waktu
searching, dapat dilihat bahwa jumlah
dokumen berbanding lurus secara linear
dengan lama waktu searching.
5. Berdasarkan
pembandingan
waktu
searching antara Generalized Vector
Space Model (GVSM) dan Vector Space
Model (VSM), maka dapat dilihat bahwa
lama proses searching dengan GVSM jauh
lebih lama jika dibandingkan dengan lama
proses
searching
dengan
VSM.
Dikarenakan proses searching dengan
GVSM membutuhkan waktu untuk
pencarian kedekatan makna antar term.
6. Kemampuan
aplikasi
ini
sangat
bergantung pada database “WordNet”
yang dipergunakan.
Gambar 6. Tampilan halaman utama dari
aplikasi
DAFTAR PUSTAKA
Gambar 7. Tampilan hasil pencarian dari
aplikasi
KESIMPULAN
Berdasarkan hasil pengujian yang dilakukan
pada sistem menggunakan data TREC dengan
sampel 100 dokumen, maka dapat disimpulkan
bahwa :
1. Dengan melakukan perbandingan antara
Generalized Vector Space Model (GVSM)
dan Vector Space Model (VSM), maka
dapat dilihat bahwa Generalized Vector
Space Model dapat membantu dalam
meningkatkan recall.
2. Kelemahan dari Generalized Vector Space
Model adalah kecilnya precision dari hasil
pencarian jika dibandingkan dengan
Vector Space Model.
3. Berdasarkan pegujian lama waktu
pencarian nilai SR, dapat dilihat bahwa
rata-rata waktu proses terus meningkat
secara linear terhadap jumlah hasil
pencarian. Jadi semakin banyak hasil
pencarian yang dibutuhkan, maka semakin
banyak pula rata-rata waktu untuk
melakukan proses tersebut, sehingga
semakin banyak waktu yang dibutuhkan
[1] Dik L.L., Huei C., Kent E. S. Document
ranking and the vector-Space Model.1997
[2] Harjono K.D. Perluasan Vektor pada
Metode Search Vector Space. Integral,
Vol. 10 No. 2, Juli 2005.
[3] Miller, G. A. WordNet : A Lexical
Database for English. 1995
[4] Ning Liu et al. Learning Similarity
Measures in Non-orthogonal Space.
CIKM’04, November 8-13, 2004,
Washington D.C., U.S.A.
[5] Garcia E. The Classic Vector Space
Model.
Retrieved
URL:http://
www.miislita.com/term-vector/termvector-3.html, diakses tanggal 15 Maret
2012.
[6] Tsatsaronis, G., Panagiotopoulou V. A
Generalized Vector Space Model for Text
Retrieval Based on Semantic Relatedness.
The EACL 2009 Student Research
Workshop, 70–78. 2009.
[7] Turney, P.D. & Pantel, P. From
Frequency to Meaning: Vector Space
Models of Semantics. Journal of Artificial
Intelligence Research. 37: 141-188. 2010.
NW - 115
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
SI-001 (not yet)
SI - 116
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
PERANCANGAN DAN IMPLEMENTASI LABORATORIUM VIRTUAL PEMROGRAMAN
BAHASA C PADA KELAS VIRTUAL BERBASIS MOODLE
Azizah Zakiah1
Teknik Informatika, Politeknik Pos Indonesia
Jln. Sariasih no54 Bandung 40151
1
[email protected]
Abstrak
Dalam pengajaran pemrograman prosedural dipandang perlu untuk "membumikan"
konsep-konsep paradigma pemrograman prosedural dalam suatu bahasa yang mampu
dieksekusi oleh mesin. Bahasa apapun yang dipilih, elemen pemrograman prosedural
harus diterjemahkan dalam bahasa tersebut, dan pengajaran bukan hanya diorientasikan
ke sintaks, melainkan juga ke semantik dari elemen pemrograman tersebut. Desain
interaksi praktikum pemrograman bahasa C pada laboratorium virtual yang tidak tepat
menyebabkan tujuan pembelajaran tidak tercapai atau lebih menyulitkan. Dalam
penelitian ini dirancang dan diimplementasikan laboratorium virtual pemrograman bahasa
C dengan pendekatan usability dan user experience. Laboratorium virtual yang telah
dibangun kemudian diuji. Hasil pengujian pengolahan data kualititatif menunjukkan
bahwa rata-rata skor aspek pengujian dan perancangan responden menyatakan setuju
bahwa laboratorium virtual sesuai dengan tujuan dari usability dan user experience yaitu
efektif, efisien, aman digunakan, memiliki utilitas yang baik, mudah dipelajari dan mudah
diingat oleh penggunanya serta mendukung dalam pencapaian tujuan pembelajaran
pemrograman bahasa C.
Kata kunci : laboratorium virtual, pemrograman bahasa C, usability, user experience.
PENDAHULUAN
E-Learning
adalah
media
dengan
menggunakan media atau jasa bantuan
perangkat elektronika [4]. Media pembelajaran
jenis ini yang sudah memasyarakat diantaranya
berupa CD-Interaktif dan e-Learning berbasis
Web (Web-Based Learning).
Dalam pengajaran pemrograman pertama,
konsep dan elemen pemrograman dalam
paradigma tersebut harus sudah dicakup
seluruhnya, sehingga murid mempunyai
pandangan
yang
integral.
Pengajaran
pemrograman akan sangat abstrak dan sulit
ditangkap jika murid hanya dihadapkan pada
konsep-konsep tanpa pernah "bermain" dengan
komputer dan pemroses bahasanya. Dalam
pengajaran
pemrograman
prosedural
dipandang perlu untuk "membumikan" konsepkonsep paradigma pemrograman prosedural
SI - 117
dalam suatu bahasa yang mampu dieksekusi
oleh mesin. Bahasa apapun yang dipilih,
elemen pemrograman prosedural harus
diterjemahkan dalam bahasa tersebut, dan
pengajaran bukan hanya diorientasikan ke
sintaks, melainkan ke semantik dari elemen
pemrograman tersebut [3].
TINJAUAN PUSTAKA
Pedagogi Praktikum Pemrograman dalam
Pembelajaran
Menurut Prof. Dr. J. Hoogveld (Belanda)
pedagogik adalah ilmu yang mempelajari
masalah membimbing anak ke arah tujuan
tertentu, yaitu supaya kelak ia “mampu secara
mandiri menyelesaikan tugas hidupnya”. Jadi
pedagogik adalah Ilmu Pendidikan Anak.
Langveld
(1980)
membedakan
istilah
“pedagogik” dengan istilah “pedagogi”.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Pedagogik diartikan dengan ilmu pendidikan,
lebih menitik beratkan kepada pemikiran,
perenungan tentang pendidikan. Suatu
pemikiran bagaimana kita membimbing anak ,
mendidik anak. Sedangkan istilah pedagogi
berarti pendidikan, yang lebih menekankan
kepada
praktek,
menyangkut
kegiatan
mendidik, kegiatan membimbing anak.
Pedagogik merupakan suatu teori yang secara
teliti, kritis dan objektif mengembangkan
konsep-konsepnya mengenai hakekat manusia,
hakekat anak, hakekat tujuan pendidikan serta
hakekat proses pendidikan [8].
Pada pengajaran pemrograman yang
diberikan pertamakali, harus memberikan
pemrograman
yang
paling
mendasar.
Pemrograman ini akan menjadi dasar dari
pemrograman selanjutnya. Karena itu, pada
pengajaran Pemrograman pertama sangat perlu
diperhatikan [3] :
1. pembentukan pola berpikir sistematis
sesuai "standard",
2. harus mencakup hal yang esensial,
3. pengertian akan spesifikasi versus koding.
Pelajaran ini hanya mencakup tahap
koding, dan sama sekali tidak mencakup
desain/pembuatan spesifikasi program,
4. walaupun tidak dikatakan secara eksplisit,
bahasa pertama ini akan menjadi “meta
bahasa” yang akan dipakai pada
pengajaran bahasa pemrograman yang
berikutnya,
5. aspek eksekusi (hasil program, trace nilai)
sebaiknya tidak pernah diberikan di kelas
secara rinci, kecuali jika kuliah memakai
komputer. Aspek ini sebaiknya dipisahkan.
ISSN : 2302-7088
media pembelajaran ke dalam bentuk web.
Aplikasi ini memungkinkan siswa untuk
masuk kedalam “ruang kelas” digital untuk
mengakses materi-materi pembelajaran.
Gambaran dan kelebihan Moodle, antara lain
[5] :
1. 100% cocok untuk kelas online dan sama
baiknya dengan belajar tambahan yang
langsung berhadapan dengan dosen/guru ;
2. sederhana,
ringan,
efisien,
dan
menggunakan teknologi sederhana ;
3. mudah di Install pada banyak program
yang bisa mendukung PHP dengan hanya
membutuhkan satu database ;
4. menampilkan penjelasan dari pelajaran
yang ada dan Pelajaran tersebut dapat
dibagi kedalam beberapa kategori ;
5. dapat mendukung lebih dari 1000 mata
pelajaran ;
6. mempunyai kemanan yang kokoh dengan
formulir pendaftaran untuk pelajar yang
telah
diperiksa
validitasnya
dan
mempunyai cookies yang ter-enkripsi.
Paket bahasa disediakan penuh dalam 45
bahasa, termasuk bahasa Indonesia. Bahasa
yang ada dapat diedit dengan menggunakan
editor yang telah tersedia.
Desain Interaksi
Merancang interaksi berarti membangun
suatu produk yang dapat digunakan. Dapat
digunakan artinya mudah untuk dipelajari,
efektif digunakan, dan terasa nyaman bagi
penggunanya. Untuk itu merancang interaksi
antara produk dan manusia perlu [6]:
1. masukan, ide dan umpan balik dari
pengguna berdasarkan yang mereka
rasakan dan alami,
2. memperhatikan dan mempertimbangkan
siapa yang akan menggunakan interaksi
itu,
3. mengetahui
cara
mereka
menggunakannya,
4. mengetahui
aktifitas-aktifitas
penggunanya.
Content Management System Moodle
Content Management Sistem (CMS) adalah
sebuah sistem yang memberikan kemudahan
kepada para penggunanya dalam mengelola
dan mengadakan perubahan isi sebuah website
dinamis
tanpa
sebelumnya
dibekali
pengetahuan tentang hal-hal yang bersifat
teknis. Dengan demikian, setiap orang, penulis
maupun
editor,
setiap
saat
dapat
menggunakannya secara leluasa untuk
membuat,
menghapus
atau
bahkan
memperbaharui isi website tanpa campur
tangan langsung dari pihak webmaster.
CMS Moodle menjadi alat bagi pengajar
untuk membuat sebuah course website.
Moodle adalah sebuah nama untuk sebuah
program aplikasi yang dapat merubah sebuah
Gambaran kerja atau job description seperti
[6]:
1. interactive designer– orang yang terlibat
dalam perancangan semua aspek interaksi
dalam suatu produk,
SI-118
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
2. usability engineer – orang yang
menangani
evaluasi
produk,
cara
penggunaan dan prinsip prinsip,
3. UI designers – orang yang berpengalaman
di bidang metodologi desain yang berpusat
pada pengguna,
4. UI designers engineers – orang yang
membangun dan memodelkan cara
penggunaan, metode analisis workflow dan
prototype,
5. Information architects – orang yang
memberikan ide bagaimana merencanakan
dan menyusun produk yang interaktif,
khususnya website
6. User
Experience
(UX)
designers/architects/researchers – orang
yang melakukan semua hal di atas tetapi
juga melakukan studi lapangan untuk
meneliti
kebutuhan
pengguna
dan
mengubahnya menjadi hasil yang nyata.
ISSN : 2302-7088
Desain interaksi dan pengalaman pengguna,
tujuan kegunaan : berkaitan dengan produk
interaktif yang mudah dipelajari, efektif, dan
nyaman digunakan dari sudut pandang
pengguna. Tujuan ini dimaksudkan untuk
menyediaan perancang interasi dengan cara
konkrit untuk menguji aspek yang beragam
dari produk yang interaktif dan UX. Hal-hal
yang dipenuhi untuk tujuan ini adalah [6]:
1. Efektif : seberapa baik produk itu dapat
bekerja,
2. Efisien: cara produk mendukung pengguna
melakukan tugasnya,
3. Aman digunakan: melindungi pengguna
dari situasi yang bahayakan,
4. Memiliki utilitas yang baik: seberapa
fungsi-fungsi tersedia bagi pengguna,
5. Mudah dipelajari : seberapa mudah produk
digunakan,
6. Mudah untuk diingat penggunaanya:
seberapa mudah penggunaan diingat.
User Experience (UX) atau Pengalaman
Pengguna berarti bagaimana produk berlaku
dan digunakan oleh orang di dunia nyata. UX
adalah tentang bagaimana orang merasakan
produk dan mereka menikmati dan merasa
puas waktu menggunakannya, melihatnya,
memegangnya, dan membuka/menutupnya .
UX tidak dapat dirancang, tapi merancang
untuk kepentingan UX artinya rancangan yang
dihasilkan
menimbulkan
efek
yang
menyebabkan adanya UX, misalnya rasa atau
kesan tertentu nyaman atau sensual.
Tujuan pengalaman pengguna (user
experience) : tujuan ini lebih berkaitan dengan
rasa dan pengalaman yang dirasakan dan
dialami oleh pengguna dengan produk yang
digunakannya. Perasaan yang dapat pengguna
berikan sebagai hasil pengujian/evaluasi adalah
: memuaskan, nyaman, menghibur, membantu,
indah,
creative,
stimulasi
kognitif,
menyenangkan,
lucu,
mengejutkan,
menantang, membosankan, membuat frustrasi,
mengganggu. Hal-hal ini muncul karena
pengguna menggunakan hasil rancangan.
Prinsip merancang yaitu [6]:
1. Visilibility : fungsi jelas, bagian-bagian
jelas, simbol jelas,
2. Feedback : umpan balik yang diberikan
sebagai hasil aksi yang diberikan,
3. Constraints : memberi batasan yang jelas
untuk pengguna mengerti apa yang
dikerjakan,
4. Consistency: penggunaan operasi, dan
elemen pada produk untuk melakukan hal
yang sama. Misal warna merah selalu
digunakan
untuk
memberi
pesan
kesalahan, warna biru untuk konfirmasi,
5. Affordances: atribut dari suatu objek yang
membuat
orang
tahu
bagaimana
menggunakannya. Misal button untuk
ditekan, check box untuk dicentang.
Langkah-langkah dalam proses desain interaksi
adalah sebagai berikut [6]:
1. Identifikasi kebutuhan dan membangun
keperluan/requirement untuk UX,
2. Menggunakan pendekatan berpusat pada
pengguna dengan melibatkan pengguna
dalam proses perancangan : mengamati,
interview, bicara dengan pengguna,
menguji kinerja mereka, memodelkan cara
kerjanya,
gunakan
kuesioner,
atau
menjadikan mereka tim perancang,
3. Membangun desain alternatif yang
memenuhi keperluan/requirement,
4. Membangun versi interaktif dari desain
sehingga mereka dapat dikomunikasikan
dan diuji,
5. Evaluasi apa yang sudah dibuat melalui
prosses dan UX yang disajikan.
Memastikan
bahwa
produk
dapat
digunakan.
SI-119
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Prinsip merancang lain adalah simplicity
atau
kesederhanaan
yang
biasanya
diberlakukan pada website.
ISSN : 2302-7088
4. UPT laboratorium menerima daftrar
spesifikasi perangkat lunak dan perangkat
keras sesuai kebutuhan praktikum yang
telah di setujui jurusan.
5. UPT
laboratorium
mempersiapkan
laboratorium dengan spesifikasi sesuai
permintaan dari Jurusan.
6. UPT laboratorium memberikan daftar
laboratorium yang telah di kelompokkan
berdasarkan macam-macam matakuliah
pemrograman kepada BAAK.
7. BAAK
melakukan
penjadwalan
praktikum pada laboratorium.
8. Dosen dan Mahasiswa melakukan
praktikum di laboratorium, matakuliah
pemrograman sesuai dengan jadwal yang
telah diberikan oleh BAAK.
9. UPT
laboratorium
mengalokasikan
penggunaan laboratorium sesuai dengan
jadwal dari BAAK.
ANALISA DAN PERANCANGAN
Analisa
Deskripsi Sistem yang Ada
Untuk menganalisa proses bisnis yang
sedang berjalan maka perlu dilakukan
pengamatan aktivitas-aktifitas yang dilakukan
pada saat praktikum pemrograman bahasa C
oleh mahasiswa dan dosen dalam menjalankan
fungsinya.
Dalam proses bisnis ini terdapat beberapa actor
yang berperan menjalankan fungsi kegiatan,
yaitu :
1. Dosen,
2. Mahasiswa,
3. Asisten Laboratorium (As.Lab.),
4. Teknisi,
5. Ketua Laboratorium Komputer (Ka.Lab.),
6. Ketua Jurusan (Ka.Jur),
7. Ketua
Bidang
Akademik
dan
Kemahasiswaan (Ka.Baak).
Deskripsi Umum Sistem yang Akan
Dibangun
Dari analisis proses bisnis yang telah
berjalan, maka sebuah proses bisnis baru yang
memanfaatkan teknologi informasi. Sistem
yang akan dibangun akan melengkapi sistem
yang telah berjalan, yaitu menerapkan
laboratorium virtual yang tergambar dibawah
ini.
Gambar 1 Blok Diagram Proses Bisnis
yang ada.
Gambar 2 Blok Diagram Proses Bisnis
yang akan dibangun.
Aktivitas-aktivitas
di
laboratorium
pemrogramanan dibagi menjadi dua bagian
besar yaitu pengguna laboratorium dan
pengelola laboratorium, dengan rincian sebagai
berikut.
1. Mahasiswa melakukan registrasi untuk
mengambil matakuliah pemrograman ke
BAAK dengan persetujuan Dosen Wali
sesuai kurikulum yang telah dibuat
jurusan.
2. Jurusan melakukan penugasan pada
dosen.
3. Dosen Menentukan spesifikasi perangkat
lunak dan perangkat keras sesuai
kebutuhan praktikum untuk matakuliah
yang diampunya.
Sistem yang dikembangkan ini menjadi
salah satu pilihan karena mempunyai beberapa
keunggulan,
yaitu
kemudahan
akses
laboratorium hanya dengan memiliki akases
pada lab virtual ini maka mahasiswa dapat
melakukan praktikum pemrograman C nya
dimana saja dan kapan saja dengan tidak
terbatas oleh waktu penggunaan, yang
biasanya dibatasi akses laboratorium hanya
pada saat perkuliahan praktikum berlangsung
saja, sehingga dengan dibangunnya sistem baru
ini tujuan pembelajaran akan tercapai dengan
desain interaksi yang tidak membuat
penggunan frustasi dalam menggunakan sistem
SI-120
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
baru karena laboratorium virtual ini dibangun
dengan metafora yang sama seperti pada
sistem lama.
ISSN : 2302-7088
2. Kemampuan untuk melihat deskripsi dari
soal praktikum,
3. Kemampuan untuk upload / submission
tugas program,
4. Kemampuan
untuk
menuliskan,
menyimpan, debug dan run program,
5. Kemampuan untuk menampilkan kembali
submission yang telah di kirim,
6. Kemampuan untuk melihat hasil penilaian
dan pendapat dosen dari tugas program
yang telah di kirim,
7. Kemampuan untuk adanya batas waktu
pengerjaaan tugas praktikum.
Persyaratan Sistem
Perangkat
lunak
untuk
praktikum
pemrograman bahasa C pada laboratorium
virtual yang akan dikembangkan diharapkan
dapat melakukan beberapa hal sesuai rencana
bisnis. Hal-hal yang diharapkan untuk
administrator adalah sebagai berikut.
1. Pengelolaan laboratorium menggunakan
aplikasi.
2. Mempunyai kemampuan untuk membagi
kewenangan penggunaan sistem dengan
proses login untuk laboratorium virtual.
3. Kemampuan untuk pengelolaan data
pemakai (manajemen user) yaitu fungsi
penambahan, perubahan dan penghapusan
pemakai.
4. Kemampuan
untuk
melakukan
pengelolaan konfigurasi sistem.
5. Kemampuan
untuk
melakukan
pengelolaan backup dan restore data.
6. Kemampuan untuk melakukan perubahan
password.
7. Kemampuan
untuk
melakukan
pengelolaan informasi.
Diagram Use Case
Diagram use case digunakan untuk
memodelkan kebutuhan sistem dan untuk
mengidentifikasi fungsionalitas yang penting
secara arsitektural dari perangkat lunak yang
dikembangkan.
uc Primary Use Cases
System Boundary
mengelola konfigurasi
sistem
mengelola user
mengelola hak akses
user
Administrator
mengelola backup
dan restore
mengelola perubahan
passw ord
Untuk dosen, hal hal yang diharapkan adalah
sebagai berikut :
1. Kemampuan untuk mengelola materi
praktikum pemrograman,
2. Kemampuan untuk mengelola soal atau
tugas praktikum pemrograman c,
3. Kemampuan untuk melakukan run, debug
program C selayaknya pada laboratorium
sistem lama,
4. Kemampuan
untuk
menuliskan,
mengubah dan menyimpan program,
5. Kemampuan pemberian penilaian dan
komentar pada tugas yang telah di kirim
mahasiswa,
6. Kemampuan untuk menampilkan tugas
tugas yang telah dikirim mahasiswa,
7. Kemampuan untuk adanya batas waktu
dari tugas praktikum yang diberikan.
Login
«include»
Logout
mengubah passw ord
melihat materi
«include»
Dosen
mengunduh materi
mengelola materi
praktikum
«include»
mengelola tugas
praktikum
«include»
melihat tugas
Mahasisw a
debug program
mengelola tugas
program praktikum
«include»
«include»
run program mengupload tugas
program
mengelola nilai
praktikum
«include»
«include»
melihat nilai tugas
melihat daftar tugas
praktikum
«extend»
melihat tugas
mengelola batas
w aktu pengerj aan
tugas praktikum
Untuk Mahasiswa, hal hal yang diharapkan
adalah sebagai berikut :
1. Kemampuan
untuk
melihat,
dan
mengunduh materi yang diberikan oleh
dosen,
«include» melihat batas w aktu
pengej aan tugas
Gambar 3 Diagram use case sistem.
SI-121
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Use case adalah pola perilaku dari
perangkat lunak, yaitu urutan transaksi yang
berhubungan dengans sesuatu yang dilakukan
oleh actor. Use case dibuat berdasarkan
keperluan actor. Rincian use case adalah
sebagai berikut.
1. Mengelola konfigurasi Sistem.
Use case yang berfungsi
untuk
memelihara data kebutuhan terlaksananya
praktikum.
2. Mengelola user.
Use case yang berfungsi untuk mengelola
user. Proses yang dilakukan meliputi
menampilkan informasi user, penambahan
user, mengubah data dan penghapusan
data.
3. Mengelola hak akses.
Use case yang berfungsi untuk mengelola
hak user. Proses yang dilakukan meliputi
menampilkan informasi hak akses user,
penambahan user, mengubah data dan
penghapusan data.
4. Mengelola backup dan restore.
Use case yang berfungsi melakukan
pengelolaan data dalam sistem. Backup
adalah proses melakukan penyalinan file
dari database sistem ke dalam target atau
folder tertentu, sedangkan restore adalah
proses penyalinan file dari suatu folder
tertentu (hasil backup) kedalam database
sistem.
5. Mengelola perubahan password.
Use case yang berfungsi untuk mengelola
perubahan password. Proses yang
dilakukan
meliputi
menampilkan
informasi
perubahan
password,
penambahan, mengubah data dan
penghapusan data.
6. Mengelola materi.
Use case yang berfungsi untuk mengelola
materi. Proses yang dilakukan meliputi
menampilkan informasi perubahan materi,
penambahan, mengubah materi dan
penghapusan materi.
7. Mengelola tugas praktikum.
Use case yang berfungsi untuk mengelola
tugas praktikum. Proses yang dilakukan
meliputi
menampilkan
informasi
perubahan tugas, penambahan, mengubah
data dan penghapusan data.
8. Mengelola tugas program praktikum.
Use case yang berfungsi untuk mengelola
tugas program. Proses yang dilakukan
meliputi
menampilkan
informasi
9.
10.
11.
12.
13.
ISSN : 2302-7088
perubahan, penambahan, mengubah dan
penghapusan.
Mengelola nilai praktikum.
Use case yang berfungsi untuk mengelola
nilai praktikum. Proses yang dilakukan
meliputi
menampilkan
informasi
perubahan, penambahan, mengubah dan
penghapusan.
Melihat daftar tugas praktikum.
Use case yang berfungsi untuk melihat
daftar tugas praktikum mahasiswa.
Mengelola batas waktu pengerjaan tugas
praktikum.
Use case yang berfungsi untuk mengelola
batas waktu pengerjaan tugas praktikum.
Proses
yang
dilakukan
meliputi
menampilkan
informasi
perubahan,
penambahan, mengubah dan penghapusan
batas waktu pengerjaan.
Login.
Use case yang berfungsi untuk proses
masuk ke sistem laboratorium virtual.
Logout.
Use case yang berfungsi untuk keluar dari
sistem laboratorium virtual.
Diagram Activity
Diagram aktifitas menggambarkan aliran
aktifitas dalam sistem yang dirancang,
bagaimana masing-masing aliran berawal,
keputusan yang mungkin terjadi dan
bagaiamana berakhir. Suatu aktifitas dapat
direalisasikan oleh satu use case atau lebih.
Aktifitas menggambarkan proses yang sedang
berjalan sedangkan use case menggambarkan
bagaimana aktor menggunakan sistem untuk
melakukan aktifitas. Diagram aktifitas pada
sistem ini adalah sebagai berikut.
a. Diagram Aktifitas Administrator
Gambar 4. Diagram Aktifitas Administrator
pada Laboratorium Virtual
SI-122
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
b. Diagram Aktifitas Dosen
Gambar 5. Diagram Aktifitas Dosen pada
Laboratorium Virtual.
c. Diagram Aktifitas Mahasiswa.
Gambar 7. Diagram Class Paket VPL.
Perancangan Perangkat
Spesifikasi Perangkat Lunak
Untuk mengembangakan laboratorium
virtual pemrograman bahasa C dibutuhkan
perangkat lunak sesuai dengan kebutuhan dari
moodle yaitu sebagai berikut.
Web Server
: Xampp versi 1.7.x
Basisdata
: MySQL 4
Bahasa Pemrograman : PHP 5
Editor
:Macromedia
Dreamweaver
Gambar 6. Diagram Aktifitas Mahasiswa
pada Laboratorium Virtual
Analisis Domain Class Diagram
Spesifikasi Perangkat Keras
Pengembangan
aplikasi
media
pembelajaran praktikum pemrograman bahasa
C pada laboratorium virtual dibutuhkan
perangkat keras komputer dengan spesifikasi
minimum hardware yang mampu compile
program C yaitu jail sistem yang jalan pada
operating system linux centos 5, sedangkan
user interface dari laboratorium virtual
berjalan pada operating system windows, maka
spesifikasi perangkat keras yang dibutuhkan
adalah sesuai dengan Tabel 1.
Pada tahap analisis domain didefinisikan
class class domain berserta hubungan statis dan
dinamis antar class yang terdapat dalam
sistem. Sebagai acuan dalam melakukan
analisis domain, digunakan use case yang telah
didefinisikan pada tahap analisis kebutuhan.
Class menggambarkan keadaan (atribut /
properti) suatu sistem, sekaligus menawarkan
layanan untuk memanipulasi keadaan tersebut
yaitu metoda atau fungsi.
KESIMPULAN DAN SARAN
Kesimpulan
Berdasarkan
hasil
pengujian
pembahasan yang telah diuraikan
disimpulkan hal-hal sebagai berikut.
SI-123
dan
dapat
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
1. Laboratorium virtual ini sangat membantu
dalam meningkatkan tujuan pembelajaran
praktikum pemrograman bahasa C.
2. Hasil pengujian pengolahan data kualtitatif
menunjukkan bahwa rata-rata skor aspek
pengujian dan perancangan responden
menyatakan setuju bahwa laboratorium
virtual sesuai dengan tujuan dari usability
dan user experience yaitu efektif, efisien,
aman digunakan, memiliki utilitas yang
baik, mudah dipelajari dan mudah diingat
oleh penggunanya.
ISSN : 2302-7088
DAFTAR PUSTAKA
Tabel 1. Spesifikasi perangkat keras
1
Processor : Intel Core 2 Duo E7400 @
2,80GHz,
2
Mobo : HP Compaq DX2390 Microtower,
3
RAM : Type DDR 4, 2 GB,
4
Harddisk : Type SATA, 148,8 GB,
5
Power Supply : Lite on 250W,
6
VGA Card : NVIDIA GeForce 8400GS 512
MB,
7
Cassing : HP Compaq DX2390,
8
Monitor : LCD HP V185e,
9
Mouse : HP Optic USB,
10
Key Board : HP USB,
11
DVD RW : TSST Corp DVDRW SH-S223B.
Saran
Saran-saran untuk pengembangan aplikasi
laboratorium virtual ini adalah dapat
dikembangnya lab virtual ini, sehingga dapat
mendukung beberapa bahasa pemrograman
lainnya
dan
untuk
mengoptimalkan
keunggulannya sebaiknya laboratorium ini
diimplementasikan pada jaringan internet
SI-124
[1]. Munir, Kurikulum Berbasis Teknologi
Informasi dan Komunikasi, Bandung :
ALFABETA, 2008.
[2]. Liem, Inggriani, Aspek Pedagogi
Pengajaran
Pemrograman
Pertama,
Departemen Pendidikan Nasional RI, 2004.
[3]. Heinich R, et.al, Instructional Technology
and Media for Learning, New Jersey, Prentice
Hall, 2005.
[4]. Susilana, Rudi, Riyana, Cepi, Media
Pembelajaran
Hakikat
Pengembangan,
Pemamfaatan
dan
Penilaian,
Jurusan
Kurikulum dan Teknologi Pendidikan FIP
UPI, 2008.
[5].
Suyoh,
Pengertian
Pedagogi,
shvoong.com, http://id.shvoong.com/socialsciences/education/2115688-pengertianpedagogik/, diakses tanggal 11 Februari 2011.
[6] Margaret Martinez & Sheila Jagannathan,
Moodle A Low-Cost Solution for Successful
e-Learning. Learning Solutions Megazine.,
http://www.learningsolutionsmag.com/articles
/71/moodle-a-low-cost-solution-forsuccessful-e-learning, diakses tanggal 10
Januari 2010.
[7]. Sharp, Helen, Rogers, Yvonne dan Jenny
Preece, Interaction design: beyond humancomputer-interaction, John Wiley and Sons,
2007.
[8]. Laboratorium, UPT, Profile UPT
Laboratorium Komputer, Bandung, UPT
Laboratorium Politeknik Pos Indonesia, 2010.
[9.] Slavin, Robert, Cooperative Learning
Theory, Allyn and Bacon Publisher, 1995.
[10].___________. Educational Psychology
Theory and Practice, Massachusetts, Allyn and
Bacon Publisher, 1994.
[11]. Arends, Richard, Learning to Teach. New
York , McGraw Hill Companies, 2007.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
PERAMALAN PENGUNJUNG PARIWISATA MENGGUNAKAN METODE
EXTREME LEARNING MACHINE BERBASIS RADIAL BASIS FUNCTION
(ELM-RBF)
*Bain Khusnul Khotimah, Mula’ab, **Iis Farihah
Program Studi Teknik Informatika, Fakultas Teknik
Universitas Trunojoyo
E-mail : *[email protected], **[email protected]
Abstrak
Sistem peramalan pariwisata merupakan proses untuk memperkirakan jumlah pengunjung
di masa datang sebagai pertimbangan dalam memenuhi kebutuhan pelayanan yang tepat
dan cepat. Metode peramalan yang digunakan dalam penelitian ini adalah metode
Extreme Learning Machine Radial Basis Function (ELM-RBF) yang merupakan salah
satu metode pembelajaran baru dari jaringan syaraf tiruan dengan keunggulan memiliki
tingkat error yang kecil berdasarkan nilai MSE (Mean Square Error) dan MAPE (Mean
Absolute Percentage Error). Penggabungan fungsi Radial Basis Function (RBF)
digunakan untuk memodifikasi pembobotan pada hidden layer menghasilkan proses
iterasi yang lebih cepat dan error yang lebih kecil dibandingkan dengan menggunakan
metode Back Propagation dan ELM. Penelitian ini menggunakan 4 data ujicoba dengan
hasil pengujian untuk pariwisata Gondang menghasilkan nilai MSE = 0.15147 dan nilai
MAPE = 0.0059%, pariwisata WBl menghasilkan nilai MSE = 0.3134 dan MAPE =
0.4206%, pariwisata Mazola menghasilkan nilai MSE = 0.2266 dan MAPE = 0.0368%
sedangkan Sunan Drajad nilai MSE = 0.2998 dan MAPE = 0.1475%.
Kata kunci : Peramalan, Extreme Learning Machine (ELM), Radial Basis Function (RBF)
Abstract
Forecasting tourism system is the process to estimate the number of visitors in the future
for consideration in meeting the needs of precise and fast service. Forecasting methods
used in this research is a method of Extreme Learning Machine Radial Basis Function
(ELM-RBF), which is one of the new learning method of neural networks with the
advantages of having a small error rate based on the value of MSE (Mean Square Error)
and MAPE (Mean Absolute Percentage Error). Merging functions of Radial Basis
Function (RBF) is used to modify the weighting of the hidden layer iteration process
yields faster and smaller error than using the Back Propagation and ELM. This study
used four experimental data with the results of testing for produce Gondang tourism MSE
= 0.15147, and the value of MAPE = 0.0059%, WBL tourism generating MSE = 0.3134
and MAPE = 0.4206%, Mazola generate tourism MSE = 0.2266 and MAPE = 0.0368%
while Sunan Drajad MSE = 0.2998 and MAPE = 0.1475%.
Keyword: Forecasting, Extreme Learning Machine (ELM), Radial Bases Function (RBF)
PENDAHULUAN
Mengamati pertumbuhan kunjungan
wisatawan ke beberapa daerah di Jawa Timur
merupakan suatu hal yang menarik. Lamongan
adalah kota yang sangat kaya akan keindahan
alam dan beraneka ragam budaya. Lamongan
memiliki potensi wisata yang dapat
dimanfaatkan semaksimal mungkin dan
berpotensi sebagai kota tujuan wisata atau
daerah tujuan wisata. Beberapa objek dan daya
tarik wisata yang dapat dikunjungi dan
dinikmati para wisatawan di daerah Lamongan
antaralain : Wisata Bahari Lamongan(WBL),
Maharani Zoo Lamongan(Mazola), Sunan
Drajad dan Waduk Gondang. Obyek wisata
SI-125
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
harian ataupun mingguan dan ditentukan
oleh Low Management.
b. Jangka Menengah (Medium Term)
Menentukan kuantitas dan waktu dari
kapasitas produksi. Biasanya bersifat
bulanan ataupun kuartal dan ditentukan
oleh Middle Management.
c. Jangka Panjang (Long Term)
Merencanakan kuantitas dan waktu dari
fasilitas produksi. Biasanya bersifat
tahunan, 5 tahun, 10 tahun, ataupun 20
tahun dan ditentukan oleh Top
Management.
dikawasan
tersebut
sangat
diminati
pengunjung, sehingga sulit memperkirakan
jumlah pengunjung karena kapasitas obyek
wisata juga terbatas dan kurangnya petugas
pengelola yang mengakibatkan antrian
panjang [1].
Peramalan dalam pariwisata sendiri
merupakan proses untuk memperkirakan
jumlah pengunjung di masa datang meliputi:
kebutuhan pelayanan yang tepat dan cepat
dalam mendapatkan jumlah pengunjung yang
banyak dan demi memenuhi keinginan
pengunjung.
Peramalan data pengunjung
salah satu alternatif perbaikan sistem
pariwisata di Lamongan untuk memprediksi
jumlah
pengunjung
sebagai
bekal
memperbaiki pelayanan terhadap pengunjung
di masa yang akan datang [2].
Penelitian ini menggunakan metode
peramalan yang digunakan adalah metode
Extreme Learning Machine (ELM) berbasis
Radial Basis Function (RBF). Algoritma
Extreme
Learning
Machine
(ELM)
mempunyai kelebihan dalam learning speed,
serta mempunyai tingkat akurasi yang lebih
baik dibandingkan dengan metode lainnya
sehingga dengan menerapkan metode ini pada
demand forecasting diharapkan mampu
menghasilkan ramalan yang lebih efektif [3].
Sedangkan penggunaaan metode Radial Basis
Function (RBF) di dalam metode Extreme
Learning Function (ELM) mudah mencapai
kinerja generalisasi baik pada kecepatan
belajar yang sangat cepat Algoritma Extreme
Learning Function (ELM) untuk jaringan
Radial Basis Function (RBF) atau disebur
ELM-RBF dapat menyelesaikan belajar pada
kecepatan yang sangat cepat dan menghasilkan
kinerja generalisasi sangat dekat dengan
Extreme Learning Function (ELM) [4].
Peramalan Deret Waktu
Time series adalah serangkaian nilai-nilai
variabel yang disusun berdasarkan waktu.
Analisis time series mempelajari pola gerakangerakan nilai-nilai variabel pada satu interval
waktu (misal minggu, bulan, dan tahun) yang
teratur.
Peramalan pendugaan masa depan
dilakukan berdasarkan nilai masa lalu. Tujuan
metode peramalan deret berkala (time series)
seperti ini adalah menemukan pola dalam
deret historis dan mengekstrapolasikan pola
tersebut kemasa depan. Pola data dapat
dibedakan menjadi empat jenis siklis dan trend
[6].
1. Pola Harizontal (H)
Terjadi apabila nilai data fluktuasi
disekitar nilai rata-rata yang konstan.
Suatu calon mahasiswa baru yang tidak
meningkat dan menurun selama waktu
tertentu, termasuk kedalam pola ini
2. Pola Musiman
Terjadi apabila suatu deret dipengaruhi
oleh musiman (misal kuartal tahun
tertentu).
3. Pola Siklis
Terjadi apabila datanya dipengaruhi oleh
fluktuasi ekonomi jangka panjang seperti
yang behubungan siklis bisnis
4. Pola Random
Permintaan suatu produk dapat mengikuti
pola bervariasi secara acak karena faktorfaktor adanya bencana alam, bankrutnya
perusahaan pesaing, promosi khusus dan
kejadian-kejadian lainnya yang tidak
mempunyai pola tertentu. Variasi acak ini
diperlukan dalam rangka menentukan
persediaan
pengamanan
untuk
mengantisipasi kekurangan permintaan.
5. Pola Trend
SISTEM PERAMALAN
Peramalan
adalah
proses
untuk
memperkirakan berapa kebutuhan di masa
datang. Salah satu teknik peramalan adalah
analisis serial waktu dan proyeksi. Metode
serial waktu didasari oleh asumsi bahwa
kejadian-kejadian masa mendatang akan
mengikuti jalur yang ada dalam penggunaan
data historis untuk memprediksi masa depan.
Tujuan peramalan dilihat dengan waktu [5]:
a. Jangka pendek (Short Term)
Menentukan kuantitas dan waktu dari
item dijadikan produksi. Biasanya bersifat
SI-126
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
Terjadi apabila terdapat kenaikan atau
penurunan sekuler jangka panjang dalam
data.
akan diproses dengan rumus autokorelasi
sehingga didapatkan time lags atau waktu
yang bersignifikan dengan waktu yang
diramalkan. Kemudian data tersebut pada
waktu yang bersignifikan tersebut akan
menjadi data masukan pada proses pelatihan
jaringan syaraf tiruan. Rumus untuk mencari
fungsi autokorelasi:
2.2 Akurasi Peramalan
Ukuran akurasi hasil peramalan yang
merupakan ukuran kesalahan peramalan
merupakan ukuran tentang tingkat perbedaan
antara hasil peramalan dengan permintaan
yang sebenarnya terjadi. Ukuran yang biasa
digunakan, yaitu [6]:
1. Mean Absolute Percentage Error (MAPE)
Pendekatan MAPE digunakan untuk
menilai prestasi jaringan yang dilatih
karena MAPE mengenal secara pasti
signifikasi hubungan diantara data ramalan
dengan data aktual melalui persentase dari
data aktual serta indikator positif atau
negatif pada galat (error) diabaikan.
(
(
)
(3)
)
Keterangan:
Yt = data baru atau nilai aktual pada
periode t
rk = nilai signifikan
EXTREME LEARNING MACHINE
Extreme Learning Machine merupakan
metode pembelajaran baru dari jaringan syaraf
tiruan. Metode ini pertama kali diperkenalkan
oleh Huang (2004). ELM merupakan jaringan
syaraf tiruan feedforward dengan single
hidden layer atau biasa disebut dengan Single
Hidden Layer Feedforward neural Networks
(SLFNs) Metode pembelajaran ELM dibuat
untuk mengatasi kelemahan-kelemahan dari
jaringan syaraf tiruan feedforward terutama
dalam hal learning speed [3][5].
(1)
2. Mean Square Error (MSE)
MSE dihitung dengan menjumlahkan
kuadrat semua kesalahan peramalan
pada setiap periode dan membaginya
dengan jumlah periode peramalan.
Secara matematis, MSE dirumuskan
sebagai berikut [6]:
( At − Ft ) 2
n
)(
 n

 ∑ Yt − Y t Yt − k − Y t 

rk = 
2
 n
 ∑ Yt − Y t 
 t =1

F
 100 
MAPE = 
∑ At − t
At
 n 
MSE = ∑
ISSN : 2302-7088
Output layer
(predict forecast)
(2)
Hidden layer
2.3 Fungsi Autokorelasi
Salah satu bentuk analisis dalam teori
Statistika adalah Analisis Data deret Waktu,
yaitu analisis terhadap data yang merupakan
fungsi atas waktu atau tempat. Analisis data
deret waktu merupakan analisis khusus dari
analisis regresi, sebab dalam data deret waktu
terlibat suatu besaran yang dinamakan
Autokorelasi. Keberadaan autokorelasi bisa
merupakan autokorelasi periodik, yaitu
autokorelasi dengan nilai periodesitasnya lebih
dari satu, dan autokorelasi seperti ini banyak
terdapat pada data deret waktu yang memiliki
komponen musiman-periodik. Perumusan
autokorelasi sama dengan perumusan korelasi
antar dua variabel.
Dalam metode Statistika, jika dimiliki
sampel atas data bivariat (X , Y). Dalam hal
ini data yang di proses berdasarkan waktunya
Input layer
(independent var)
Gambar 1. Arsitektur ELM
H diatas adalah hidden layer output
matrix g (wi • xi+b1 ) menunjukkan output dari
hidden neuron yang berhubungan dengan
input i x . β merupakan matrix dari output
weight dan T matrix dari target atau output .
Pada ELM input weight dan hidden bias
ditentukan secara acak, maka output weight
yang berhubungan dengan hidden layer
Pada ELM parameter-parameter seperti
input weight dan hidden bias dipilih secara
random, sehingga ELM memiliki learning
speed yang cepat dan mampu mengshasilkan
SI-127
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
good generalization performance. Metode
ELM mempunyai model matematis yang
berbeda
dari
jaringan
syaraf
tiruan
feedforward. Model matematis dari ELM lebih
sederhana dan efektif. Berikut model
matrematis dari ELM. Untuk N
jumlah
sample yang berbeda (xi, ti)
Xi= [ Xi1 , Xi2 ...., Xi n ] T € R n,
Xt = [ Xt1 , Xt2 ...., Xt n ] T € R n,
ISSN : 2302-7088
aktifasi yang berupa fungsi basis radial.
Fungsi basis radial ini diasosiasikan oleh lebar
dan posisi center dari fungsi basis tersebut.
Struktur dasar jaringan RBF [4][6].
Fungsi basis pada jaringan RBF identik
dengan dengan fungsi gaussian yang
diformulasikan sebagai berikut :
(4)
φj =
Standart SLFNs dengan jumlah hidden nodes
sebanyak N dan activation function g ( x )
dapat digambarkan secara matematis sebagai
berikut :
dimana:
φj =Keluaran fungsi basis ke – j data x
x = Masukan fungsi basis
cj = Center fungsi gausian ke - j
σj = Lebar fungsi gausian ke – j
(5)
(Wr.Xj+bi)= oj
(7)
HASIL DAN PEMBAHASAN
(6)
Data input yang digunakan dalam
penelitian ini adalah data pengunjung
pariwisata di Kab.Lamongan. Dalam data yang
akan di analisa memiliki beberapa data
pariwisata anatara tahun 2006-2010 dengan
nama wisata sebagai berikut :
dimana :
J = 1,2,..., N
wi = (wi1 ,wi2 ,..., win )T = merupakan vektor
dari weight yang menghubungkan i th
hidden nodes dan input nodes.
βi = (βi1 , βi2 ,..., βin )T = merupakan weight
vector yang menghubungkan i th hidden
dan output nodes.
bi = threshold dari ke-i pada hidden nodes.
w i x j = hasil inner produk dari w i dan x j
Tabel 1. Data Wisata Lamongan
No
Data Wisata Lamongan
1
Wisata Bahari Lamongan (WBL)
2
Maharani Zoo Lamongan (Mazola)
3
Sunan Drajad
4
Waduk Gondang
RADIAL BASIS FUNCTION
RBF (φ) merupakan fungsi dimana
keluarannya simetris terhadap center c tertentu
atau dinyatakan sebagai φc = φ ||x - c||, dimana
|| . || merupakan vektor normal. Jaringan syaraf
yang dibentuk dengan menggunakan fungsi
basis berupa fungsi basis radial dinamakan
Jaringan Syaraf RBF. Jaringan RBF terdiri
atas 3 layer yaitu layer input, hidden layer
(unit tersembunyi) dan layer output. Masing–
masing unit tersembunyi merupakan fungsi
Preprosessig
data
dilakukan
dengan
menggunakan proses autokorelasi dan
normalisasi sehingga menjadi data dengan
range 0-1. Autokorelasi menghasilkan nilai
kedekatan dengan lags maksimal 1, setelah itu
data dimasukkan sebagai data latih dalam
peramalan meggunakan ELM berbasis RBF
dengan tampilan form sebagai berikut:
SI-128
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ISSN : 2302-7088
Gambar 1. Interface ELM berbasis RBF
Tabel 2. Hasil Uji Coba dengan Perbandingan penggunaan Metode
BP (%)
ELM (%)
Data
MSE
MAPE
MSE
MAPE
WBL
4,2871
1,2635
2,3031
1,5782
7,2540
1,5316
4,1044
0,8377
Mazola
Sunan Drajad
1,1330
0,9622
1,1603
0,6695
Waduk Gondang 2,6536
1,5613
1,5602
0,5051
ELM-RBF(%)
MSE
MAPE
0.17103
0.0053
0.3134
0.0420
0.2266
0.0368
0.2998
0.1475
Tabel 3. Hasil Uji Coba berdasarkan perhitungan waktu
BP (detik)
ELM (detik)
Data
(Epoch)
1000
2000
1000
2000
WBL
720
1200
630
1118
680
1109
590
1001
Mazola
Sunan Drajad
780
1204
750
1084
Waduk Gondang
800
1590
720
1390
ELM-RBF (detik)
1000
2000
480
902
510
989
621
994
689
1320
Data Wisata lamongan terdiri dari
rekapitulasi data bulanan selama 5 tahun antara
tahun 2006-2010 yang berjumlah 60 tupple.
Uji coba akan membagi 60 data tupple yaitu
data training sebanyak 48, data pengujian
sebanyak 12. Selanjutnya memasukkan
beberapa nilai parameter yaitu : hidden layer
yang digunakan 8, nilai epoch 1000 dan
learning rate sebesar 0.9. Hasil ujicoba pada
Tabel 2. menunjukkan bahwa metode ELMRBF menghasilkan error yang lebih kecil
dibandingkan dengan menggunakan metode
Back Propagation (BP) dan ELM. Hasil uji
coba menggunakan ELM-RBF pada data WBL
menghasilkan nilai MSE sebesar 0.17103 dan
MAPE 0.0053%, pada data Mazola
menghasilkan nilai MSE sebesar 0.3134 dan
MAPE 0.0420%, pada data wisata Gunung
Drajat Menghasilkan nilai MSE sebesar 0.2266
dan MAPE 0.0368% dan terakhir data wisata
Waduk Gondang menghasilkan nilai MSE
sebesar 0.2998 dan MAPE 0.1475%. Hasil uji
coba mengenai analisa penggunaan waktu
pelatihan ditunjukkan pada Tabel 3.
menunjukkan hasil penggunakan metode
SI-129
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 12-13 Nopember
ELM-RBF lebih cepat dibandingkan dengan
metode BP dan ELM.
KESIMPULAN
[3]
Kesimpulan yang dapat diambil
penulis dari pembuatan perangkat lunak ini
adalah:
Sistem
peramalan
pengunjung
pariwisata
dengan menggunakan
metode Extreme Learning Machine
(ELM) berbasis Radial Basis Function
(RBF) meghasilkan proses iterasi yang
lebih cepat dan error yang lebih kecil
dibandingkan dengan menggunakan
metode Back Propagation dan ELM.
2. Berdasarkan uji coba pariwisata WBL
menghasilkan nilai MSE sebesar
0.17103
dan
MAPE
0.0053%,
pariwisata Mazola menghasilkan nilai
MSE sebesar 0.3134 dan MAPE
0.0420%, pariwisata Sunan Drajad
menghasilkan nilai MSE sebesar
0.2266% dan MAPE 0.0368%, dan
pariwisata
Waduk
Gondang
menghasilkan nilai MSE sebesar
0.2998% dan MAPE 0.1475%.
[4]
DAFTAR PUSTAKA
[8]
1.
[5]
[6]
[7]
[1] Buku Laporan Tahunan Wisata di
Lamongan, 2011
[2] Wutsqa, Dhoriva Urwatul, Suhartono.
2007.
Peramalan
Deret
Waktu
Multivariat
Seasonal
pada
Data
Pariwisata dengan Model Var-Gstar.
Jurusan Matematika, Universitas Negeri
[9]
SI-130
ISSN : 2302-7088
Yogyakarta,
Yogyakarta,
Jurusan
Statistika, Institut Teknologi Sepuluh
Nopember, Surabaya. Indonesia.
Yulianarta, Handry. 2011. Sistem
Peramalan Jumlah Pengguna Provider
XL menggunakan Metode Extreme
Learning. Teknik Informatika-Universitas
Trunojoyo Madura, Indonesia.
Huang, Guang-Bin. Siew, Chee-Kheong.
2004. Extreme Learning Machine : RBF
Network Case. School of electrical and
electronic
engineering,
Nanyang
Technological
University,
Nanyang
Avenue, Singapore.
Agustina Irwin, Dwi. 2009. Penerapan
Metode Extreme Learning Machine untuk
Peramalan
Permintaan.
Sistem
Informasi-ITS Surabaya, Indonesia.
Hariyanto, Wahyudi, Setiawan, Iwan.
2007. Aplikasi Jaringan Syaraf Tiruan
RBF pada Sistem Kontrol Valve untuk
pengendalian tinggi muka air. Jurusan
Teknik
Elektro,
Fakultas
Teknik,
Universitas
Diponegoro,Semarang,
Indonesia.
Zhang, G., Pattuwo, B.E., Hu, M.Y. 1997.
Forecasting with Artificial Neural
Networks : The State of the Art. Elsevier
International Journal of Forecasting 14
(1998) 35-62.
Kusumadewi, Sri. 2003. Artificial
Intelligence (Teknik dan Aplikasinya).
Yogyakarta : Graha Ilmu.
Sun, Z.L., Choi, T.M., Au, K.F., dan Yu,
Y. 2008. Sales Forecasting using Extreme
Learning Machine with Application in
Fashion Retailing. Elsevier Decision
Support Systems 46 (2008) 411-419.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
IMPLEMENTASI CRM PADA RANCANG BANGUN SISTEM INFORMASI
PENJUALAN ONLINE DAN INVENTORI BERBASIS B2C
(BUSINESS 2 CUSTOMER)
Eka Widhi Yunarso
Program Studi Manajemen Informatika, Politeknik Telkom Bandung
E-mail: [email protected]
Abstrak
Pasar merupakan pusat perbelanjaan barang manufaktur. Variasi barang yang dijual dan
banyak kios yang ada dalam pasar menimbulkan permasalahan diproses inventori dan
penjualan. Tidak semua pembeli mau datang ke pasar, seperti kendala tempat yang jauh,
sulitnya mencari letak kios yang menjual barang tertentu. Dari sisi penjual, adanya
kesulitan memasarkan produk yang dijual, proses pencatatan transaksi penjualan masih
dilakukan secara manual dan terdapat ketidakcocokan antara barang di gudang dengan
data yang dimiliki. Penelitian ini bertujuan untuk mengatasi permasalahan yang ada
melalui perancangan sistem informasi dengan mengimplementasikan konsep CRM.
Rancang bangun sistem menggunakan 3 aktifitas utama yaitu Data Collecting, CRM
Analysis, Structured Methodology. Hasil akhir dari penelitian ini adalah desain Sistem
Informasi Penjualan Online dan Inventori berbasis B2C, menggunakan teknologi ICT
dalam menghubungkan antara penjual dengan pembeli dalam proses pencarian barang,
mengelola transaksi penjualan barang, proses pengelolaan barang hingga proses
pelaporan.
Kata kunci: Penjualan, Inventori, CRM, Data Collecting, CRM Analysis, Structured
Methodology.
Abstract
The market is the shopping goods manufacturing. Variations of goods sold and a lot of
stalls in the market cause problems processed inventory and sales. Not all buyers will
come into the market, such as the constraints of a distant, difficult to find the location of
stalls selling a particular item. From the seller's side, the difficulty of marketing
products sold, sales transaction recording process is still done manually and there is a
mismatch between the goods in the warehouse with the data they hold. This study aims
to address the existing problems through the design of information systems by
implementing the concept of CRM. The design of the system using the 3 main activities
Collecting Data, CRM Analysis, Structured Methodology. The end result of this
research is the design of Information Systems Online Sales and Inventory based B2C,
ICT technology in connecting between sellers with buyers in the search process goods,
manages the sale of goods, the management of the goods to the reporting process.
Key words: Sales, Inventory, CRM, Data Collecting, CRM Analysis, Structured
Methodology.
SI- 131
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
kumpulan objek yang disebut entitas dan
hubungan yang terjadi diantaranya yang
disebut relasi [1].
PENDAHULUAN
Pasar merupakan pusat perbelanjaan barang
manufaktur yang bervariasi, mulai dari
pakaian bayi, anak-anak hingga dewasa. Pasar
memiliki daya tarik akan produk yang dijual
dengan harga murah serta kualitas yang cukup
baik. Tidak semua pembeli mau datang ke
pasar, seperti kendala tempat yang jauh,
sulitnya mencari letak kios yang menjual
barang tertentu. Dari sisi penjual, adanya
kesulitan memasarkan produk yang dijual,
proses pencatatan transaksi penjualan masih
dilakukan secara manual dan terdapat
ketidakcocokan antara barang di gudang
dengan data yang dimiliki.
Customer
Relationship
Management
(CRM) adalah salah satu bentuk aplikasi
Teknologi Informasi dalam departemen
penjualan di sebuah perusahaan. Sistem
Informasi Penjualan Online dan Inventori
merupakan salah satu bentuk pemanfaatan
teknologi
informasi
yang
dapat
diimplementasikan
untuk
mengatasi
permasalahan di atas.
Tujuan dari penelitian ini adalah
bagaimana menghubungkan penjual dengan
pembeli melalui teknologi ICT dalam proses
pencarian barang, mengelola transaksi
penjualan barang, proses pengelolaan barang
hingga proses pelaporan.
Customer Relationship Management (CRM)
Customer
Relationship
Management
(CRM) dapat didefinisikan sebagai sebuah
pengelolaan hubungan dua arah antara suatu
perusahaan dengan orang yang menjadi
pelanggan di perusahaan tersebut. CRM dalam
perkembangannya juga dapat didefinisikan
sebagai sebuah istilah industri TI untuk
metodologi, strategi, perangkat lunak dan atau
aplikasi lain yang mampu membantu sebuah
perusahaan untuk mengelola hubungan dengan
para pelanggan. [6]
Inventori
Menurut Koher,Eric L.A. Inventori adalah :
"Bahan baku dan penolong, barang jadi dan
barang dalam proses produksi dana barangbarang yang tersedia, yang dimiliki dalam
perjalanan dalam tempat penyimpanan atau
konsinyasikan kepada pihak lain pada akhir
periode". Inventori meliputi semua barang
yang dimiliki perusahaan pada saat tertentu,
dengan tujuan untuk dijual kembali atau
dikomsumsikan dalam siklus operasi normal
perusahaan sebagai barang yang dimiliki untuk
dijual atau diasumsikan untuk dimasa yang
akan datang, semua barang yang berwujud
dapat disebut sebagai inventori, tergantung
dari sifat dan jenis usaha perusahaan. [3]
TINJAUAN PUSTAKA
Data Flow Diagram (DFD)
DFD merupakan suatu gambaran grafis
dari suatu sistem yang menggambarkan
sejumlah
bentuk
simbol
untuk
menggambarkan bagaimana data mengalir
melalui suatu proses yang saling berkaitan.
Diagram ini menekankan pada proses alir data
yang terjadi. DFD terdiri dari empat simbol,
yaitu : Entitas eksternal, proses, aliran data,
serta penyimpanan data. Simbol-simbol ini
digunakan untuk elemen elemen lingkungan
yang terhubung dengan sistem [1].
Entity Relationship Diagram (ERD)
Entity Relationship Diagram (ERD) adalah
diagram yang menggambarkan keterhubungan
antara data secara konseptual. Penggambaran
keterhubungan antara data ini didasarkan pada
anggapan bahwa dunia nyata terdiri dari
Ada 3 (tiga) prinsip dasar inventori:
1. Kapan barang harus ada. Target yang
harus dicapai adalah lakukan order pada
waktu yang tepat [3].
2. Berapa jumlah yang harus ada. Target
yang harus dicapai adalah mengadakan
stok dengan quality optimal. Perhitungan
yang tepat yang menyangkut pola dan
perilaku barang dan pelanggan serta
program kerja yang akan dicapai menjadi
alat utama untuk memastikan bahwa stok
yang akan diadakan adalah optimal.
3. Dimana barang yang akan diadakan.
Target yang harus dicapai adalah
bagaimana stok disimpan ditempat yang
strategis. Penyimpanan stok ditempat
yang jauh dari target pelanggan akan
menyebabkan masa tunggu dan masa
kirim (lead time) menjadi lebih lama.
SI- 132
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Penjualan
Penjualan adalah merupakan total jumlah
yang dibebankan kepada pelanggan atas
barang dagangan yang dijual perusahaan, baik
yang dijual tunai maupun kredit. Total
seharusnya tidak termasuk pajak penjualan,
dimana perusahaan diharuskan memungut dari
pelanggan (pembeli) dan nama Negara. [5]
Pemodelan E-commerce
E-commerce atau Electronic Commerce
merupakan suatu sistem atau paradigmabaru
dalam dunia bisnis, yang menggeser
paradigma tradisional commerce menjadi
electronic
commerce
yaitu
dengan
memanfaatkan
ICT
(Information
and
CommunicationTechnology) atau dengan kata
lain teknologi Internet.
Definisi E-commerce secara umum dapat
diartikan : “proses membeli, menjual, baik
dalam bentuk barang, jasa ataupun informasi,
yang dilakukan melalui media internet”
(disarikan dari berbagai sumber).
Menurut Stefan Probst (Opticom), definisi
e-commerce adalah “ business yang dilakukan
secara electronic yang melibatkan aktivitasaktivitas bisnis berupa business to business
ataupun business to consumen melaului
teknologi Internet”
Secara umum e-business tidak hanya
ditujukan atau melibatkan proses selling dan
buying saja, akan tetapi dapat juga meliputi
online services, consumen relationship
management
(CRM),
supply
chain
management, kolaborasi business partners,
electronic transaction dan electronic payment.
Dan jika dilihat dari aktivitasnya dapat
berlangsung
dengan
melibatkan
antar
konsumen ataupun antar pelaku business [4].
METODE
Metode penelitian yang digunakan terbagi
dalam 3 (tiga) aktifitas utama, yaitu: Data
Collection Methodology, CRM Analysis, dan
Structured Methodology.
Gambar 1 Framework Penelitian [2]
HASIL DAN PEMBAHASAN
Analisa Sistem Berjalan
Pasar terdiri dari X kios yang menjual
berbagai macam barang. Sistem penjualan
barang masih berjalan secara sederhana
dimana antara penjual dan calon pembeli harus
saling bertemu. Calon pembeli juga harus
mencari terlebih dahulu kios atau penjual
mana yang menjual barang yang dicari. Disisi
penjual, sistem inventori barang masih
dilakukan dengan sederhana, dimana keluar
masuk barang dicatat dalam buku. Proses
pencatatan barang keluar maupun masuk
sering terabaikan dan kondisi ini yang
mengakibatkan adanya perbedaan jumlah stok
barang di gudang dengan catatan yang ada.
Kesulitan memasarkan barang yang dijual,
SI-133
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
proses pencatatan transaksi penjualan masih
dilakukan secara manual juga merupakan
kondisi yang harus dihadapi oleh penjual.
ISSN : 2302-7088
IMPLEMENTASI SISTEM
Pembeli
Analisa Sistem Usulan
Sistem yang diusulkan untuk mengatasi
permasalahan
diatas
yaitu
dengan
mengimplementasikan CRM dalam rancang
bangun Sistem Informasi Penjualan Online
dan Inventori memanfaatkan e-commerce
framework, dengan model e-commerce
Business to Customer (B2C). Terdapat dua
fungsionalitas utama, yaitu penjualan dan
inventori.
Analisa terhadap pengguna sistem ini
adalah penjual (pemilik masing-masing kios)
dan pembeli. Penjual dan pembeli akan
menjadi sumber dan/atau tujuan data dalam
perancangan Data Flow Diagram (DFD).
Dalam Model B2C, penjual dan pembeli akan
saling berinteraksi melalui teknologi ICT
dalam proses pencarian barang, proses
transaksi penjualan barang.
Di sisi inventori barang, proses pengelolaan
barang yang dilakukan oleh pihak penjual
mencakup proses memasukkan data barang,
proses, proses memperbarui data barang.
dt_login
dt_reg
dt_customer
dt_order
dt_produk
dt_customer
dt_order
dt_produk
dt_status_order
dt_validasi
Sistem Informasi
Penjualan Online
dan Inventori
Berbasis B2C
dt_produk
dt_customer
dt_order
dt_status_order
dt_lap_penjualan
dt_customer
dt_order
dt_produk
dt_status_order
Penjual
Gambar 3 Diagram Konteks
Dalam diagram konteks, terdapat 2
(dua) entitas yaitu penjual dan pembeli yang
saling terhubung melalui Sistem Informasi
Penjualan Online dan Inventori.
Gambar 2 Framework e-commerce [4]
SI-134
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Gambar 4 DFD Level 1
Dalam DFD level 1, terdapat 5 (lima)
proses besar yang menjelaskan lebih detil akan
fungsionalitas yang diusulkan dalam rancang
bangun Sistem Informasi Penjualan Online
dan Inventori berbasis B2C. Pembeli
dimungkinkan untuk dapat melakukan proses
pencarian barang yang ingin dibeli, tanpa
harus datang langsung ke pasar maupun
melakukan pencarian lokasi kios yang menjual
barang tersebut; dapat melakukan proses order
terhadap barang yang diinginkan. Penjual
dimungkinkan untuk melakukan proses
pengelolaan barang dan mengelola proses
order sebagai bagian dari fungsionalitas
penjualan.
Gambar 5 Implementasi ERD [1]
Pengujian yang dilakukan pada penelitian
ini menggunakan metode pengujian blackbox.
Pengujian ini dilakukan dengan cara menguji
aplikasi dari segi fungsionalitas. Keterangan
berhasil pada pengujian perangkat lunak
menjelaskan bahwa fungsionalitas dapat
berjalan sesuai dengan perancangan DFD yang
telah dilakukan sebelumnya.
Tabel 1 Pengujian Perangkat Lunak
No
1
2
3
4
5
6
7
SI-135
Fungsionalitas Perangkat Lunak
Pengolahan data pembeli
Pengolahan data order
Pengolahan data penjual
Pengolahan data hubungi kami
View status order
Pembeli melakukanorder
Penjual Melalukan pengoalahan order
Keterangan
Berhasil
Berhasil
Berhasil
Berhasil
Berhasil
Berhasil
Berhasil
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
KESIMPULAN
Penelitian yang dilakukan dapat diambil
kesimpulan yaitu terbentuknya sebuah desain
Sistem Informasi Penjualan Online dan
Inventori berbasis B2C yang menggunakan
teknologi ICT dalam menghubungkan antara
penjual dengan pembeli dalam proses
pencarian barang, mengelola transaksi
penjualan barang, proses pengelolaan barang
hingga proses pelaporan.
DAFTAR PUSTAKA
ISSN : 2302-7088
[2] Turban, Efraim., Decision Support
Systems and Intelligent Systems. Jakarta :
Andi, 2003.
[3] Indonesia,
Logistik.,
Inventory.
http://logistikindonesia.inventory.com.
[Online] 07 2010.
[4] Ade Hendra Putra, Dkk., APLIKASI ECOMMERCE. Bandung : Politeknik
Telkom, 2009.
[5] Henry, S.E, M.SI., Laporan Keuangan.
Jakarta : Kencana, 2009.
[6] Danardatu, Aloysius Heru., "Pengenalan
Customer Relationship Management
(CRM)." Jakarta : IlmuKomputer, 2003.
[1] Nugroho, Eddy Prasetyo dan Ratnasari,
Komala., Rekayasa Perangkat Lunak.
Bandung : Politeknik Telkom, 2009.
SI-136
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
SI-007 (not yet)
SI-206
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
PENGEMBANGAN PENDEKATAN MULTIPLE MINIMUM SUPPORT UNTUK
MENGGALI FREQUENT CLOSED ITEMSET
*Endah
Purwanti, **Eva Hariyanti
Program Studi Sistem Informasi, Fakultas Sains dan Teknologi,
Universitas Airlangga Kampus C Unair
Jl. Mulyosari Surabaya 60115
E-Mail: *[email protected], **[email protected]
Abstrak
Frequent closed itemsets merupakan himpunan itemset yang berperan dalam proses
penggalian rule pada association rule mining. Penggalian frequent pattern seringkali
menghasilkan sejumlah besar frequent itemsets dan rule, sehingga mengurangi efisiensi
dan keefektifan dari proses mining karena user harus menyaring sejumlah besar rule
hasil penggalian untuk menemukan rule yang penting. Oleh karena itu proses
penggalian dapat diwakili hanya pada frequent closed itemsets. Penggunaan multiple
minimum support bertujuan untuk menampung adanya perbedaan sifat dan frekuensi
yang ada pada tiap item. Pada penelitian ini digunakan pengembangan pendekatan
multiple minimum support untuk menggali frequent closed itemset. Multiple minimum
support dihitung dengan memperhatikan nilai ‘support difference’ (SD). Pendekatan ini
dilakukan agar item yang jarang bisa ikut tergali sebagai frequent itemset. Algoritma
yang dikembangkan menggunakan struktur Multiple Item Support Tree (MIS-tree)
untuk menyimpan pola yang ringkas dan penting tentang frequent pattern. Uji coba
dilakukan pada tiga buah dataset, dengan memberikan nilai yang berbeda-beda pada
parameter α yaitu 0.9, 0.5, dan 0.25, λ diisi dengan nilai rata-rata. Variasi nilai α
menyebabkan nilai MIS juga bervariasi. Hasil uji coba menunjukkan bahwa frequent
closed itemsets yang berhasil digali jumlah menurun selaras dengan meningkatnya nilai
MIS.
Kata kunci: datamining, association rule, frequent closed itemsets, multiple minimum
support.
Abstract
Frequent closed itemset is an itemset set the play in the process of extracting the
association rule mining rule. Mining frequent pattern often produces a large number of
frequent itemsets and rules, thereby reducing the efficiency and effectiveness of the
mining process because the user have a large number of rules. Therefore the mining
process can be represented only on frequent closed itemsets. The use of multiple
minimum support aims to accommodate the differences in the nature and frequency for
each item. This paper used multiple minimum support development approach to explore
frequent closed itemset. Multiple minimum support is calculated by taking into account
the value of 'support difference’ (SD). This approach is a rare item that can come as a
frequent itemset mined. The algorithm was developed using Multiple Item Support Tree
structure (MIS-tree) to store a concise and important pattern of frequent patterns. Tests
carried out on three datasets, by giving different values to the parameter α. The trial
results showed that the frequent closed itemsets unearthed decreasing amount in line
with the rising value of SD.
Key word: datamining, association rule, frequent closed itemsets, multiple minimum
support.
SI-207
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
menyebabkan kesulitan bagi pengambil
keputusan untuk memahami pola yang ada
yang dihasilkan dari datamining.
Untuk menyelesaikan masalah tersebut, [3]
telah mengembangkan model association rule
yang
memperbolehkan
user
untuk
menggunakan multiple minimum support.
Multiple minimum support digunakan untuk
menggambarkan sifat dasar dan frekuensi yang
berbeda dari item-item yang ada. Pendekatan
yang digunakan disebut dengan Multiple
Support Apriori (MSApriori). Ternyata
MSApriori masih belum bisa menangani ‘rule
missing’ dan ‘rule explosion’. Jika nilai α
tinggi, nilai MIS untuk item jarang secara
relatif akan lebih mendekati nilai supportnya
dibandingkan
dengan
frequent
item.
Akibatnya, itemset yang berisi item jarang
akan gagal memenuhi nilai support. Sehingga
himpunan frequent yang berisi item jarang
akan terlewatkan. Selanjutnya apabila nilai α
rendah, akan menyebabkan frequent item
berasosiasi dengan semua item, akibatnya akan
menghasilkan himpunan frequent item yang
banyak.
Pada penelitian ini akan dilakukan
pengembangan pendekatan untuk menemukan
multiple minimum support, yaitu dengan
menggunakan notasi ‘support difference’ (SD)
yang diusulkan oleh [8]. Nilai SD memastikan
perbedaan konstan antara item support dan
nilai minsup untuk setiap item. ukan
penggalian frequent closed itemsets dengan
menggunakan multiple minimum support.
Penggalian
akan
dilakukan
dengan
menggunakan struktur Multiple Item Support
Tree (MIS-Tree) dan algoritma CLOSET [4].
MIS-tree merupakan struktur pohon yang
dikembangkan serupa dengan struktur FP-tree
untuk menyimpan informasi yang ringkas dan
penting mengenai frequent pattern. Algoritma
CLOSET
merupakan
algoritma
untuk
menggali frequent closed itemsets, namun
dengan menggunakan single minimum
support.
PENDAHULUAN
Datamining merupakan proses penggalian
pola yang penting dan tersembunyi dari data
yang sangat besar. Salah satu topik penting
dalam datamining adalah association rule
mining. Association rule mining [1] digunakan
untuk menemukan relasi antar item yang ada
pada database transaksi. Sejak association rule
mining dikenalkan, telah banyak penelitian
yang dilakukan untuk menemukan metode
yang efektif untuk melakukan penggalian
frequent itemset. Telah diakui bahwa
penggalian frequent pattern memegang
peranan penting pada proses association rule
mining.
Frequent pattern mining seringkali
menghasilkan sejumlah besar frequent itemsets
dan rule, yang mengurangi tidak hanya
efisiensi namun juga keefektifan dari proses
mining karena user harus menyaring sejumlah
besar rule hasil penggalian untuk menemukan
rule yang penting. Pasquier dkk [2] telah
melakukan penelitian dan menyatakan bahwa
sebagai ganti mining complete set dari frequent
itemset, association rule mining hanya perlu
untuk menemukan frequent closed itemsets.
Penggalian hanya pada frequent closed
itemsets mampu mengurangi jumlah rule yang
redundan yang dihasilkan dan menaikkan
efisiensi dan keefektifan dari proses mining itu
sendiri.
Elemen kunci yang membuat association
rule mining dapat dijalankan adalah minimum
support (minsup). Minsup digunakan untuk
memangkas atau memperkecil ruang pencarian
frequent itemsets dan juga untuk membatasi
jumlah
rule
yang
akan
dihasilkan.
Menggunakan single minsup secara implisit
mengasumsikan bahwa semua item pada
database memiliki sifat dan frekuensi yang
sama. Padahal tidak demikian pada
kenyataannya. Pada basis data retail, biasanya
item yang berhubungan dengan keperluan
sehari-hari, barang konsumsi dan barangbarang dengan harga rendah akan dibeli lebih
sering daripada barang mewah atau barang
dengan harga mahal. Pada situasi tersebut, jika
minsup yang digunakan terlalu tinggi, semua
pola yang ditemukan akan berhubungan
dengan barang-barang harga murah. Padahal
barang
tersebut
hanya
memberikan
keuntungan sedikit. Namun jika minsup yang
diberikan telalu rendah, maka rule yang
dihasilkan akan sangat banyak, yang mungkin
saja banyak yang tidak berguna. Dan akan
Association Rule Mining
Sebuah transaksi I={i1,i2,i3,…,id} adalah
himpunan item yang ditransaksikan dan
T={t1,t2,t3,…,tn} adalah himpunan transaksi.
Setiap transaksi ti terdiri dari item yang
merupakan subset dari I. Sebuah itemset X
adalah himpunan bagian tidak kosong dari I.
Support dari sebuah itemset X, disimbolkan
dengan sup(X), adalah jumlah transaksi yang
SI-208
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
nilai MIS yang berbeda untuk item-item yang
berbeda. Dengan memberikan nilai MIS yang
berbeda untuk setiap item, maka hal tersebut
akan merefleksikan sifat alamiah dari item itu
sendiri dan mengakomodasikan adanya variasi
frekuensi dalam database.
MIS-tree [5] adalah pengembangan dari
struktur FP-tree, merupakan struktur pohon
yang digunakan untuk menyimpan frequent
item dengan multiple minimum support
mengandung itemset X. Association rule R: X
Y adalah implikasi antara dua itemset X
dan Y dimana X, Y ⊂ I dan X I Y=Ø. Nilai
support dari rule disebut dengan sup(X Y),
didefinisikan sebagai sup(X ∪ Y). Confidence
dari rule, disebut dengan conf(X Y),
didefinisikan sebagai
sup( X ∪ Y )
. Untuk
sup( X )
menemukan association rule dari sebuah
transaksi, diperlukan nilai batasan yaitu
minimum support (minsup) dan minimum
confidence (minconf).
Multiple Item Support
Misalkan I={a1, a2, ..., am} adalah
himpunan item dan MIS(ai) menunjukkan nilai
MIS untuk item ai. Maka nilai MIS dari
itemset A={a1, a2, ..., ak} (1≤k≤m) adalah:
min[MIS(a1), MIS(a2), ..., MIS(ak)]. [5]
Frequent Closed Itemset
Menurut Liu et al [3], sebuah itemset Y
adalah closed itemsets jika Y adalah frequent
dan tidak terdapat superset langsung Y’ ⊃ Y
sedemikian hingga sup(Y’)=sup(Y). Frequent
itemsets sendiri adalah itemsets yang nilai
support-nya lebih besar atau sama dengan
minsup yang telah ditentukan.
Misalkan diketahui sebuah transaksi
I={i1,i2,i3,…,id} adalah himpunan item yang
ditransaksikan dan T={t1,t2,t3,…,tn} adalah
himpunan transaksi. Setiap transaksi ti terdiri
dari item yang merupakan subset dari I.
Sebuah itemset X adalah himpunan bagian
tidak kosong dari I. Support dari sebuah
itemset X, disimbolkan dengan sup(X), adalah
jumlah transaksi yang mengandung itemset X.
Sebuah itemset Y adalah closed itemset jika Y
adalah frequent itemset dan tidak terdapat
superset langsung Y’ ⊃ Y sedemikian hingga
sup(Y’)=sup(Y). Frequent closed itemset yang
dapat digali dari database transaksi pada Tabel
1 yaitu {f, c, b, fb, cb, cp, fcam, fcamp}.
TID
100
200
300
400
500
ISSN : 2302-7088
Contoh 1:
Dalam database terdapat item bread, shoes,
dan clothes. Dengan nilai MIS yang telah
ditentukan sebagai berikut: MIS(bread)=2%,
MIS(shoes)=0.1%, dan MIS(clothes)=0.2%.
Jika nilai support dari itemset {clothes,
bread}=0.15% maka itemset {clothes, bread}
adalah infrequent. Karena nilai MIS dari
itemset {clothes, bread} = min[MIS(clothes),
MIS(bread)]=0.2%, yaitu lebih besar dari
0.15%.
Tabel 2. Nilai MIS Tiap Item
Item
MIS
F
4 (80%)
C
4 (80%)
A
3 (60%)
B
3 (60%)
G
3 (60%)
M
3 (60%)
P
2 (40%)
D
2 (40%)
I
2 (40%)
N
2 (40%)
Tabel 1. Database Transaksi
Item terurut sesuai
Item
MIS
acfmp
fcamp
acdfmp
fcampd
abcfgm
fcabgm
bfi
fbi
bcnp
cbpn
Berikut
ini
langkah-langkah
untuk
membuat MIS-tree dari data transaksi pada
Tabel 1 dengan nilai MIS tiap item pada Tabel
2. Langkah pertama adalah membuat tabel
header yang berisi nilai MIS tiap item. Pada
MIS-tree, item-item yang infequent tetap
dimasukkan dalam tabel header, namun nanti
akan dihapus pada proses pruning. Setiap item
pada tabel header dihubungkan ke node pada
tree yang mempunyai nama yang sama melalui
head of node-link. Setelah tabel header
terbentuk langkah selanjutnya adalah membuat
MIS-Tree
Pada model ini, definisi umum dari
minimum support diubah. Secara umum nilai
minsup adalah sama untuk semua item, namun
pada model ini setiap item dalam database
dapat memiliki nilai minsup-nya sendirisendiri yang disebut dengan minimum item
support (MIS). Artinya user dapat memberikan
SI-209
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
root dengan nilai null. Kemudian baca
transaksi pertama dari database untuk
membuat cabang pertama dari MIS-tree: ((f:1),
(c:1), (a:1), (m:1), (p:1)). Transaksi kedua (f,
c, a, m, p, d) memiliki prefix yang sama (f, c,
a, m, p) dengan jalur yang sudah ada.
Sehingga count dari setiap node sepanjang
prefix dinaikkan 1 dan sisa item (d) pada
transaksi kedua akan dibuatkan node baru
sebagai anak dari node p:2. Demikian
seterusnya sampai dengan transaksi dalam
database habis. Demikian seterusnya sampai
dengan transaksi dalam database habis.
Karena dalam tabel header masih terdapat
item yang tidak frequent, maka diperlukan
sebuah proses pemangkasan (pruning). Item
yang tidak frequent yaitu {d, i, n} karena nilai
support-nya lebih kecil daripada nilai MIS.
Struktur pohon juga mengalami penyesuaian
karena penghapusan item-item tersebut dari
tabel header. Setelah proses pemangkasan,
dimungkinkan node-node dari MIS-tree
mempunyai nama yang sama, sehingga perlu
dilakukan proses penggabungan (merge).
Untuk membuat bentuk kompak dilakukan
penelusuran pada pohon dan ditemukan bahwa
node (m:2) mempunyai dua anak dengan nama
yang sama yaitu p. Dilakukan penggabungan
dua node tersebut menjadi sebuah node itemname = p, dan count diisi dengan jumlah count
dari kedua node tersebut. Bentuk MIS-tree
yang lengkap dan kompak bisa dilihat pada
Gambar 1.
Ide dasar untuk menggali frequent closed
itemsets pada algoritma CLOSET adalah
dengan menggunakan teknik devide and
conquer. Caranya adalah sebagai berikut :
Membuat conditional pattern base dan
conditional FP-Tree untuk setiap item yang
frequent secara bottom up dengan mengacu
pada tabel header.
Mengulangi proses pada langkah a untuk
setiap conditional FP-Tree yang terbentuk
sampai dengan FP-Tree kosong atau tinggal
memiliki 1 jalur saja.
Conditional pattern base harus dibangun
untuk semua item yang terdapat pada tabel
header. Dari conditional FP-tree yang
terbentuk akan ditemukan kandidat frequent
closed itemsets. Algoritma penggalian
frequent closed itemsets dapat dituliskan
seperti berikut ini:
ALGORITMA:
Frequent
Closed
Itemsets dengan Multiple minimum
support (FCI_MIS)
INPUT: 1. database transaksi, 2.
nilai MIS untuk setiap item, 3.
MIS-tree
OUTPUT: himpunan lengkap frequent
closed itemsets
METODE:
Panggil
fungsi
FCI_MIS(MIS-tree, null)
Procedure FCI_MIS(tree, f)
{
for f anggota tabel header do
{
bangun proyeksi MIS-tree β
dengan prefiks f
Update tabel header
If tree β ≠null then
Get_FCI_MIS(tree β, f,
MIS(f))
}}
roo
t
f:4
F
4
C
4
A
3
B
3
G
3
M
3
P
2
c:1
c:3
b:1
b:1
a:3
m:2
p:2
ISSN : 2302-7088
b:1
g:1
Procedure
Get_FCI_MIS(tree,
f,
MIS(f))
{
for f anggota header tabel do
{ buat conditional database
dengan prefiks f
Update tabel header
p:1
If tree β ≠null then
{
Get_FCI_MIS(tree
β, f, MIS(f))
If
f.support
≠
f.superset.support
and
f
bukan
subset
dari
frequent
closed
itemsets yang telah ditemukaan
Close=true;
}}}
m:1
Support Difference
Support difference (SD) merujuk pada
simpangan yang masih dapat diterima oleh
sebuah item dari frekuensi atau supportnya.
Gambar 1. MIS-tree Lengkap dan Kompak
Algoritma CLOSET
SI-210
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Sehingga sebuah itemset dapat dianggap
sebagai frequent itemset. Perhitungan minsup
untuk setiap item ij (MIS(ij)) dapat dilihat pada
persamaan (1).
MIS(ij)
= S(ij) – SD, jika (S(ij) – SD)
< LS = LS , untuk yang lainnya
(1)
Keterangan:
LS = nilai support terendah yang
didefinisikan sebelumnya
SD = λ(1-α)
λ = parameter yang bisa diisi dengan nilai
rata-rata, median, atau modus
α = parameter yang bernilai antara 0 dan 1
yang ditentukan sendiri oleh user
Nilai λ dan α memegang peranan penting
dalam mendefinisikan SD. Kedua nilai
tersebut dapat disesuaikan dengan sifat
statistik dari data.
ISSN : 2302-7088
Gambar 2. Grafik Jumlah Frequent Closed
Itemsets dengan variasi nilai α Pada ketiga
Dataset
Hasil uji coba pada Gambar 2 menunjukkan
bahwa jumlah frequent closed itemsets yang
berhasil digali menurun selaras dengan
meningkatnya nilai SD. Ketika nilai α=0.25,
nilai MIS pada item jarang menjadi sama
dengan LS, sehingga banyak frequent closed
itemset yang berhasil digali. Sebaliknya ketika
nilai α=0.9, nilai MIS mendekati nilai
supportnya sehingga jumlah frequent closed
itemsets yang berhasil digali menjadi kecil.
Berkurangnya jumlah frequent closed itemsets
menunjukkan bahwa penggunaan multiple
minimum support mampu menaikkan efisiensi
dari proses penggalian aturan asosiasi. Hasil
frequent closed itemsets ini akan digunakan
dalam proses penggalian aturan asosiasi
selanjutnya.
HASIL DAN PEMBAHASAN
Uji coba dilakukan dengan menggunakan
dataset yang biasa digunakan untuk menguji
algoritma association rule mining yaitu basis
data transaksi yang terdapat secara on-line.
Dataset yang digunakan yaitu T1014D100K,
Mushroom, dan Gazelle. Masing-masing
dataset tersebut memiliki karakteristik yang
berbeda. Karakteristik dari dataset-dataset
besar ini dituliskan pada Tabel 2. Nilai α yang
digunakan dalam uji coba adalah 0.9; 0.5; dan
0.25, sedangkan λ diisi dengan nilai rata-rata.
Mula-mula digunakan α kecil (α=0.25),
dengan persamaan (1) nilai SD mendekati
nilai rata-rata (λ), untuk item jarang nilai MIS
akan sama dengan LS. Hal ini dilakukan
dengan harapan item jarang akan masuk dalam
frequent itemsets. Pada α=0.9, nilai SD
menjadi kecil sekali, sehingga MIS mendekati
nilai support. Hal ini menyebabkan item jarang
tidak akan berhasil masuk sebagai frequent
itemset. Hasil penggalian frequent closed
itemset dapat dilihat pada Gambar 2.
KESIMPULAN
Pada
penelitian
ini
digunakan
pengembangan pendekatan multiple minimum
support untuk menggali frequent closed
itemset. Multiple minimum support dihitung
dengan
memperhatikan
nilai
‘support
difference’ (SD). Pendekatan ini dilakukan
agar item yang jarang bisa ikut tergali sebagai
frequent
itemset.
Algoritma
yang
dikembangkan menggunakan struktur Multiple
Item Support Tree (MIS-tree) untuk
menyimpan pola yang ringkas dan penting
tentang frequent pattern. Pada uji coba dipilih
nilai α 0.9; 0.5; dan 0.25. Nilai ini dipilih
untuk memberikan variasi pada nilai MIS,
untuk α kecil, nilai MIS pada item jarang
menjadi sama dengan LS. Sebaliknya pada α
besar nilai MIS akan mendekati nilai
supportnya. Hasil uji coba menunjukkan
bahwa frequent closed itemsets yang berhasil
digali jumlah meningkat selaras dengan
menurunnya nilai MIS.
Tabel 2. Karakteristik Dataset
Dataset
# Tuples
# Item
Mushroom
8124
120
Gazelle
59601
498
T1014D100k
100k
433329169
SI-211
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Untuk pengembangan lebih lanjut dari
penelitian ini dapat dititikberatkan pada
pemberian nilai LS (Low Support) dengan
menggunakan suatu formula tertentu yang
mampu mengakomodasi kepentingan itemitem yang jarang.
SUMBER PUSTAKA
[1] Agrawal, R., Imielinski, T., and Swami, A.
(1993), “Mining association rules between
sets of items in large databases”, In Proc.
1993
ACM-SIGMOD
Int.
Conf.
Management of Data (SIGMOD’93),
Washington, DC, pp. 207–216.
[2] Han, J., Pei, J.dan Yin, Y., (2000), ”Mining
Frequent Pattern Without Candidate
Generation”, In Proc. 2000 ACM-SIGMOD
Int.
Conf.
Management
of
Data
(SIGMOD’00), Dallas, TX.
[3] Liu, B., Hsu, W. dan Ma, Y.,
(1999)”Mining Association Rules with
Multiple minimum support”, Proceedings
of the ACM SIGKDD In. Conf. on
Knowledge Discovery and Data Mining
(KDD-99), San Diego, CA, USA.
[4] Pasquier, N., Bastide, Y., Taouil, R., dan
Lakhal, L., (1999), ” Discovering Frequent
Closed Itemsets for association Rules”, In
Proc. 7th Int. Conf. Database Theory
(ICDT’99), pages 398-416, Jerusalem,
Israel.
ISSN : 2302-7088
[5] Pei, J., Han, J., Mao, R., (2000), "CLOSET:
An efficient algorithm for mining frequent
closed itemsets", Proceedings of the 2000
ACM SIGMOD Workshop on Research
Issues in Data Mining and Knowledge
Discovery, Dallas, Texas.
[6] Purwanti, E., Arif, D., (2009) “Penggalian
Frequent
Closed
Itemsets
dengan
Menggunakan Multiple Minimum Suppot”,
Proceeding Seminar Nasional Pascasarjana
ITS 2009, Surabaya.
[7] Tan, P., Steinbach, M., Kumar, V.(2006),
“Introduction to Data Mining”, Pearson
Education, Boston.
[8] Kiran U., Krishna R, (2009), “An Improved
Multiple
minimum
support
Based
Approach to Mine Rare Association
Rules”, Computational Intelligence and
Data Mining, CIDM ’09, pages 340-347
[9] Wang, J. , Han, J., Pei J., (2003),
“CLOSET+: Searching for Best Strategies
for Mining Frequent Closed Itemset”,
Proceedings of the 9th ACM SIGKDD
International Conference on Knowledge
Discovery and Data Mining (KDD'03),
Washington, D.C., USA, hal 236-345.
[10]
Ya-Han Hu, Yen-Liang Chen, (2006),
“ Mining Association Rules with Multiple
minimum supports: a New Mining
Algorithm and a Support Tuning
Mechanism ”, Decision Support Systems,
Volume 42, Issue 1, Pages 1-24.
SI-212
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
PEMANFAATAN TOGAF ADM UNTUKPERANCANGAN ARSITEKTUR
E-GOVERNMENT BANGKALAN PADA DINAS PERINDUSTRIAN & PERDAGANGAN
Norman, Yeni Kustiyahningsih, M. Kautsar Sophan
Jurusan teknik Informatika, Fakutas Teknik, Universitas Trunojoyo
Jl. Raya Telang PO. BOX 2 Kamal, Bangkalan, Madura, 691962
Abstrak
Penyusunan E-Government padaDinas Perindustrian & Perdagangan (DISPERINDAG) Kabupaten
Bangkalan dibuat untuk meningkatkan kualitas pelayanandan membantu proses kinerja dari dinas
tersebut.Salah satu faktor pendorong pemanfaatan sistem informasi yang lebih baik adalah semakin
meningkatnya kebutuhan fungsi pelayanan yang dijalankan.
Tujuan dari penerapan Arsitektur Enterprise adalah menciptakan keselarasan antara bisnis dan
teknologi informasi bagi kebutuhan instansi, penerapan arsitektur enterprise tidak terlepas dari
bagaimana sebuah instansi merencanakan dan merancang arsitektur enterprise tersebut. TOGAF ADM
merupakan metodologi yang lengkap, banyak instansi yang tidak memahami secara jelas tentang
tahapan - tahapan dari metodologi tersebut diterjemahkan ke dalam aktivitas perancangan Arsitektur
Enterprise. Tahapan dalam perancangan Arsitektur Enterprise sangatlah penting dan akan berlanjut
pada tahapan berikutnya yaitu rencana implementasi. TOGAF ADM memiliki empat komponen utama:
arsitektur bisnis, arsitektur data, arsitektur teknologi dan arsitektur aplikasi. Pada intinya TOGAF
digunakan untuk membuat Arsitektur Enterprise dari semua aspek tersebut yang menghasilkan model
dan kerangka dasar dalam mengembangkan sistem informasi yang terintegrasi untuk mendukung
kebutuhan Dinas Perindustrian & Perdagangan sesuai dengan Peraturan Bupati Bangkalan Nomor 38
Tahun 2010 Tentang Uraian Tugas Jabatan Struktural pada Dinas Perindustrian dan Perdagangan.
Kata Kunci: Arsitektur Enterprise, Togaf ADM, Disperindag
Abstract
Preparation of the E-Government on Dinas Perindustrian dan Perdagangan (Disperindag)
Bangkalan made to improve the quality of service and assist in the performance of the
agency. One factor driving the use of better information systems is the increasing needs of
the service functionis executed. The purpose of the application of Enterprise Architectureis
to create harmony between business and information technology for the needs of agencies,
the application of enterprise architecture is inseparable from howan agency's plan and
design the enterprise architecture. TOGAFADM is a comprehensive methodology, many
agencies that do not understand clearly about the stage-the stage of the methodology are
translated into the design of an Enterprise Architecture activities. Stagesin Enterprise
Architecturedesignis very important and will continue at the nextstage of the implementation
plan. TOGAFADM has fourmain components: business architecture, data architecture,
technology architecture and application architecture. At the core TOGAF Enterprise
Architecture is used to make all aspect soft here sulting model and the basic framework in
developing integrated information systems to support the needs of Dinas Perindustrian dan
Perdagangan Office in accordance with the decree No. 38 of 2010 Bangkalan On Structural
Position Description Duties at the Dinas Perindustrian dan Perdagangan.
Keywords: EnterpriseArchitecture, TOGAFADM, Disperindag
pemerintah yang bergerak di bidang pelayanan
Perindustrian
&
Perdagangan.
Untuk
meningkatkan kualitas pelayanan maka perlu
adanya sebuah sistem informasi yang mampu
PENDAHULUAN
Dinas Perindustrian & Perdagangan
(DISPERINDAG)
merupakan
instansi
SI-213
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
memonitoring dan membantu proses kinerja
dari dinas tersebut. Salah satu faktor
pendorong pemanfaatan sistem informasi yang
lebih baik adalah semakin meningkatnya
kebutuhan fungsi pelayanan yang dijalankan.
Dampak dari itu semua banyak SKPD yang
berlomba-lomba untuk menerapkan sistem
informasi dengan teknologinya dengan hanya
memperhatikan
kebutuhan
sesaat
dan
memungkinkan penerapan sistem informasi
yang saling tumpang tindih dan adanya sub sub sistem yang berbeda satu dengan yang
lainya. Kondisi tersebut membuat sistem
informasi tidak dapat dimanfaatkan sesuai
yang diharapkan, berdasarkan misi dan tujuan
penerapan sistem informasi, yaitu efesiensi
dan efektifitas dalam pemenuhan kebutuhan
dinas tersebut, mulai dari pemenuhan
kebutuhan pada level yang tertinggi sampai
pada kebutuhan yang paling bawah yaitu
operasional.
ISSN : 2302-7088
enterprise diantaranya adalah Zachman
framework, TOGAF ADM, EAP dan lain –
lain. Dalam studi kasus ini akan di bahas
bagaimana menggunakan TOGAF ADM
dalam merancang arsitektur enterprise,
sehingga di dapatkan gambaran yang jelas
bagaimana melakukan perancangan arsitektur
enterprise untuk mendapatkan arsitektur
enterprise yang baik dan biasa di gunakan oleh
Dinas Perindustrian & Perdagangan untuk
mencapai tujuannya.
Keluaran yang dapat di capai dari
perancangan arsitektur enterprise tersebut
adalah menghasilkan model dan kerangka
dasar dalam mengembangkan sistem informasi
yang terintegrasi untuk mendukung kebutuhan
Dinas Perindustrian & Perdagangan sesuai
dengan Peraturan Bupati Bangkalan Nomor 38
Tahun 2010 Tentang Uraian Tugas Jabatan
Struktural pada Dinas Perindustrian dan
Perdagangan.
Salah satu dari penyebab ini semua adalah
kurangnya perencanaan dan tanpa memikirkan
kunci utama dalam proses pengembangan
sistem
informasi
yaitu
perancangan,
perancangan sistem informasi yang baik harus
melihat dari berbagai macam sudut pandang
pengembangan sistem, di mulai dari
mendefinisikan arsitektur bisnis yang ada
dalam
instansi
terkait,
mendifinisikan
arsitektur data yang akan di gunakan,
mendifinisikan arsitektur aplikasi yang akan di
bangun serta mendefinisikan arsitektur
teknologi yang akan mendukung jalanya
sistem informasi tersebut.
STUDI PUSTAKA
1. Penelitian sebelumnya yang pertama :
disusun oleh Roni Yunis, Kridanto
Surendro, tahun 2009 dengan judul :
”PERANCANGAN
MODEL
ENTERPRISE ARCHITECTURE (EA)
DENGAN TOGAF ARCHITECTURE
DEVELOPMENT
METHOD
“Dalam
penelitian ini di lakukan perancangan
arsitektur enterprise yang di buat
berdasarkan pada tahapan perancangan
informasi strategis dan integrasi system dan
memakai
metode
Togaf
ADM.
Perancangan arsitektur enterprise ini
memberikan hasil berupa Blueprint atau
cetak biru teknologi informasi yang terdiri
dari fungsi aplikasi dan relasi, interaksi
model dan proses model sebagai pedoman
untuk perancangan teknologi informasi. Di
samping itu penelitian ini juga memberikan
hasil
berupa
roadmap
perencanaan
arsitektur enterprise untuk mencapai visi
dan misi organisasi khususnya pada
perguruan tinggi negeri. [1]
2. Penelitian yang kedua oleh Roni Yunis,
Kridanto Surendro tahun 2010 dengan
judul
:
“Implementasi
Enterprise
Architecture Perguruan Tinggi ” Dalam
penelitian ini Implementasi EA untuk PT
memerlukan perencanaan yang matang dan
harus disusun secara integrasi, tidak hanya
Keselarasan penerapan sistem informasi
dengan kebutuhan DISPERINDAG hanya
mampu dijawab dengan memperhatikan faktor
integrasi di dalam pengembangnya, tujuan
integrasi yang sebenarnya adalah untuk
mengurangi kesenjangan yang terjadi dalam
proses
pengembangan
sistem.
Untuk
menghilangkan kesenjangan tersebut, maka
diperlukan
sebuah
paradigma
dalam
merencanakan, merancang, dan mengelola
sistem informasi yang disebut dengan
Arsitektur Enterprise. Arsitektur enterprise
adalah sebuah pendekatan logis, komprehensif,
dan
holistic
untuk
merancang
dan
mengimplementasikan sistem dan komponen
secara bersamaan.
Berbagai macam dan metode yang biasa
digunakan dalam perancangan arsitektur
SI-214
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Teknologi Telkom, Yogyakarta, 20 Juni
2009 yang berjudul: “Pemilihan EA
Framework “. Dalam penelitian ini
membahas tentang melakukan pemilihan
EA Framework berdasarkan 3 acuan yaitu:
a. Tujuan dari EA dengan melihat
bagaimana
definisi
arsitektur
dan
pemahamannya, proses arsitektur yang
telah ditentukan sehingga mudah untuk
diikuti, dukungan terhadap evolusi
arsitektur b. Input untuk aktivitas EA
seperti pendorong bisnis dan input
teknologi c. Output dari aktivitas EA
seperti model bisnis dan desain transisional
utnuk evolusi dan perubahan. Dan hasil
akhir dari penelitian ini adalah memilih
Togaf ADM sebagai metode yang cocok
dan jelas dalam permasalahan EA
Framework. [4]
terfokus pada arsitektur aplikasi dan
teknologi saja, tetapi juga harus
menyeluruh pada semua domain arsitektur
yang ada dalam PT. Selain memperhatikan
tantangan dan kendala yang mungkin ada
pada saat pengembangan dan implementasi
EA tersebut, juga diperlukan perbaikan
kualitas dari SDM di bidang TI/SI dalam
PT secara berkelanjutan, selain itu faktor
eksternal yang mempengaruhi kebijakan PT
dalam pengembangan EA juga harus
diperhatikan, dengan harapan nantinya
akan menghasilkan EA yang berkualitas
dan dapat diukur dengan menggunakan
metode Togaf ADM dalam perancangan
EA tersebut. Untuk penelitian selanjutnya
akan merumuskan suatu prinsip dan strategi
pengembangan blueprint SI dari perguruan
tinggi berdasarkan model EA yang sudah
dihasilkan. Hasil penelitian ini, diharapkan
dapat dijadikan oleh perguruan tinggi di
Indonesia untuk pengembangan SI/TI PT
yang terintegrasi. [2]
5. Penelitian Kelima disusun oleh: Roni
Yunis,
Krisdanto
Surendro,
Erwin
S.Panjaitan dari Jurusan Sistem Informasi
STMIK-Mikroskil, Sekolah tehnik elektro
dan
informatika,
institut
teknologi
Bandung, yang berjudul: “Pemanfaatan
TOGAF ADM untuk Perancangan Model
Enterprise Architecture” dalam penelitian
ini menjelaskan pemanfaatan metode Togaf
ADM dalam perancangan model EA
dengan alasan karena togaf adm dalam
metode yang sangat lengkap dalam
menyelesaikan
permasalahan
EA,
pengaplikasian perancangan di aplikasikan
kepada perancangan perguruan tinggi.
Hasil akhirnya adalah mengharapkan model
EA perguruan tinggi yang detil dan lengkap
agar kedepannya lagi dapat dikembangkan
blue print yang lebih detail. [5]
3. Pada penelitian selanjutnya disusun oleh
Iyan Supriyanadari Bakosurtanal, Januari
2010 yang berjudul: “Perencanaan Model
Arsitektur Bisnis, Arsitektur Sistem
Informasi dan Arsitektur Teknologi Dengan
Menggunakan TOGAF: Studi Kasus
Bakosurtanal”.
Membahas
masalah
perancangan Enterprise Arsitektur yang
cocok untuk bakosurtanal, setelah dianalisis
Enterprise architecture framework yang
sesuai untuk BAKOSURTANAL adalah
TOGAF. Tujuan yang ingin dicapai pada
penelitian ini adalah enterprise architecture
framework yang paling cocok untuk
Bakosurtanal,
rekomendasi
model
arsitektur
bisnis,
arsitektur
sistem
informasi, arsitektur teknologi serta solusi –
solusi yang terbaik yang harus diterapkan
didalam pembuatan blue print. didalam
membangun blue print penelitian ini
menerapkan suatu arsitektur berbasis
service yaitu mengeikuti kerangaka Service
Oriented Architecture (SOA), Enterprise
Resources Planning (ERP) , Executive
dashboard
yang
digunakan
untuk
pembailan keputusan bagi pejabat-pejabat
structural dan Data Warehouse untuk
integrasi data didalam pengembangan EGovernment. [3]
6. Penelitian ke enam, disusun oleh: Roni
Yunis, Kridanto Surendro, Erwin S.
Panjaitan, dari Jurusan Sistem Informasi,
STMIK Mikroskil, Sekolah Teknik Elektro
dan Informatika, Institut Teknologi
Bandung. Yang berjudul: “ Pengembangan
Model
Arsitektur
Enterprise
untuk
Perguruan Tinggi”.
Penelitian ini
membangun sebuah arsitektur enterprise
yang nantinya bisa dijadikan oleh
organisasi
untuk
mencapai
tujuan
strategisnya. Model arsitektur ini dapat
dijadikan sebagai model dasar bagi institusi
perguruan tinggi didalam pengembangan
arsitektur enterprise. Dalam penelitian ini
memilih TOGAF ADM sebagai metode
4. Penelitian ke empat disusun oleh: Erwin
Budi Setiawan dari Fakultas Sains, Institut
SI-215
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
pengembangan EA perguruan tinggi,
karena metode ini merupakan metode
pengembangan arsitektur enterprise yang
bisa disesuaikan dengan kebutuhan, dengan
syarat bahwa institusi mempunyai aturan
dan prosedur yang jelas tentang proses
bisnis
untuk
mendukung
proses
pengembangan
sistem
informasi
terintegrasi.
Hasil
akhir
adalah
pengembangan EA perguruan tinggi
dengan Togaf ADM. [6]
3.
7. Penelitian
selanjutnya disusun oleh:
Kuswardani Mutyarini, ST., dan Dr. Ir.
Jaka Sembiring dari Teknik Elektro ITB
Bandung. Dengan judul:” Arsitektur Sistem
Informasi untuk Institusi Perguruan Tinggi
di Indonesia”. Dalam penelitin ini
menentukan perancangan sistem informasi
PT di Indonesia yang tepat, penelitian ini
menggunakan Togaf ADM melakukan
perencanaan Arsitektur Sistem Informasi
(SI) organisasi. Sedangkan COBIT
(Control Objectives for Information and
Related
Technology)
adalah
suatu
metodologi yang memberikan kerangka
dasar
untk menciptakan Teknologi
Informasi (TI) yang sesuai dengan
kebutuhan
organisasi.
Dengan
menggunakan perpaduan prinsip-prinsip
dalam TOGAF ADM dan COBIT dapat
dirancang kerangka dasarsistem informasi
untuk institusi pendidikan di Indonesia
yang
sekaligus
mampu
mengukur
perfomansi
dari
hasilimplementasi
kerangka dasar tersebut. [7]
4.
5.
6.
METODOLOGI PENELITIAN
Metodologi penelitian yang digunakan pada
penelitian ini adalah sebagai berikut dan untuk
grafik perancangannya dapat dilihat pada
Gambar 1:
1. Architecture Vision
Dalam
Tahap
ini
Menciptakan
keseragaman
pandangan
mengenai
pentingnya arsitektur enterprise untuk
mencapai
tujuan
Disperindag
yang
dirumuskan dalam bentuk strategi serta
menentukan lingkup dari arsitektur yang
akan
dikembangkanberdasarkan
dari
tupoksi dari setiap bidang.
2. Business Architecture
Mendefinisikan kondisi awal arsitektur
bisnis, menentukan model bisnis atau
7.
8.
SI-216
ISSN : 2302-7088
aktivitas
bisnis
yang
diinginkan
berdasarkan skenario bisnis. Pada tahap ini
tools dan metode umum untuk pemodelan
seperti: Usecase Diagram, Activity
Diagram dan Squence Diagramdapat
digunakan untuk membangun model yang
diperlukan.
Information Sistem Architecture
Pada tahapan ini lebih menekankan pada
aktivitas bagaimana arsitektur sistem
informasi dikembangkan. Pendefinisian
arsitektur sistem informasi dalam tahapan
ini meliputi arsitektur data dan arsitektur
aplikasi yang akan digunakan oleh
organisasi.
Arsitekur
data
lebih
memfokuskan pada bagaimana data
digunakan untuk kebutuhan fungsi bisnis,
proses dan layanan. Teknik yang bisa
digunakan dengan yaitu: ER-Diagram.
Technology Architecture
Membangun arsitektur teknologi yang
diinginkan, dimulai dari penentuan jenis
kandidat teknologi yang diperlukan.
Meliputi perangkat lunak dan perangkat
keras.Teknik
yang
digunakan
meliputiarsitektur teknologi dan arsitektur
jaringan.
Opportunities and Solution
Pada tahapan ini lebih menekan pada
manfaatyang diperoleh dari arsitektur
enterprise yang meliputi arsitektur bisnis,
arsitektur data,arsitektur aplikasi dan
arsitektur teknologi.
Migration Planning
Pada tahapan ini akan dilakukan penilaian
dalam menentukan rencana migrasi dari
suatu sistem informasi. Biasanya pada
tahapan
ini
untuk
pemodelannya
menggunakaan matrik penilaian dan
keputusan terhadap kebutuhan utama dan
pendukung dalam organisasi terhadap
impelemtasi sistem informasi.
Implementation Governance
Dalam tahap ini , harus diketahui dahulu
kelebihan dan kekurangan dari sistem baru
yang dibuat,dibawah ini identifikasi
kelebihan dan kekurangan dari business
proses yang telah dirancang.
Arcitecture Change Management
Dalam tahap ini dilakukan suatu
pengawasan terhadap sistem baik itu dari
segi teknologi dan perubahan lingkungan di
sekitar sistem, baik internal maupun
eksternal, setelah mendapatkan hasil
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
pengawasan dari sistem yang dibuat maka
dibuat suatu manajemenarsitektur untuk
pengembangan dari sistem yang dibuat
dahulu dengan menggunakan metode yang
lebih lengkap dan teratur.
ISSN : 2302-7088
2. Business Architecture
Mendefinisikan kondisi awal arsitektur
bisnis, menentukan model bisnis atau
aktivitas
bisnis
yang
diinginkan
berdasarkan skenario bisnis (dapat dilihat
pada tabel 1). Pada tahap ini tools dan
metode umum untuk pemodelan seperti:
Usecase Diagram, Activity Diagram dan
Squence Diagramdapat digunakan untuk
membangun model yang diperlukan.
Tabel 1. Bisnis Arsitektur
No
1
2
3
Business Proses
Surat menyurat
Inventaris
Pelatihan
4
Perindustrian
5
Perlindungan
Usaha
Konsumen
Gambar 1.Architecture development method
HASIL DAN PEMBAHASAN
Tahapan dari Togaf ADM secara ringkas bisa
dijelaskan sebagai berikut dan hal paling
penting terletak pada Architecture Visiondan
Business Architecturekarena rancangan dasar
atau utama dari Togaf ADM.
6
Promosi
7
Stimulasi
&
Domain Pengguna
Semua Domain
Semua Domain
• Sarana & Produksi Industri
• Bina Usaha Industri
• Bina Usaha Perdagangan
• Perlindungan Usaha &
Konsumen
• Pelaku Industri
• Pelaku Perdagangan
• Sarana & Produksi Industri
• Bina Usaha Industri
• Pelaku Industri
• Perlindungan Usaha &
Konsumen
• Pelaku Industri
• Pelaku Perdagangan
• Masyarakat
• Sarana & Produksi Industri
• Pelaku Industri
• Pelaku Perdagangan
• Masyarakat
• Sarana & Produksi Industri
• Pelaku Industri
KESIMPULAN DAN SARAN
1. Architecture Vision
Dalam
Tahap
ini
Menciptakan
keseragaman
pandangan
mengenai
pentingnya arsitektur enterprise untuk
mencapai
tujuan
Disperindag
yang
dirumuskan dalam bentuk strategi serta
menentukan lingkup dari arsitektur yang
akan
dikembangkanberdasarkan
dari
tupoksi dari setiap bidang yang di dapat
dari susunan organisasi (dapat dilihat di
gambar 2).
1. Kesimpulan
Kesimpulan dari penelitian ini adalah
Enterprise Architecture Framework (EAF).
Untuk pengembangan kedepan, didalam
membangun blue print harus menerapkan
suatu arsitektur berbasis obyek yaitu
mengikuti kerangka TOGAF ADM yang
digunakan untuk pengambilan keputusan
bagi pejabat-pejabat struktural, dan Data
Warehouse untuk integrasi data didalam
pengembangan E-Gov baik data data
spasial ataupun non spasial. Rancangan
Enterprise Architectureini tunduk pada
Peraturan Bupati Bangkalan nomor 38
tahun 2010 tentang Uraian Tugas Jabatan
Struktural pada Dinas Perindustrian dan
Perdagangan.
2. Saran
Dari hasil perancangan business prosess ini,
didapati bebarapa kelemahan perancangan
yang kedepannya diharapkan dapat
Gambar 2. Susunan Organisasi Disperindag
SI-217
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
diperbaiki agar dapat berfungsi dengan
lebih optimal, yaitu penambahan rancangan
bagian keuangan
[4]
DAFTAR PUSTAKA
[1] Yunis, R., Surendro, K. (2009).
Perancangan
Model
Enterprise
Architecture dengan TOGAF Architecture
Development Method, Prosiding SNATI,
ISSN : 1907-5022, (UII, Yogyakarta),
E25-E31.
[2] Yunis, R., Surendro, K. (2009). Model
Enterprise Architecture Untuk Perguruan
Tinggi Di Indonesia, Prosiding semnasIF,
ISSN : 1979-2328, (UPN “Veteran”,
Yogyakarta), E72-E79.
[3] Supriyana, Iyan (2010). Perencanaan
Model Arsitektur Bisnis, Arsitektur Sistem
Informasi Dan Arsitektur Teknologi
Dengan Menggunakan TOGAF: Studi
Kasus Bakosurtanal, Prosiding Jurnal
[5]
[6]
[7]
SI-218
ISSN : 2302-7088
Generic, ISSN: 1907-4093, (Bakosurtanal,
Jawa Barat), Vol. 5 No.1.
Budi Setiawan, Erwin (2009). Pemilihan
Ea Framework, Prosiding SNATI, ISSN:
1907-5022, (Institut Teknologi Telkom,
Bandung), B114-B19.
Yunis Roni, Surendro Krisdanto, Panjaitan
Erwin S. Pemanfaatan TOGAF ADM
untuk Perancangan Model Enterprise
Architecture. Institut Teknologi Bandung,
Bandung.
Yunis Roni, Surendro Kridanto, Erwin
Panjaitan S.. Pengembangan Model
Arsitektur Enterprise untuk Perguruan
Tinggi. Institut Teknologi Bandung,
Bandung.
Kuswardani Mutyarini, ST., dan Dr. Ir.
Jaka Sembiring (2006). Arsitektur Sistem
Informasi untuk Institusi Perguruan Tinggi
di Indonesia. Institut Teknologi Bandung,
Bandung.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
SI- 205
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
SISTEM PENDUKUNG KEPUTUSAN PEMILIHAN PENCAHAYAAN
INSTALASI MEDIK DENGAN MENGGUNAKAN METODE PAPRICA
Riza Alfita
Fakultas Teknik Universitas Trunojoyo Madura
E-Mail: [email protected]
Abstrak
Metode PAPRIKA adalah suatu metode yang digunakan untuk sistem pendukung
keputusan multi-kriteria (MCDM) atau analisis conjoint berdasarkan preferensi
dengan menggunakan peringkat alternatif. Sehingga, hasil dari program tersebut
tergantung pada jumlah kriteria dan kategori, jumlah kriteria berpasangan dari semua
alternatif yang mungkin berpotensi dijadikan suatu keputusan adalah kriteria yang
mempunyai bobot terbesar setelah dihitung menggunakan matrik berpasangan.
Pedoman pencahayaan di rumah sakit sudah lama diharapkan, karena pencahayaan
merupakan salah satu parameter kesehatan lingkungan rumah sakit yang harus
memenuhi persyaratan dan nilai tertentu, dari aplikasi yang telah dirancang maka
dapat disimpulkan bahwa program tersebut telah dapat diaplikasikan untuk
menghitung besarnya intensitas cahaya yang dibutuhkan di rumah sakit. Pedoman
pencahayaan di rumah sakit sudah lama diharapkan, karena pencahayaan merupakan
salah satu parameter kesehatan lingkungan rumah sakit yang harus memenuhi
persyaratan dan nilai tertentu. Pencahayaan yang kurang dapat mengganggu pelayanan
kesehatan di rumah sakit dan dapat menimbulkan gangguan terhadap kesehatan.
Kata kunci: PAPRIKA, Multi Criteria Decision Making
Abstract
PAPRIKA is a method used for decision support system of multi-criteria (MCDM) or
conjoint analysis of preference based decision making using alternative ranking. thus,
the results of the program depends on the number of criteria and categories, the
number of pairs of all the alternative criteria that may potentially be used as a
decision criterion is to have the greatest weight as calculated using pairwise matrix.
Guidelines for lighting in hospitals has long been expected, because the lighting is one
of the health parameters hospital environment must meet certain requirements and
value, of the applications that have been designed, it can be concluded that the
program has to be applied to calculate the intensity of light needed at hospital.
Guidelines for lighting in hospitals has long been expected, because the lighting is one
of the health parameters hospital environment must meet certain requirements and
values. Less lighting can disrupt health services in hospitals and can cause disruption
to health.
Key words: PAPRIKA, Multi Criteria, Decision Making
CI-206
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
karena tidak terasipkan secara lengkap dan
lain-lain), dan hal-hal yang terkait manajemen
energi pada bangunan gedung tersebut.
Melihat kondisi tersebut, maka
diperlukan
adanya
sistem
pendukung
keputusan pemilihan pencahayaan yang sesuai
dengan kondisi instalasi medik di rumah sakit.
PENDAHULUAN
Pedoman pencahayaan di rumah sakit
sudah lama diharapkan, karena pencahayaan
merupakan salah satu parameter kesehatan
lingkungan rumah sakit yang harus memenuhi
persyaratan dan nilai tertentu
Pencahayaan
yang
kurang
dapat
mengganggu pelayanan kesehatan di rumah
sakit dan dapat menimbulkan gangguan
terhadap kesehatan.
Kriteria yang terdapat dalam penelitian
ini didasarkan atas pertimbangan norma-norma
kesehatan lingkungan rumah sakit dan hospital
engineering, dengan demikian diharapkan bila
kriteria pencahayaan di rumah sakit diterapkan
dan dipenuhi oleh pengelola rumah sakit akan
dapat memperlancar dan meningkatkan
pelayanan rumah sakit dan menambah citra
rumah sakit dari segi kualitas lingkungan
sebagai tempat yang nyaman, terang dan
aman.[1]
Pencahayaan di rumah sakit pada
umumnya menggunakan sumber listrik yang
berasal dari PLN atau pembangkit tenaga
listrik yang dimiliki oleh rumah sakit. Sistem
pencahayaan harus dipilih dan mudah
penggunaannya, efektif, nyaman untuk
penglihatan, tidak menghambat kelancaran
kegiatan, tidak mengganggu kesehatan
terutama dalam ruang-ruang tertentu dan
menggunakan energi seminimal mungkin.
Indonesia telah memiliki standart audit
energi pada bangunan gedung yaitu SNI 036196-2000. Standart prosedur audit energi
bangunan gedung memuat prosedur audit
energi yang diperuntukkan bagi semua pihak
yang terlibat dalam perencanaan, pelaksanaan,
pengawasan, dan pengelolaan gedung.
Bangunan
gedung
disini
mencakup
perkantoran, hotel, pertokoan, rumah sakit,
apartemen, dan rumah tinggal. Pada Standart
prosedur audit energi bangunan gedung
didefinisikan sebagai teknik yang dipakai
untuk menghitung besarnya konsumsi energi
pada bangunan gedung dan mengenali caracara untuk pengehamatannya.
Praktek pelaksanaan dilapangan, banyak
sekali bangunan yang tidak siap untuk diaudit,
dalam
arti
tidak
menyediakan/sulit
menyediakan kelengkapan-kelengkapan data
dasar yang dibutuhkan untuk pelaksanaan
teknis audit terarsipkan (misalnya karena data
instalasi listrik as built drawing tidak ada
TUJUAN PENELITIAN
Tujuan penelitian ini adalah
- Membuat aplikasi sistem pendukung
keputusan pencahayaan menggunakan
metode PAPRICA.
- Membuat aplikasi perhitungan Iluminasi
berdasarkan
standart
Departemen
Kesehatan RI dan SNI 03-6196-2000.
TINJAUAN PUSTAKA
Audit Energi Listrik
Standart prosedur audit energi pada
bangunan
gedung
rumah
sakit
ini
dimaksudkan sebagai pedoman bagi semua
pihak yang terlibat dalam perencanaan,
pelaksanaan, pengawasan dan pengelolaan
bangunan gedung rumah sakit dalam rangka
peningkatan efisiensi penggunaan energi dan
menekan biaya energi tanpa harus mengurangi
kualitas kinerjanya. Audit energi bertujuan
mengetahui "Potret Penggunaan Energi" dan
mencari
upaya
peningkatan
efisiensi
penggunaan energi. Pembahasan audit energi
meliputi : prosedur audit energi, audit energi
awal, audit energi rinci, identifikasi peluang
hemat energi, analisis peluang hemat energi,
laporan dan rekomendasi.[2]
Konsumsi energi listrik disuatu Rumah
Sakit harus dipikirkan sejak perencanaan dan
merupakan hasil pemikiran dari perencana,
pemilik dan pelaksana. Perencanaan sebuah
bangunan termasuk konsumsi energi listrik
memperhatikan pula perkembangan kebutuhan
pada masa yang akan datang. Akibat
keterbatasan dana dan aspek sosial yang lain,
segala aspek perencanaan tidak dapat
dilaksanakan oleh pemilik maupun pelaksana.
Tidak
sesuainya
perencanaan
dengan
pelaksanaan perlu adanya evaluasi agar dapat
menggunakan energi listrik seefisien mungkin
sehingga biaya operasional dapat ditekan
serendah-rendahnya. Evaluasi pemakaian
energi listrik merupakan penelitian secara
menyeluruh dari aspek historis dan aspek
pengukuran di lapangan mengenai peralatan
SI-207
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
dan konsumsi energi listrik yang dikenal
dengan audit energi. Audit energi ini
dimaksudkan untuk mengetahui tingkat
pemakaian energi listrik, sehingga dapat
diketahui efisien dan tidaknya konsumen
dalam pemakaian energi listrik dan diketahui
peluang
penghematan
yang
dapat
dilaksanakan.
ISSN : 2302-7088
alat bantu bagi para pengambil keputusan
untuk memperluas kapabilitas mereka, namun
tidak untuk menggantikan penilaian. DSS
ditujukan untuk keputusan-keputusan yang
memerlukan penilaian atau pada keputusankeputusan yang sama sekali tidak dapat
didukung oleh algoritma.
Komponen-komponen DSS[3]
- Subsistem Manajeman Data
Subsistem manajeman data Memasukkan
satu database yang berisi data yang relevan
untuk situasi dan dikelola oleh perangkat
lunak yang disebut sistem manajemen
database (DBMS). Subsistem manajemen
data dapat diinterkoneksikan dengan data
warehouse, suatu data yang relevan untuk
pengambil keputusan. Biasanya data
disimpan atau diakses via server web
database
- Subsistem Manajemen Model.
Merupakan paket perangkat lunak yang
memasukkan model keuangan, statistik, ilmu
manajemen atau model kuantitatif lainnya
yang memberikan kapabilitas analitik dan
manajemen perangkat lunak yang tepat.
Bahasa pemodelan untuk membangun
model-model kustom yang dimasukkan.
Perangkat lunak ini sering disebut sistem
manajeman basis model (MBMS) komponen
ini dapat dikoneksikan ke penyimpnan yang
ada pada model.
- Subsistem Antarmuka Pengguna.
Pengguna berkomunikasi dengan dan
memerintahkan DSS melalui subsistem ini.
Pengguna
adalah
bagian
yang
dipertimbangkan dari sistem. Para peneliti
menegaskan bahwa beberapa kontribusi unik
dari DSS berasal dari interaksi yang intensif
antara komputer dan pembuat keputusan.
- Subsistem
Manajemen
Berbasis
Pengetahuan.
Subsistem ini dapat mendukung semua
subsistem lain atau bertindak sebagai suatu
komponen independent. Ia memberikan
intelligensi untuk memperbesar pengetahuan
si pengambil keputusan
Gambar 1. Bagan Alur Audit Energi dan
Implementasi (SNI 03- 6196-2000)
Penelitian tentang audit energi yang
akan dilaksanakan di Departemen Kesehatan
RI dilakukan dengan mengikuti prosedur audit
energi Standar Nasional Indonesia (SNI 036196–2000). Parameter IKE (Intensitas
Konsumsi Energi) menggunakan Pedoman
Pelaksanaan
Konservasi
Energi
dan
Pengawasan di lingkungan Departemen
Kesehatan RI sebagai tolak ukur tingkat
pemakaian energi listrik. Proses audit energi
meliputi audit awal, audit rinci, implementasi
dan peluang hemat energi.
METODE PAPRIKA
Decision Support System
Definisi DSS menunjukkan DSS sebagai
sebuah sistem yang dimaksudkan untuk
mendukung para pengambil keputusan
manajerial dalam situasi keputusan semi
terstruktur. DSS dimaksudkan untuk menjadi
Metode paprika adalah suatu metode yang
digunakan untuk pengambil keputusan multi
kriteria/multicriteria
decision
making
(MCDM) atau analisis conjoint berdasarkan
keputusan-keputusan
preferensi
yang
SI-208
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
D
E
F
dinyatakan dengan peringkat berpasangan
alternatif. Metode paprika digunakan untuk
menghitung nilai pada kriteria atau atribut
untuk
keputusan
yang
melibatkan
perangkingan, seperti namanya, model nilai
aditif multi-atribut dengan kategori kinerja
merupakan model yang terdiri dari beberapa
kriteria (atau atribut), dengan dua atau lebih
kategori atau tingkatan dalam setiap kriteria,
yang digabungkan additively. Setiap kategori
akan mempunyai nilai yang mencerminkan
penting atau tidaknya kriteria nilai-nilai
tersebut dijumlahkan terhadap seluruh kriteria
untuk mendapatkan skor total.
PAPRIKA adalah singkatan dari
untuk
Potentially All Pairwise Ranking of All
Possible Alternatives. Metode PAPRIKA
diperlukan untuk model nilai alternatif tertentu
peringkat yang diketahui para pengambil
keputusan. Oleh karena itu, untuk sebagian
besar tujuan praktis pembuat keputusan tidak
mungkin mendefinisikan lebih dari dua
kriteria, sehingga mengurangi beban elisitasi.
Metode PAPRIKA dapat diandalkan dengan
jumlah kriteria yang kurang dari 100 dan
eksekusi program dapat relatif cepat.
200
500
1000
300
700
1500
500
1000
2000
Sumber : Departemen Kesehatan RI
Adapun yang termasuk kategori tersebut
adalah :
A : Kamar Gelap Spesi
B : X Ray, Mamography, Card Ography
C : Bed Waiting, Panel listrik, Gudang Film X
Ray & Kimia, Moktimany (R. Jenasah)
D : Kamar Mandi Jenazah, R. Administrasi
E : R. Operative Dentistry, Odotektomy, R,
Injeksi
F : Minor Surgery, Bedah Forensik
Tabel 2. Kriteria dan Sub Kriteria
Kriteria
Sub Kriteria
Intensitas dan Distribusi
Baik (3)
Cahaya (A)
Kurang (2)
Lebih (1)
Efikasi (B)
Baik (3)
Kurang (2)
Lebih (1)
Efisiensi (C)
Baik (3)
Sedang (2)
Jelek (1)
Umur Lampu (D)
Lama (3)
Sedang (2)
Singkat (1)
Efek Kejelasan
Jelas (3)
Warna/Rendering (E)
Sedang (2)
Tidak Jelas (1)
PEMBAHASAN
Pedoman pencahayaan yang diterapkan dalam
penelitian ini harus memperhatikan hal-hal
berikut :
- Keselamatan
pasien
dan
tenaga
medis/paramedis
- Peningkatan kecermatan
- Kesehatan yang lebih baik
- Suasana yang lebih nyaman
Pemilihan kriteria yang akan diinputkan dalam
metode PAPRIKA adalah sebagai berikut :
- Intensitas penerangan dan Distribusi
Cahaya
- Efikasi
- Efisiensi
- Umur Lampu
- Efek kejelasan warna/Rendering
Perhitungan pencahayaan di rumah sakit ini
memuat penjelasan dan teori pencahayaan
yang disesuaikan dengan bidang kerja.
Tabel 1. Daftar Penerangan
Karateristik
Lux
Ruangan
Min Diharapkan
A
20
30
B
50
75
C
100
150
ISSN : 2302-7088
Gambar 2. Capture Input Jenis Ruang
beserta Kategori Pencahayaan
Mak.
50
100
200
SI-209
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
KESIMPULAN
1. Aplikasi yang telah dibuat dapat
digunakan sebagai sistem pendukung
keputusan
pemilihan
peralatan
penerangan yang sesuai dengan
standart Departemen Kesehatan RI.
2. Aplikasi
tersebut
telah
dapat
diaplikasikan
untuk
menghitung
Illuminasi yang dibutuhkan dalam
instalasi medik rumah sakit
3. Metode PAPRIKA dapat digunakan
sebagai salah satu metode untuk
sistem pendukung keputusan
Gambar 3. Capture Jenis Penerangan
Gambar 4. Capture Hasil Perhitungan Matrik
Berpasangan Dengan Metode PAPRIKA
SARAN
A3+B3+C3+D3+E3 > A3+B3+C3+D3+E2 >
A3+B3+C3+D2+E3 > A3+B3+C2+D3+E3
1. Perlu adanya kajian lebih lanjut
mengenai
kehandalan
metode
PAPRIKA
2. Aplikasi
yang
dibuat
perlu
ditambahkan kriteria yang lebih
spesifik
Dari perhitungan perbandaingan matrik pada
program diatas maka dapat disimpulkan bahwa
sistem penerangan yang dapat digunakan
adalah kriteria yang mempunyai nilai terbesar
DAFTAR PUSTAKA
Use Case
[1] Wasisto, Broto. Pedoman Pencahayaan Di
Rumah Sakit. Jakarta : Departemen
Kesehatan Republik Indonesia.
[2] Endro, Herman. Teknik Penghematan
Energi Pada Sistem Pencahayaan. Jakarta:
Departemen Pendidikan Nasional. 2003.
[3] Turban, Efraim. Decision Support System
and Intelligent Systems. Yogyakarta :
Andi Publisher. 2005
[4] Audit Energi dan Implementasi (SNI 036196-2000)
Login
Manajemen Data Kriteria
Admin
Laporan
Pimpinan Proyek
Manajemen Data Intensitas Cahaya
Input Data Dari Flux Meter
Hitung Jumlah Armatur
Gambar 3. Use Case Diagram
SI-210
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
DATA MINING : METODE HARD CLUSTERING
STUDI KASUS ANALISA PELANGGAN PERUSAHAAN DAERAH AIR
MINUM KOTAMADYA SURABAYA
Taufik
Departemen Matematika, Fak. Sains dan Teknologi Universitas Airlangga
E-mail : [email protected]
Abstrak
Dunia bisnis yang penuh persaingan membuat para pelakunya harus selalu
memikirkan strategi-strategi terobosan yang dapat menjamin kelangsungan
bisnis mereka. Salah satu aset utama yang dimiliki oleh perusahaan masa
kini adalah data bisnis dalam jumlah yang luar biasa banyak. Ini melahirkan
kebutuhan akan adanya teknologi yang dapat memanfaatkannya untuk
membangkitkan “pengetahuan-pengetahuan” baru, yang dapat membantu
dalam pengaturan strategi bisnis. Teknologi data mining hadir sebagai solusi.
Penelitian ini memberikan alternatif pengelompokan data pdam kota
Surabaya dengan menerapkan metode Algoritma Clustering, K-Means.
Dengan adanya fakta-fakta tersebut maka penelitian ini akan menerapkan
rekategori pengelompokkan pelanggan, untuk kelompok pelanggan rumah
tangga selain berdasar lebar jalan/kelas jalan juga berdasarkan nilai NJOP,
daya listrik dan luas bangunan. Dengan klasifikasi kelompok pelanggan
yang baru ini, diharapkan dari sisi keadilan dapat tercapai tepat sasaran.
Pengujian yang telah dijalankan menunjukkan bahwa pencapaian algoritma
K-mean adalah baik. Dengan Adanya aplikasi ini dapat menyediakan
informasi untuk membantu menganalisa karakteristik pelanggan Perusahaan
Daerah Air Minum (PDAM) Kota Surabaya.
Kata kunci : Data mining, Cluster, K-Means, karakteristik pelanggan
Abstract
The business world is full of competition makes the perpetrators should
always think about breakthrough strategies that can ensure the continuity of
their business. One of main assets owned by the company today is a business
data in many outstanding quantities. This led to the need for technology that
can use it to generate new knowledges, which can help in setting business
strategy.Present data mining technology as a solution. This study provides
an alternative grouping of data PDAM Surabaya by applying clustering
algorithm, K-Means. Given these facts, this study will apply the re -grouping
categories of customer, for the customer's household in addition based on
road width / road grade is also based on the value of NJOP, electrical power
and building area. With the classification of a new group of customers, are
expected from the side of justice can be achieved on target. Tests that have
been carried out showing that the achievement of K-means algorithm is
good. With the existence of this application can provide information to help
analyze customer characteristics Regional Water Company (PDAM)
Surabaya.
Key words: Data mining, Cluster, K-Means, customer characteristics
SI-1
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
dan
jumlah
kran.
Bagaimana
mendapatkan pola dan pengetahuan dari
data-data yang banyak seperti data
kuesioner pelanggan pada Perusahaan
Daerah Air Minum Kota Surabaya.
Perencanaan diskriminasi tarif air
diantara kelompok pelanggan Perusahaan
Daerah Air Minum Kota Surabaya.
Adapun tujuan dari perancangan dan
pembuatan data mining ini adalah
sebagai berikut :
Untuk mengetahui pengelompokan
pelanggan Perusahaan Daerah Air
Minum Kota Surabaya berdasarkan guna
persil, luas tanah, luas bangunan, jumlah
lantai bangunan, lebar jalan, daya listrik,
NJOP dan jumlah kran dengan
menggunakan
metode
k-means
clustering.
Untuk
mengetahui
informasi
diskriminasi tarif diantara kelompok
pelanggan Perusahaan Daerah Air
Minum Kota Surabaya berdasarkan
pengelompokan pelanggan yang telah
ditentukan.
Sedangkan manfaat dari perancangan
Data Mining Dengan Metode K-Means
Clustering
Untuk
Menganalisa
Karakteristik Pelanggan PDAM Kota
Surabaya ini adalah:
Membantu
organisasi-organisasi
khususnya Perusahaan Daerah Air
Minum Kota Surabaya untuk mengetahui
karakteristik dari pelanggan sehingga
dapat
menghasilkan
informasi
diskriminasi tarif air yang berguna.
Membantu Perusahaan Daerah Air
Minum
dalam
melakukan
pengelompokan (clustering) pelanggan
dari data-data kuesioner yang telah
terkumpul.
Mempermudah kinerja manajer dalam
menentukan diskriminasi tarif air
Perusahaan Daerah Air Minum Kota
Surabaya.
PENDAHULUAN
Data perkembangan harga air riil
(tahun 1983) selama periode 1991 hingga
1999 bergerak tidak continue (rata-rata
tumbuh 1.6 persen per tahun) dan
mencapai titik terendah pada tahun 1999.
Fenomena krisis ekonomi mengakibatkan
hampir keseluruhan, 29 dari 37 PDAM
tidak menaikkan harga dan menghadapi
persoalan keuangan. Dalam posisi ini
PDAM Kota Surabaya umumnya tidak
punya pilihan untuk berinvestasi dan
mengembangkan kegiatannya.
Langkah operasional untuk meningkatkan pendapatan adalah dengan
mendiskriminasi tarif air terutama di
dalam kelompok pelanggan. Diskriminasi
tarif air dilakukan berdasarkan guna
persil, luas tanah, luas bangunan, jumlah
lantai bangunan, lebar jalan, daya listrik,
NJOP (Nilai Jual Objek Pajak) dan
jumlah kran. Diskriminasi tarif ini
dimaksudkan untuk memperbaiki krisis
ekonomi yang sedang dialami PDAM
Kota Surabaya.
Kondisi ini melahirkan kebutuhan
akan adanya teknologi yang dapat
memanfaatkan data pelanggan yang luar
biasa banyak untuk membangkitkan
informasi-informasi baru yang berguna
seperti informasi diskriminasi tarif air
pada pelanggan PDAM Kota Surabaya.
Teknologi data mining dan metode kmeans clustering merupakan solusi yang
tepat.
Metode
k-means
clustering
merupakan solusi yang tepat bagi
permasalahan diatas, karena metode kmeans clustering memiliki akurasi
estimasi jumlah kelompok yang lebih
baik dibandingkan metode yang lainnya.
Mengacu kepada latar belakang
masalah diatas maka rumusan masalah
dapat dijabarkan sebagai berikut :
Bagaimana
pengelompokan
pelanggan berdasarkan guna persil, luas
tanah, luas bangunan, jumlah lantai
bangunan, lebar jalan, daya listrik, NJOP
MATERI DAN METODE
Data Mining
SI-1
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Data mining adalah suatu teknik yang
terotomasi dan mudah digunakan untuk
mendapatkan pola dan pengetahuan dari
data-data yang banyak seperti dari
database yang besar, gudang data suatu
perusahaan,
atau
tempat-tempat
penyimpanan data yang lainnya. Tanpa
data mining, kita hanya akan mempunyai
sekumpulan/segudang data yang sangat
banyak namun tidak tahu data tersebut
harus diapakan. Kita tidak tahu
bagaimana cara menganalisis data
tersebut, baik karena banyaknya data
tersebut maupun karena kompleksnya
data tersebut. Bila tidak diolah, akan
tercipta suatu kondisi yang disebut “Data
rich but information poor” dan orangorang biasa menyebut databasenya
sebagai “kuburan data”. Data mining bisa
mengubah
semua
itu
menjadi
pengetahuan-pengetahuan
yang
ditambang dari data yang ada.
Data mining berkaitan dengan ilmu
probabilitas dan statistik, sedangkan
machine learning menjadi alat analisis
dalam data mining. Bidang-bidang ini
berkaitan antara yang satu dengan yang
lain, seperti pada gambar di bawah ini.
ISSN : 2302-7088
Salah satu metode dalam data mining
yang sering dipakai adalah clustering.
Clustering mengidentifikasi orang-orang
yang memiliki kesamaan karakteristik
tertentu berdasarkan kategori atau
cluster, dan kemudian menggunakan
karakteristik tersebut sebagai vektor
karakteristik atau centroid. Kategorikategori ini dapat bersifat eksklusif dan
ekshaustif mutual, atau mengandung
representasi yang lebih kaya seperti
kategori yang hirarkis atau saling
menumpu (overlapping). Pengelompokan
ini digunakan oleh perusahaan untuk
membuat laporan mengenai karakteristik
umum dari pelanggan (customer) yang
berbeda.
Tujuan utama dari metode clustering
adalah
pengelompokan
sejumlah
data/objek ke dalam cluster (grup)
sehingga dalam setiap cluster akan berisi
data yang semirip mungkin. Dalam
clustering
kita
berusaha
untuk
menempatkan objek yang mirip (jaraknya
dekat) dalam satu cluster dan membuat
jarak antar cluster sejauh mungkin. Ini
berarti objek dalam satu cluster sangat
mirip satu sama lain dan berbeda dengan
objek dalam cluster-cluster yang lain.
Dalam teknik ini kita tidak tahu
sebelumnya berapa jumlah cluster dan
bagaimana
pengelompokannya.
Clustering adalah salah satu teknik
unsupervised learning dimana kita tidak
perlu melatih metode tersebut atau tidak
ada fase learning. Unsupervised learning
adalah metode-metode yang tidak
membutuhkan label ataupun keluaran
dari setiap data yang kita investigasi.
Gambar 1. Data Mining Merupakan
Irisan Dari Berbagai Disiplin
Perbedaan dari gambar di atas sebagai
berikut:
Statistik : lebih berdasarkan teori,
lebih fokus pada pengujian hipotesis.
Machine Learning : lebih bersifat
heuristik,
fokus
pada
perbaikan
performansi dari suatu teknik learning.
Data Mining : gabungan teori dan
heuristik, fokus pada seluruh proses
penemuan knowledge/pola termasuk data
cleaning, learning, dan visualisasi dari
hasilnya.
K-Means
K-means merupakan salah satu
metode yang paling sederhana dan umum
dikenal. K-means berusaha mempartisi
data yang ada ke dalam bentuk satu atau
lebih cluster/kelompok. Metode ini
mempartisi
data
ke
dalam
cluster/kelompok sehingga data yang
memiliki karakteristik yang sama
dikelompokkan ke dalam satu cluster
Clustering
SI-2
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
yang sama dan data yang mempunyai
karakteristik
yang
berbeda
dikelompokkan ke dalam kelompok yang
lain. Adapun kelebihan dari metode kmeans ini adalah sebagai berikut:
K-means sangat cepat dalam proses
clustering. Meminimalisasikan objective
function yang diset dalam proses
clustering. Meminimalisasikan variasi di
dalam
suatu
cluster
dan
memaksimalisasikan variasi antar cluster.
Sering digunakan pada data mining
karena kesesuaian untuk pengolahan
klasifikasi data dalam ukuran besar.
Sedangkan beberapa kelemahan yang
sering muncul pada saat menggunakan
metode k-means adalah sebagai berikut:
1. K-means sangat sensitif pada
pembangkitan centroids awal secara
random.
2. Hasil clustering dengan k-means
bersifat tidak unik (selalu berubahubah). Terkadang baik, terkadang
jelek.
3. K-Means
sangat
sulit
untuk
mencapai global optimum.
Untuk melakukan clustering ini, nilai
k harus ditentukan terlebih dahulu.
Secara detail kita bisa menggunakan
ukuran
ketidakmiripan
untuk
mengelompokkan objek. Ketidakmiripan
bisa diterjemahkan dalam konsep jarak.
Jika jarak dua objek atau data titik cukup
dekat, maka dua objek itu mirip. Semakin
dekat
berarti
semakin
tinggi
kemiripannya. Semakin tinggi nilai jarak,
semakin tinggi ketidakmiripannya. Dasar
metode k-means adalah sebagai berikut:
1. Tentukan jumlah k cluster.
2. Inisialisasi
k
pusat
cluster
(centroid), dapat diperoleh secara
acak.
3. Tempatkan setiap data ke centroid
terdekat. Kedekatan dua data
ditentukan berdasar jarak kedua data
tersebut. Dalam tahap ini perlu
dihitung jarak tiap data ke tiap
centroid. Jarak paling dekat antara
satu data dengan satu cluster tertentu
akan menentukan suatu data masuk
ISSN : 2302-7088
dalam
cluster
mana.
Untuk
menghitung jarak digunakan metode
pengukuran
jarak
euclidean
distance.
n
∑= (x
dxy =
i
− yi )
2
……(1)
i 1
4. Hitung kembali centroid dengan
keanggotaan cluster yang sekarang.
centroid baru adalah mean (ratarata) dari semua data/objek dalam
satu cluster. Kemudian hitung
jumlah square Error.
ci =
1
mi
∑ x ………….(2)
xεCi
k
SSE = ∑ ∑ ci − x
2
…(3)
i =1 x∈Ci
5. Ulangi langkah 3 dan 4 hingga
konvergen.
Kriteria
konvergen
adalah fungsi SSE berada di bawah
batas error ( ξ ) atau jumlah iterasi
berada pada batas maksimal iterasi.
METODOLOGI PENELITIAN
Perancangan
data
mining
ini
menggunakan
model
proses
pengembangan sistem perangkat lunak
yaitu model System Development Life
Cycle (SDLC). Menurut Kendall and
Kendall dalam buku Analisis dan
Perancangan Sistem Jilid 6 [2003:11],
SDLC adalah pendekatan melalui
beberapa tahap untuk menganalisa dan
merancang sistem dimana sistem tersebut
telah dikembangkan dengan sangat baik
melalui penggunaan siklus kegiatan
penganalisis dan pemakai secara spesifik.
SI-3
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Kelas-kelas tersebut adalah kelas
halaman utama, koneksi database, kmeans dan output klasterisasi.
Dari gambar 4 di atas terlihat bahwa
kelas koneksi database dan kelas k-means
berasal dari kelas halaman utama. Satu
halaman utama bisa digunakan untuk
melakukan satu koneksi database. Satu
halaman utama bisa melakukan satu kmeans. Satu k-means bisa menghasilkan
satu atau lebih output klasterisasi. Satu
output klasterisasi bisa dihasilkan satu
atau lebih k-means.
.
Gambar 2. Tujuh Tahap System
Development Life Cycle (SDLC)
PERANCANGAN SISTEM
Use Case Diagram
Pada perancangan data mining ini
terdapat satu aktor yaitu pemakai,
sedangkan use case yang dibutuhkan ada
tiga yaitu: use case koneksi database,
klasterisasi dan hasil klaster. Use case
koneksi database bersifat include
terhadap use case klasterisasi, yang
artinya sebelum klasterisasi harus
dilakukan koneksi database terlebih
dahulu. Use case hasil klaster juga
bersifat include terhadap use case
klasterisasi.
Tabel 1. Tabel Use Case
No
Nama Proses
1.
Koneksi
database
2.
Klasterisasi
3.
Hasil klaster
Keterangan
Use
case
ini
digunakan
untuk
mengatur koneksi
aplikasi ke DBMS.
Use
case
ini
digunakan
untuk
melakukan proses
klasterisasi dataset.
Use
case
ini
digunakan
untuk
menampilkan hasil
analisa klasterisasi.
Gambar 4. Class Diagram
Entity Relationship Diagram
Data Mining ini menggunakan 9 tabel
dalam database. Sembilan tabel tersebut
dibagi menjadi dua kelompok yaitu
kelompok tabel dimensi dan tabel fakta.
Kelompok tabel dimensi meliputi tabel
persil, tanah, bangunan, lantai_bangunan,
jalan, listrik, njop dan kran. Dan yang
termasuk dalam kelompok tabel fakta
meliputi tabel kuesioner.
HASIL DAN PEMBAHASAN
Teknologi
Untuk mengimplementasikan data
mining ini, maka dibutuhkan beberapa
hardware pendukung dan software
pendukung sebagai berikut:
Kebutuhan hardware
Perangkat keras (hardware) yang
dibutuhkan untuk mengimplementasikan
data mining ini antara lain:
• PC Pentium (Minimal Pentium
IV).
Gambar 3. Use Case Diagram
Class Diagram
Pada class diagram terdapat empat
kelas yang digunakan dalam aplikasi ini.
SI-4
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
•
•
•
ISSN : 2302-7088
Dalam implementasi sistem ini, yang
dapat dilakukan pada Data Mining
Dengan Metode K-Means Clustering
Untuk
Menganalisa
Karakteristik
Pelanggan PDAM Kota Surabaya ini
yaitu:
Bisa menghasilkan informasi pengelompokan pelanggan PDAM Kota
Surabaya berdasarkan guna persil, luas
tanah, luas bangunan, jumlah lantai
bangunan, lebar jalan, daya listrik, NJOP
dan jumlah kran dengan menggunakan
metode k-means clustering.
Bisa
menghasilkan
informasi
diskriminasi tarif diantara kelompok
pelanggan PDAM Kota Surabaya
berdasarkan pengelompokan pelanggan
yang telah ditentukan.
Sistem Operasi Windows XP
Profesional atau Windows Vista.
Memory
dengan
kapasitas
minimal 512 Mega byte.
Harddisk minimal 40 Giga byte.
Kebutuhan software
Untuk mejalankan Data Mining
Dengan Metode K-Means Clustering
Untuk
Menganalisa
Karakteristik
Pelanggan PDAM Kota Surabaya, maka
komputer yang digunakan harus sudah
terinstal software yang digunakan yaitu
Java Development Kit 1.6, Netbeans 6.1
dan Microsoft SQL Server 2005 dengan
sistem operasi Windows XP Profesional
atau Windows Vista.
Implementasi Sistem
Gambar 5. Entity Relationship Diagram
SI-5
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Kebutuhan hardware
Perangkat
keras
(hardware)
yang
dibutuhkan untuk mengimplementasikan data
mining ini antara lain:
• PC Pentium (Minimal Pentium IV).
• Sistem
Operasi
Windows
XP
Profesional atau Windows Vista.
• Memory dengan kapasitas minimal 512
Mega byte.
• Harddisk minimal 40 Giga byte.
ISSN : 2302-7088
Langkah-langkah
Sebelum melakukan proses klasterisasi,
pemakai harus melakukan koneksi database
terlebih dahulu. Dari halaman utama pilih
menu file → koneksi database.
Kebutuhan software
Untuk mejalankan Data Mining Dengan
Metode
K-Means
Clustering
Untuk
Menganalisa Karakteristik Pelanggan PDAM
Kota Surabaya, maka komputer yang
digunakan harus sudah terinstal software yang
digunakan yaitu Java Development Kit 1.6,
Netbeans 6.1 dan Microsoft SQL Server 2005
dengan sistem operasi Windows XP
Profesional atau Windows Vista.
Gambar 6. Halaman Utama
Masukkan nama server untuk koneksi pada
database. Setelah koneksi pada database
berhasil, pemakai bisa menekan tombol ok.
Isi konfigurasi klasterisasi sesuai dengan
kasus di atas seperti yang ditunjukkan pada
Gambar 8. Setelah menentukan konfigurasi
klasterisasi, pemakai bisa menekan tombol
start klaster untuk memulai proses klasterisasi.
Pada saat proses klasterisasi, program akan
mengelompokkan data kuesioner tersebut
berdasarkan jarak terdekat dengan centroid,
menghitung lamanya waktu yang diperlukan,
dan menghitung prosentase sum of the squared
error.
Implementasi Sistem
Dalam implementasi sistem ini, yang dapat
dilakukan pada Data Mining Dengan Metode
K-Means Clustering Untuk Menganalisa
Karakteristik
Pelanggan
PDAM
Kota
Surabaya ini yaitu:
Bisa menghasilkan informasi pengelompokan pelanggan PDAM Kota Surabaya
berdasarkan guna persil, luas tanah, luas
bangunan, jumlah lantai bangunan, lebar jalan,
daya listrik, NJOP dan jumlah kran dengan
menggunakan metode k-means clustering.
Bisa menghasilkan informasi diskriminasi
tarif diantara kelompok pelanggan PDAM
Kota Surabaya berdasarkan pengelompokan
pelanggan yang telah ditentukan.
Contoh Kasus:
Tentukan
informasi
pengelompokan
pelanggan dan diskriminasi tarif PDAM Kota
Surabaya berdasarkan dari data-data kuesioner
yang telah terkumpul. Misalkan:
• Jumlah
pengelompokan
yang
diinginkan sebanyak 10 pelanggan.
• Nilai Batas Error yang diinginkan
adalah 20%.
• Nilai iterasi maksimal sebanyak 3
iterasi.
Gambar 7. Halaman Koneksi Database
SI-2
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Gambar 10. Halaman Pengelompokan
Pelanggan
Gambar 8 Halaman Klasterisasi
Setelah proses klasterisasi selesai, hasil dari
klasterisasi tersebut akan ditampilkan pada
FrmHasil.java dan disimpan ke dalam database
dalam bentuk pengelompokan.
Tabel
2.
Pelanggan
Spesifikasi
Pengelompokan
Cluster Spesifikasi
Guna persil : tempat tinggal
Luas tanah : >= 300 m2
Luas bangunan : >= 300 m2
Jumlah lantai : 1 Lantai
1
Lebar jalan : 5 m <= Lebar Jalan < 6.5 m
Daya listrik : 2200 VA <= Daya Listrik < 4400 VA
Njop : >= Rp 500 juta
Jumlah kran : 2
Guna persil : tempat tinggal
Luas tanah : 36 m2 <= Luas Tanah < 120 m2
Luas bangunan : 120 m2 <= Luas Bangunan < 200
m2
2
Jumlah lantai : 1 Lantai
Lebar jalan : 6.5 m <= Lebar Jalan < 12 m
Daya listrik : 2200 VA <= Daya Listrik < 4400 VA
Njop : Rp 250 juta <= NJOP < Rp 500 juta
Jumlah kran : 2
Guna persil : Usaha
Luas tanah : 36 m2 <= Luas Tanah < 120 m2
Luas bangunan : 36 m2 <= Luas Bangunan < 120
m2
3
Jumlah lantai : 1 Lantai
Lebar jalan : 6.5 m <= Lebar Jalan < 12 m
Daya listrik : 2200 VA <= Daya Listrik < 4400 VA
Njop : Rp 150 juta <= NJOP < Rp 250 juta
Jumlah kran : 4
Guna persil : tempat tinggal
Luas tanah : 36 m2 <= Luas Tanah < 120 m2
Luas bangunan : 200 m2 <= Luas Bangunan < 300
m2
Jumlah lantai : 2 Lantai
4
Lebar jalan : 5 m <= Lebar Jalan < 6.5 m
Daya listrik : 2200 VA <= Daya Listrik < 4400 VA
Njop : Rp 250 juta <= NJOP < Rp 500 juta
Jumlah kran : 2
Guna persil : Rumah & Usaha/ Toko
Luas tanah : 36 m2 <= Luas Tanah < 120 m22
Luas bangunan : 200 m2 <= Luas Bangunan < 300
m2
5
Jumlah lantai : 1 Lantai
Lebar jalan : 5 m <= Lebar Jalan < 6.5 m
Daya listrik : 2200 VA <= Daya Listrik < 4400 VA
Njop : Rp 150 juta <= NJOP < Rp 250 juta
Jumlah kran : 6
HASIL IMPLEMENTASI SISTEM
History Klasterisasi
Pada halaman ini akan ditampilkan history
dari proses klasterisasi mulai dari inisialisasi
awal sampai akhir iterasi. Data pada tabel
menunjukkan data jarak tiap objek dengan
masing-masing centroid. Data pada text area
menunjukkan jumlah data pada masing-masing
cluster. Estmasi waktu merupakan waktu yang
dibutuhkan untuk menghasilkan cluster.
Pengelompokan Pelanggan
Pada halaman ini akan ditampilkan hasil
klasterisasi berupa informasi spesifikasi
pengelompokan
pelanggan
berdasarkan
parameter yang telah ditentukan pemakai
sebelumnya.
Gambar 9. Halaman History Klasterisasi
SI-3
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Tabel 3. Lanjutan Spesifikasi Pengelompokan
Pelanggan
Cluster
6
7
8
9
10
Spesifikasi
Guna persil : Rumah & Usaha/ Toko
Luas tanah : 120 m2 <= Luas Tanah < 200 m2
Luas bangunan : >= 300 m2
Jumlah lantai : 3 Lantai
Lebar jalan : 6.5 m <= Lebar Jalan < 12 m
Daya listrik : >= 4400 VA
Njop : >= Rp 500 juta
Jumlah kran : 3
Guna persil : tempat tinggal
Luas tanah : 36 m2 <= Luas Tanah < 120 m2
Luas bangunan : 36 m2 <= Luas Bangunan <
120 m2
Jumlah lantai : 1 Lantai
Lebar jalan : 3 m <= Lebar Jalan < 5 m
Daya listrik : 2200 VA <= Daya Listrik < 4400
VA
Njop : Rp 50 juta <= NJOP < Rp 150 juta
Jumlah kran : 2
Guna persil : tempat tinggal
Luas tanah : 36 m2 <= Luas Tanah < 120 m2
Luas bangunan : 120 m2 <= Luas Bangunan <
200 m2
Jumlah lantai : 1 Lantai
Lebar jalan : 3 m <= Lebar Jalan < 5 m
Daya listrik : < 1300 VA
Njop : Rp 50 juta <= NJOP < Rp 150 juta
Jumlah kran : 5
Guna persil : Tempat tinggal
Luas tanah : 120 m2 <= Luas Tanah < 200 m2
Luas bangunan : >= 300 m2
Jumlah lantai : 2 Lantai
Lebar jalan : 5 m <= Lebar Jalan < 6.5 m
Daya listrik : >= 4400 VA
Njop : >= Rp 500 juta
Jumlah kran : 6
Guna persil : tempat tinggal
Luas tanah : 36 m2 <= Luas Tanah < 120 m2
Luas bangunan : 36 m2 <= Luas Bangunan <
120 m2
Jumlah lantai : 1 Lantai
Lebar jalan : 5 m <= Lebar Jalan < 6.5 m
Daya listrik : < 1300 VA
Njop : Rp 50 juta <= NJOP < Rp 150 juta
Jumlah kran : 1
Gambar 11. Halaman Gambar Clustering
Diskriminasi Tarif
Pada halaman ini akan ditampilkan
informasi diskriminasi tarif air berdasarkan
pengelompokan
pelanggan
yang telah
terbentuk.
Gambar 12. Halaman Diskriminasi Tarif
Dari gambar diatas, dapat disimpulkan
bahwa hasil pengujian diskriminasi tarif air
pelanggan PDAM Kota Surabaya sebagai
berikut:
Tabel 4. Diskriminasi Tarif
Cluster
Gambar Clustering
Pada halaman ini akan ditampilkan gambar
dari hasil clustering. Gambar sebelah kiri
merupakan gambar klasterisasi untuk iterasi
pertama sedangkan gambar sebelah kanan
merupakan gambar akhir klasterisasi.
Kode Tarif
1
4C
2
4C
3
3B
4
1
5
4D
6
4C
Pemakaian
0-10
11-20
21-30
0-10
11-20
21-30
0-10
11-20
21-30
Non Progressif
0-10
11-20
21-30
0-10
11-20
21-30
Tarif
4000
6000
7500
4000
6000
7500
1500
3500
6000
600
6000
8000
9500
4000
6000
7500
Tabel 5. Lanjutan Diskriminasi Tarif
SI-4
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Cluster
Kode Tarif
7
4C
8
1
9
4C
10
4A
Pemakaian
0-10
11-20
21-30
Non Progressif
0-10
11-20
21-30
0-10
11-20
21-30
Tarif
4000
6000
7500
600
4000
6000
7500
1000
1500
2500
7.
ISSN : 2302-7088
jumlah maksimal iterasi. Semakin
besar jumlah record atau maksimal
iterasi yang ditentukan, semakin lama
waktu yang dibutuhkan untuk
menghasilkan cluster.
Pemakai harus melakukan proses
klasterisasi berulang-ulang untuk
mendapatkan hasil cluster yang sesuai.
Karena hasil cluster tergantung dari
penentuan centroid awal.
DAFTAR PUSTAKA
KESIMPULAN
[Rob06]
Robert
Schneider,
“SQL
Server 2005 Express Edition For
Dummies”, Wiley Publishing, Canada
2006.
[Bal06] Balter Alison , “Teach Yourself
Microsoft SQL Server 2005 Express in 24
Hours”, Sams Publishing, America 2006.
[Pao03] Paolo Giudici, “Applied Data Mining
Statistical Methods for Business and
Industry”, Wiley Publishing, England
2003.
[Mic04]
Michael J.A. Berry dan
Gordon S. Linoff, “Data Mining
Techniques For Marketing, Sales, and
Customer Relationship Management”,
Wiley Publishing, Canada 2004.
[Zhao05]
Zhao Hui Thang dan Jamie
MacLennan, “Data Mining With SQL
Server 2005”, Wiley Publishing, America
2005.
[San07] Santosa Budi, “Data Mining Teknik
dan Pemanfaatan Data Untuk Keperluan
Bisnis”, Graha Ilmu, Yogyakarta 2007.
[Ken03]
Kendall & Kendall, “Analisa
dan Perancangan Sistem”, jilid 1,
PT.Prenhallindo, Jakarta, 2003.
[Wah06]
Wahana computer, “Aplikasi
Database Dengan Java 2”, Andi Offset,
Yogyakarta, 2006.
Setelah Data Mining Dengan Metode
Kmeans Clustering Untuk Menganalisa
Karakteristik
Pelanggan
PDAM
Kota
Surabaya ini selesai dibuat, dapat diambil
kesimpulan sebagai berikut:
1.
Kelebihan Data Mining Dengan
Metode Kmeans Clustering Untuk
Menganalisa Karakteristik Pelanggan
PDAM Kota Surabaya adalah:
2.
Data mining ini sangat bermanfaat
untuk mempermudah pengelompokan
pelanggan PDAM Kota Surabaya
berdasarkan parameter yang telah
ditentukan sebelumnya.
3.
Mempermudah dalam penentuan
diskriminasi tarif air berdasarkan dari
pengelompokan pelanggan yang sudah
terbentuk.
4.
Kelemahan Data Mining Dengan
Metode Kmeans Clustering Untuk
Menganalisa Karakteristik Pelanggan
PDAM Kota Surabaya adalah:
5.
Penentuan parameter atau dataset pada
data mining ini masih dilakukan pada
satu tabel fakta. Sehingga pembacaan
dataset dilakukan mulai dari awal
kolom hingga akhir kolom.
6.
Estimasi waktu proses klasterisasi
tergantung dari jumlah record dan
SI-5
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
1
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
PERENCANAAN DESAIN SISTEM PENDUKUNG KEPUTUSAN BERBASIS EAGRIBUSINESS PADA KOMODITAS KEDELAI
Zainul Arham
Dosen Program Studi Sistem Informasi
Fakultas Sains dan Teknologi UIN Syarif Hidayatullah Jakarta
E-Mail: [email protected], [email protected]
Abstrak
Tantangan perdagangan global merupakan tuntutan di setiap lini
transaksi perdagangan, termasuk di komoditas kedelai yang
mengharuskan transaksi cepat dan akurat. Perluasan jangkauan pasar
untuk komoditas kedelai dapat dilakukan dengan menggunakan teknologi
informasi berbasis e-Agribisnis. Sebuah pangsa pasar yang besar akan
memberikan kesempatan kepada petani dan pengusaha kedelai untuk
meningkatkan produk dan untuk memperluas jangkauan pasar. Untuk
membangun sistem transaksi yang cepat, prototipe e-Agribisnis dilengkapi
dengan sistem pendukung keputusan dan sistem keamanan diperlukan
untuk memudahkan transaksi dalam pasar. Sampai saat ini, teknologi
informasi belum dimanfaatkan secara optimal dalam pengembangan
pasar komoditas kedelai di Indonesia, khususnya dalam merespon
tantangan perdagangan global dan persaingan produk dengan negaranegara lain.
Kata Kunci: e-Agribisnis, komoditas kedelai, sistem penunjang keputusan
Abstract
Global trade challenges require all trading transactions, including those in soybean
commodity, to be conducted at a high speed and accuracy. Expansion of market reach
for soybean commodity may be done by using information technology in the form of eAgribusiness. A large market share would give an opportunity to the farmers and
soybean entrepreneurs to increase their product and to expand their market reach. To
build a fast transaction system, an e-Agribusiness prototype completed with a
Decision Support System and a security system is required in order to ease the
transactions within markerters. Until now, information technology has not been
utilized optimally in the market development of soybean commodity in Indonesia, in
particular in response to global trade challenges and product competition with other
countries.
Key words: E-Agribusiness, Soybean commodity , Decision Support System.
2
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
PENDAHULUAN
Pengembangan pasar komoditas pertanian
dengan menerapkan teknologi informasi telah
dilakukan di beberapa negera Asia. Pada tahun
1983
Jepang
mengembangkan
sistem
informasi agribisnis berbasis jaringan melalui
sistem informasi pasar versi NAPASS
(Nationwide Agricultural Product) yang
didukung oleh 63 pasar induk dengan 156
komoditas pertanian baik dari dalam negeri
maupun luar negeri (Nanseki, 2003).
Selanjutnya Hoa (2004) menjelaskan bahwa
sejak
tahun
1996
Taiwan
mulai
mengembangkan sistem informasi harga dan
pemasaran berkelompok yang didukung oleh
78 pasar induk, sedangkan Vietnam
mengembangkan sistem informasi produk
pertanian tahun 1993 dengan versi VINAMET
(Vietnam Market Information Network).
Penelitian yang terkait dengan rancang
bangun sistem informasi di Indonesia antara
lain dilakukan oleh Eriyatno (2005) yang
menghasilkan prototipe Sistem Informasi
Agroindustri (SIAGRI) dengan karakterisrik
sistem multi konteks, multi komoditi, multi
relasi dan multi user. Sistem
informasi
ditujukan untuk penyediaan informasi yang
berhubungan dengan sarana produksi, nilai
ekonomi, situasi pasar, komoditi ekspor
potensial dan proses pengolahan. Informasi
dan pendukung keputusan yang berhubungan
dengan produk pertanian belum tercakup
dalam sistem tersebut.
Posisi Indonesia sebagai negera pengimpor
kedelai tidak menguntungkan secara ekonomis
terutama dilihat dari sisi penerimaan negara.
Secara umum Indonesia memiliki potensi
pengembangan kedelai dengan pangsa pasar
domestik dan regional yang besar. Pangsa
pasar yang besar akan memberikan peluang
kepada petani dan pengusaha olahan kedelai
untuk meningkatkan produksi dan memperluas
jangkauan pasar. Perluasan jangkauan pasar
dapat dilakukan dengan berbagai terobosan
diantaranya melalui peningkatan peranan
teknologi informasi untuk kepastian stok
komoditas kedelai dan hasil olahan kedelai
dalam bentuk e-agribusiness.
Peranan teknologi informasi dalam sistem
perdagangan produk kedelai cukup besar
dalam mempercepat proses transaksi antara
produsen
dan
konsumen.
Penyediaan
ISSN : 2302-7088
infrastruktur teknologi informasi di Indonesia
untuk sistem transaksi berbasiskan elektronik
(electronic transaction) cukup memadai
meskipun diperlukan perluasan terutama di
wilayah sentra produksi kedelai. Sampai saat
ini, pengembangan pasar komoditas kedelai di
Indonesia kurang optimal memanfaatkan
peranan teknologi informasi terutama dalam
menjawab tantangan pasar global dan
persaingan produk dengan negara lain.
Tujuan dari penelitian ini adalah desain
perencanaan sistem penunjang keputusan
berbasis e-agribusiness pada komoditas
kedelai, sedangkan uraian tujuan secara
spesifik adalah: (1) Menganalisis sistem
pemasaran
komoditas
kedelai
melalui
indentifikasi target pengguna dan kebutuhan
informasi produk agribisnis unggulan. (2)
Mendesain Sistem Pendukung Keputusan
(SPK) pemasaran komoditas kedelai dan (3)
Mendesain prototipe e-agribusiness yang
berasal dari tujuan pertama dan kedua dalam
bentuk rancangan logika ke dalam bentuk
rancangan fisik berupa software yang
dilengkapi dengan manajemen RBAC.
LANDASAN TEORI
Saragih (2004)
menyatakan
sistem
agribisnis merupakan totalitas atau kesatuan
kinerja agribisnis yang terdiri dari subsistem
agribisnis hulu yang berupa kegiatan input
produksi, informasi dan teknologi seperti
tampak pada Gambar 1.
Gambar 1. Lingkup Pembangunan Sistem dan
Usaha Agribisnis.
Membangun sistem dan usaha yang
berdaya saing dipengaruhi oleh dua faktor
strategis yakni permintaan dan penawaran.
Daya saing dicirikan oleh tingkat efisiensi,
mutu, harga dan biaya produksi, kemampuan
untuk menerobos pasar, meningkatkan pangsa
3
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
pasar dan memberikan pelayanan yang
professional.
Menurut Kothler (1994) pemasaran pada
hakekatnya adalah suatu aktivitas usaha niaga
yang bersangkutan dengan penyaluran barangbarang dan jasa dari titik-titik produksi hingga
ke titik-titik konsumsi.
O’Brein (2004) menjelaskan bahwa peran
sistem informasi dalam suatu organisasi
berkembang sesuai dengan kebutuhan
pengguna akhir (end user). Sistem informasi
terdiri dua sistem yaitu sistem informasi
pendukung operasi bisnis dan sistem informasi
pendukung keputusan manajerial. Sistem
informasi pendukung keputusan menajerial
terdiri dari sistem manajemen, sistem
pendukung keputusan dan sistem informasi
eksekutif.
Menurut Schunter dan Waidner (2002),
Sistem pengolah transaksi adalah sistem yang
menyimpan dan mengolah data hasil transaksi
bisnis seperti sistem yang mengolah data
penjualan,
pembelian
dan
perubahan
persediaan. Sistem pengendali proses adalah
sistem pendukung keputusan yang bersifat
rutin untuk mengontrol suatu proses seperti
keputusan pemesanan kembali secara otomatis
dan keputusan pengendalian produksi.
Hooker et al. (2001) memberikan
terminologi e-agribusiness sebagai suatu
bisnis
elektronik
(e-business)
yang
memfokuskan pada produk dan layanan
bidang pertanian atau kegiatan agribisnis yang
dilakukan secara eletronik melalui media
internet. Ilustrasi mengenai e-agribusiness
tampak pada Gambar 2.
ISSN : 2302-7088
Gambar 2. Konsep Dasar E-Agribusiness.
Lebih
lanjut
Ferraiolo
(2001),
menyatakan
bahwa
model-model
eagribusiness yang banyak digunakan di
negara-negara maju dan berkembang antara
lain: 1) katalog on-line (online catalogs); 2)
lelang (auctions); 3) bursa (exchange) dan; 4)
komunitas online (on line communities).
Menurut Thompson et al. (2000) eagribusiness telah banyak digunakan di
negara-negera maju dan berkembang dengan
menggunakan model dan sistem yang
mengacu pada sistem bisnis elektronik (ebusiness) dan perdagangan elektronik (ecommerce).
Sistem distribusi dan pemasaran komoditas
pertanian di Indonesia dikelompokkan menjadi
dua, yaitu sistem distribusi untuk komoditas
kelas satu (first grade) dan sistem distribusi
untuk komoditas kelas dua (second grade).
Komoditas kelas satu adalah komoditas
dengan mutu terbaik yang umumnya dilakukan
penanganan pascapanen terlebih dahulu
sebelum siap dipasarkan (Departemen
Pertanian, 2004). Menurut Darmawati (2004)
kendala yang dihadapi oleh petani dalam
memasarkan produknya secara langsung ke
pasar institusi antara lain: 1) informasi tentang
persyaratan mutu, harga penawaran dan
volume permintaan tidak mudah diperoleh
oleh petani produsen; 2) sistem pembayaran
yang dilakukan oleh pasar institusi pada
umumnya menggunakan pembayaran mundur
antara 7 sampai 15 hari.
4
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
keputusan terdiri dari perangkat keras
(hardware) dan perangkat lunak (software).
Pembangunan program akan menggunakan
Java Script dan HTML (HiperText Markup
Language) dan Dreaweaver. Pembangunan
data
menggunakan
Microsoft
Access,
sedangkan untuk komunikasi data dalam
jaringan menggunakan ASP (Active Server
Page) dan XML Document Access Control.
METODOLOGI PENELITIAN
Tempat Penelitian
Penelitian ini akan dilaksanakan di Propinsi
Jawa Barat dan DKI Jakarta dengan
pengambilan data lapang dan interview.
Data dan Alat Penelitian
Data penelitian akan diperoleh melalui
beberapa metode yaitu: (a) data primer dengan
langsung
mewawancarai
kepada
para
produsen, konsumen, lembaga pemasaran; dan
(b) data sekunder berupa studi pustaka/jurnal
ilmiah dan data statistik pertanian.
Alat yang digunakan untuk perancangan
e-agribusiness
dan
sistem
pendukung
Kerangka Penelitian
Alur kerangka penelitian sebagaimana pada
Gambar 3.
Studi Pustaka
Pendekatan Masalah
Indentifikasi Target
Pengguna
Analisa Kebutuhan
Jenis Informasi
Pentahapan Rancangan
Model Optimasi
Pemasaran
Pembangunan
E-agribusiness
Perancangan
SPK
Komponen Data
Optimasi Pemasaran
Distribusi:
MODEL GUIDS
Pembuatan
Web Site
Implementasi
Shopping Cart
Perancangan
Pada sasaran
Sub Sistem
Catalog Online
Uji Coba
Perancangan
User Interface
Sub Sistem
Shopping Basket
Request Box
Rancangan
Implementasi
Sub Sistem
Check Out
Evaluasi &
Perbaikan
Rancangan
Data
Sub Sistem
Maintenance
Sistem Sekuriti dengan
Manajemen Role Base
Access Control (RBAC)
Biaya Pemasaran
Biaya Volume
Biaya Pengolahan
Biaya iklan
Keuntungan
Strategi
Pembangunan
Software Development
Competitve Advantage for
E-Agribusiness Software
(Comptage Agri 1.0)
Sistem
E-Agribusiness
Keterangan:
= Alur yang langsung
= Alur yang tidak langsung
Gambar 3.
E-AGRIBUSINESS
ONLINE
Bagan Alir Kerangka Kerja Penelitian Disain E-Agribusiness kedelai
HASIL DAN PEMBAHASAN
Pendekatan Masalah
5
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Desain e-agribusiness dilakukan melalui pendekatan bottom-up yakni rancangan akan dimulai
dari obyek-obyek yang ada di dalam sistem. Obyek sistem yang kali pertama harus ditetapkan adalah
target pengguna sistem, kemudian dilanjutkan dengan analisa kebutuhan informasi dan bentuk/jenis
keputusan yang akan diambil oleh pengguna.
Setelah target pengguna sistem ditetapkan, maka harus dilakukan identifikasi kebutuhan jenis
informasi yang didasarkan pada pendekatan kebutuhan masing-masing target pengguna untuk
merancang Sistem Pengambilan Keputusan (SPK)
Tabel 1. Hasil idenrtifikasi Target Pengguna Sistem dan Analisis Kebutuhan Informasi Produsen dan Konsumen
Target Pengguna
Kebutuhan Informasi
Penentuan harga optimal
Database konsumen
Saluran pemasaran
Produsen
Promosi
Penanganan produk dan distribusi
Riset pasar
Penentuan harga optimal
Database produsen
-
Konsumen
Saluran pemasaran
Perencanaan pembelian
Penanganan produk dan distribusi
-
Jenis-jenis Informasi
Harga permintaan (harga pasar)
Kondisi persaingan
Pola pemasaran (borongan, partai)
Karakteristik konsumen
Indentifikasi produk yang dibutuhkan
Identifikasi rantai pemasaran
Jumlah saluran pemasaran
Biaya promosi & iklan
Target pasar
Lokasi pasar
Jasa angkutan
Harga sewa
Pergudangan
Hasil penelitian
Strategi pemasaran
Harga penawaran
Volume dan mutu produk
Pola pemasaran
Karakteristik produsen
Identifikasi produk yang ditawarkan (mutu,
volume)
Identifikasi rantai pemasaran (pemborong,
grosir, pengecer)
Jumlah saluran pemasaran
potensi produksi
harga penawaran
kondisi persaingan
Lokasi pasar
Jasa angkutan
Harga sewa
Pergudangan
Tabel 2. Hasil idenrtifikasi Target Pengguna Sistem dan Analisis Kebutuhan Informasi Lembaga Pemasaran
- Harga penawaran
Pemborong
Database produsen & produk
- Volume dan mutu produk
- Lokasi produsen
- Harga penawaran
Pedagang pengumpul
Database pemborong dan produk
- Volume dan mutu produk
- Lokasi pemborong
- Harga penawaran
Database pedagang pengumpul dan
Pusat pengumpul
- Volume dan mutu produk
produk
- Lokasi pedagang pengumpul
- Harga penawaran
Pedagang pusat grosir
Database pusat pengumpul
- Volume dan mutu produk
- Lokasi pusat pengumpul
- Harga penawaran
Pusat distribusi
Database pusat grosir
- Volume dan mutu produk
- Lokasi pusat grosir
Tabel 3. Hasil idenrtifikasi Target Pengguna Sistem dan Analisis Kebutuhan Informasi Pemasaran
Target Pengguna
Kebutuhan Informasi
Pusat pemasaran
Database pusat distributor
Pengecer
Database pusat pemasaran
-
Jenis-jenis Informasi
Harga penawaran
Volume dan mutu produk
Lokasi pusat distributor
Harga penawaran
Volume dan mutu produk
Lokasi pusat distributor
Tabel 4. Hasil idenrtifikasi Target Pengguna Sistem dan Analisis Kebutuhan Informasi Lembaga Penunjang
6
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Database produsen
Perbankan
Database konsumen
Asuransi
Database produsen dan konsumen
Pusat Informasi
Database saluran pemasaran
Pemerintah
Database target pengguna
ISSN : 2302-7088
- Skala usaha (besar, menengah, kecil)
- Karakteristik produsen
- Volume & mutu produksi
- Jaminan perbankan
- Karakteristik konsumen
- Kategori transaksi
- Resiko usaha
- Kontinuitas
- Jaminan perbankan
- Legal transaction
Semua informasi yang dibutuhkan oleh target
pengguna (data warehouse)
Database jenis informasi target pengguna
(data warehouse)
Model Optimasi Pemasaran Produk Kedelai
Menurut Ernst dan Ehmke (2003), model optimasi pemasaran untuk menentukan distribusi yang
optimum meliputi: a) biaya pemasaran; b) biaya volume yang didistribusikan ke lokasi tujuan; c)
biaya pengolahan dan pengemasan agar produk memenuhi kreteria sesuai dengan permintaan; d)
keuntungan yang diperoleh dan; e) biaya promosi dan iklan.
Perancangan SPK
Menurut Ninghui (2004), Perancangan SPK sistem e-agribusiness dilakukan dengan model GUIDS
(Goal-centered design, User-interface design, Implementation-centered design, Data Design,
Strategic for contruction). Proses rancangan aplikasi SPK untuk e-agribusiness akan dilakukan
melalui tujuh langkah seperti tampak pada Gambar 4.
Analisis Sistem E-Agribusiniss
Langkah 2
Mendefinisikan
permasalahan
Langkah 3
Menetukan perangkat
lunak & keras
Langkah 4
Membangun prototipe
sistem e-agribusiness
Langkah 7
Perlu dirancang ulang
Menentukan domain
permasalahan
Perlu dirancang ulang
Langkah 1
Target Pengguna E-Agribusiness
Langkah 5
Menguji &
mengevaluasi model
Langkah 6
Menggunakan model
e-agribusiness
Memelihara
sistem e-agribusiness
Gambar 4. Bagan Alir Perancangan Aplikasi SPK untuk E-Agribusiness
Pembangunan Prototipe E-Agribusiness
Prototipe e-agribusiness dibangun dengan sistem sekuriti berbasiskan manajemen RBAC untuk
menghasilkan sistem pengambilan kuputusan yang memiliki tingkat keamanan sistem yang baik.
Rancangan e-agribusiness untuk keunggulan dilakukan melalui tahapan berikut ini:
1. Pembuatan web site dengan Shopping Cart, tujuan tahapan ini untuk mewujudkan aplikasi
dengan menggunakan bahasa scripting PHP3 dan server database MySQL dan konektifitas ke
server database MySQL. Menurut Rowley (2003), rancangan e-agribusiness di bagi menjadi
beberapa subsistem yaitu: 1) subsistem catalog online; 2) sub sistem shopping basket
(pemesanan); c) subsistem check-out (pembayaran) dan; 4) subsistem maintenance.
7
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
2. Implementasi Shopping Cart yang akan diujicobakan dengan membangun website untuk melihat
respon terhadap sistem yang telah dirancang (Qingfeng, 2003). Dalam rancangan e-agribusiness
nantinya akan dibuat umpan balik respon pengguna yang terdiri dari kotak permintaan (request
box) dan kontak saran. Uji coba e-agribusiness akan berlangsung selama satu bulan sejak
rancangan selesai.
Barkley dan Cincotta (2002) menganjurkan aplikasi access control menggunakan konsep Role Based
Access Control (RBAC). RBAC dapat menggambarkan struktur suatu organisasi, hal ini dapat
dilakukan dengan membuat suatu fungsi yang dikelompokkan kedalam role dan user. Meskipun
bukan konsep yang baru, tetapi RBAC terus mendapat pengakuan dari dunia komersial seperti
perbankan. RBAC bertujuan untuk menyederhanakan definisi, auditing dan administrasi dari
keamanan hak akses dari setiap pengguna informasi di internet. Ilustrasi mengenai konsep RBAC
dapat dilihat pada Gambar 5.
Gambar 5. Konsep Role Base Access Control (RBAC)
DAFTAR PUSTAKA
Nanseki T. 2003. Development and Applications of Nationwide Marketing Information Database for
Vegetabless and Fruit in Japan. Proceeding of the First Asian Conference for Information
Technology in Agriculture, January 24-26, 2003. Wakayaman, Japan.
Hoa T. 2004. Database for Agriculture in Information Center for Agriculture and Rural
Development. Proceeding of the First Asian Conference for Information Technology in
Agriculture, January 24-26, 2004. Wakayaman, Japan.
Eriyatno. 2005. Ilmu Sistem: Meningkatkan Mutu dan Efektivitas Manajemen. IPB Press, Bogor.
Saragih B. 2004. Pembangunan Sistem Agribisnis Sebagai Penggerak Ekonomi Nasional (Deptan).
http://www.deptan.go.id/konsep/konsep.htm [21 Sep 2004].
Kothler P. 1994. Manajemen Pemasaran, Perencanaan dan Pengendalian. Penerbit Erlangga. Jakarta.
O'Brein. 2004. Management Information Systems: Managing Information Technology in the
Business Enterprise, 6th Edition, McGraw-Hill.
Schunter M, Waidner M. 2002. The Platform For Enterprise Privacy: Practices-Privacy-Enabled
Management of Customer Data. Proc. of the 2002 Workshop on PrivacyEnhancing
Technologies, San Francisco, CA.
Hooker NH, Heilig J, Ernst S. 2001. What is Unique About E-Agribusiness?. Department of
Agricultural, Environmental, and Development Economics The Ohio State University,
Columbus, USA.
Ferraiolo D, Barkley J. 2001. Specifying and Managing Role-Based Access Control within a
Corporate Intranet, National Institute of Standards and Technology.
Thompson S, Hayenga M, Hayes D. 2000. E-agribusiness. Department of Economics, Iowa State
University Ames, Iowa, USA.
[Deptan] Departemen Pertanian. 2004. Rencana Pembangunan Pertanian Tahun 2005. Jakarta.
8
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Darmawati E. 2004. Desain Sistem Pendukung Keputusan Distribusi Hortikultura dengan Pendekatan
Objek [Disertasi]. Bogor: Program Pascasarjana, Institut Pertanian Bogor.
Ernst S, Ehmke C. 2003. E-Commerce in Agribusiness Research Project. The Ohio State University.
Ninghui L, Tripunitara MV. 2004. Security Analysis in Role-Based Access. Center for Education and
Research in Information Assurance and Security and Department of Computer Sciences Purdue
University, Oval Drive, West Lafayette.
Rowley J. 2003. Remodelling Marketing Communications in an Internet Environment. Electronic
Networking Applications and Policy, Volume 11, Number 3, pp 203-212.
Qingfeng. 2003. Privacy Enforcement with an Extended Role-Based Access Control Model.
Department of Computer Science North Carolina State University Raleigh, NC 27695-8207,
USA
Barkley J, Cincotta A. 2002. Role Based Access Control for the World Wide Web, National Institute
of Standards and Technology Gaithersburg Maryland.
9
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
IMPLEMENTASI APLIKASI MOBILE LEARNING DO’A HARIAN
UNTUK ANAK PRA SEKOLAH BERBASIS ANDROID
Parno 1, Puji Utami 2
Program Studi Manajemen Informatika1, Program Studi Sistem Informasi2
Universitas Gunadarma, Jl Margonda Raya No 100 Pondok Cina, Depok
1
[email protected], [email protected]
Abstrak
Kurikulum pendidikan masa kini selalu selangkah lebih maju, sehingga anak-anak
modern jaman sekarang lupa akan do’a sehari-hari. Untuk itu dengan perkembangan
teknologi dibidang telekomunikasi khususnya telepon genggam, maka sumber informasi
dapat di akses secara online yang kemudian dapat digunakan sebagai sarana proses
belajar dan dapat mengatasi masalah kurangnya minat belajar anak-anak pada
pembelajaran do’a sehari-hari. Aplikasi Mobile Learning Do’a Harian Anak (pra
sekolah) Berbasis Android adalah aplikasi berbasis mobile untuk mengetahui informasi
mengenai do’a sehari-hari. Aplikasi ini dibangun dalam beberapa tahap, yaitu tahap
pertama dimulai dengan membuat metode perancangan dengan UML, tahap kedua
perancangan input output, tahap ketiga pengkodingan, tahap keempat kompilasi kode
program, tahap implementasi aplikasi pada emulator Android. Aplikasi pembelajaran
do’a harian untuk anak ini juga dapat digunakan sebagai sarana proses belajar dan dapat
mengatasi masalah kurangnya minat belajar bagi anak apalagi untuk pembelajaran do’a
sehari-hari mengingat pentingnya penerapan pendidikan do’a untuk anak-anak dari kecil.
Pada penggunaannya, Android memberi kemudahan untuk membuat dan
mengembangkan aplikasi, karena Android adalah sistem operasi yang berbasis open
source.
Kata Kunci : Aplikasi, Do’a Harian, Android.
Abstract
The present curriculum is always one step ahead, so that modern children of today often
forget the daily prayers. For those purpose, with technological developments in the field
of telecommunications, particularly mobile phones, the sources of information can be
accessed online which can then be used as a learning tool and can overcome the problem
of lack of interest in children's learning on learning daily prayers. Mobile Application
Learning Daily Prayer Children (pre-school) Based Android is a mobile based
application to find information about the daily prayers. The application is built in
several stages, beginning with the first stage of making the UML design method, the
second phase of design input output, coding in the third stage, the fourth stage of
compiling the source code, the implementation phase of the application on the Android
emulator. Daily prayer learning applications for children can also be used as a learning
tool and can overcome the problem of lack of interest in learning for children especially
for learning prayers daily prayer to remember the importance of the implementation of
education for small children. In use, Android provides an easy way to create and develop
applications, because Android is an operating system based on open source.
Keywords: Applications, Daily prayer, Android.
peningkatan. Kurikulum yang diterapkan
selalu selangkah lebih maju. Sehingga anakanak modern jaman sekarang lupa akan do’a
sehari-hari. Pendidikan do’a untuk anak-anak
merupakan hal yang perlu diperhatikan,
mengingat pentingnya berdo’a bagi setiap
PENDAHULUAN
Dunia pendidikan di jaman sekarang
sangatlah berbeda dengan pendidikan jaman
dahulu. Tingkat kesulitan yang dihadapi oleh
anak-anak setiap tahunnya akan mengalami
SI-10
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
umat muslim bila hendak melakukan sesuatu
dimanapun berada.
Tujuan berdo’a tidak hanya sekadar
meminta kepada Tuhan untuk mewujudkan
keinginan saja, tetapi agar berbagai kegiatan
yang dilakukan mendapatkan berkah dan
keridhoan dari Sang Pencipta. Pendidikan do’a
dapat diterapkan dimana saja dan dengan cara
apa saja. Seperti misalnya di sekolah dengan
bimbingan guru maupun di rumah dengan
bimbingan
orangtua
anak-anak
tetap
mendapatkan pendidikan yang layak. Namun
pendidikan yang disampaikan oleh guru
kepada anak-anak di sekolah, tidak
sepenuhnya diterima dan dimengerti oleh
anak-anak.
Kebanyakan
guru
hanya
menggunakan buku sebagai panduan dan
menjelaskan secara ringkas. Sehingga anakanak merasa jenuh dengan pendidikan yang
disampaikan oleh guru dan menimbulkan
kurangnya minat belajar bagi anak-anak.
Kurangnya minat belajar bagi anak tentunya
menjadi masalah bagi para orangtua dirumah
untuk meningkatkan semangat belajar anakanak.
Oleh karena itu,
akan dibuat sebuah
aplikasi kumpulan do’a harian yang dalam
pembelajarannya akan menyajikan cara yang
berbeda.
Dengan
didukungnya
oleh
perkembangan sistem operasi pada mobile
khususnya android, masalah yang di hadapi
para orangtua dapat teratasi. Orangtua tidak
perlu repot-repot membuka buku sebagai
panduan belajar untuk anak-anak, cukup
dengan membuka telepon genggam maka
orangtua dapat memberikan bimbingan belajar
di rumah dan meningkatkan pembelajaran
akan do’a sehari-hari bagi anak. Pembelajaran
interaktif dengan tampilan yang menarik
tentunya menjadi metode pembelajaran yang
menyenangkan untuk anak anak sehingga
anak-anak dapat dengan mudah mengingat dan
mendapatkan informasi dengan cara yang
berbeda dalam pengenalannya terhadap do’a
sehari-hari yang diajarkan dalam agama Islam
menumbuhkan minat anak-anak untuk
menghafal do’a dan mengucapkan do’a
tersebut dengan baik serta diharapkan dapat
membantu orangtua dalam memberikan
pembelajaran yang menyenangkan bagi anakanak dengan menggabungkan beberapa elemen
multimedia, seperti gambar dan suara.
Aplikasi ini juga menampilkan bahasa Arab
sebagai pengucapan pada saat memanjatkan
do’a, dan agar pembacaan do’a-do’a yang
ISSN : 2302-7088
dipresentasikan dalam bahasa Arab diucapkan
dengan benar, disediakan audio yang akan
diperdengarkan sehingga memudahkan dalam
belajar mengucapkan dan membaca do’a..
Ruang lingkup di dalam aplikasi ini hanya
mencakup pengenalan do’a sehari-hari untuk
anak-anak dengan dua puluh do’a dan lima
pertanyaan untuk latihan soal. Dimana
pembacaan do’a-do’a tersebut menggunakan
fitur audio yang membantu pengucapan bahasa
Arab pada do’a yang hendak dibaca. Agar
anak-anak tertarik untuk terus belajar dan
menghapal, aplikasi ini menggunakan menu
kartun anak-anak yang disesuaikan dengan
tema do’a yang dihadirkan, misalnya do’a
bangun tidur ikon yang tersedia adalah seorang
anak yang sedang bangun tidur. Anak-anak
pun dapat memilih sendiri menu dari do’a
mana yang hendak dibaca.
Aplikasi android do’a harian untuk anak ini
menggunakan tools (software) seperti Adobe
Photoshop CS 3, Eclipse IDE, Android Virtual
Device seperti emulator, ADT Plugin, dan
Android SDK sebagai environment untuk
menjalankan aplikasi. Salah satu sistem
operasi yang mendukung untuk tercapainya
pembuatan aplikasi tersebut adalah sistem
operasi android. Pengguna android dari waktu
ke waktu semakin meningkat sesuai dengan
penelitian dari ComScore Mobilens yang
diumumkan pada Selasa (3/4/2012). Riset
dilakukan terhadap 234 juta pengguna ponsel
berusia di atas 13 tahun di Amerika Serikat.
Hasilnya android menempati urutan teratas
dalam prosentase kenaikan pengguna dari
47,3% di desember 2011, naik 3,7% menjadi
51%
di
maret
2011
[http://tekno.kompas.com.,6 Mei 2012].
Android merupakan subset perangkat lunak
untuk perangkat mobile yang meliputi sistem
operasi, middleware dan aplikasi inti yang di
rilis oleh google, sedangkan android SDK
(software development kit) menyediakan tools
dan API yang di perlukan untuk
mengembangkan aplikasi pada platform
android
dengan
menggunakan
bahasa
pemprograman java [Mulyadi, 2010)]. Karena
perkembangan
tersebut
mengakibatkan
meningkatnya
aplikasi-aplikasi
mobile
berbasis android [Safaat, 2011]. Android ada
di mana-mana. Nantinya, Android akan berada
di mobil dan semua jenis tempat-tempat lain
juga [Murphy, 2011]. Oleh karena itu nantinya
aplikasi yang akan dibuat dapat dijalankan di
ponsel bersistem operasi android agar dapat
SI-11
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
memenuhi kebutuhan masyarakat yang pada
umumnya ingin informasi yang mudah diakses
dan cepat serta informasinya tepat.
ISSN : 2302-7088
3. Integrated browser berdasarkan open
source engine webkit
4. Grafis yang dioptimalkan dan didukung
oleh
library
grafis
2D
yang
terkustomisasi, grafis 3D berdasarkan
spesifikasi openGL ES 1,0 (Opsional
akselerasi hardware)
5. SQLite untuk penyimpanan data
6. Media
Support
yang
mendukung
audio,video, dan gambar (MPEG4,
H.264, MP3, AAC, AMR,JPG,PNG, GIF)
7. GSM Telephony (tergantung hardware)
8. Bluetooth,
EDGE,3G,
dan
WIFI
(Tergantung hardware)
9. Dukungan Perangkat tambahan : Android
dapat memanfaatkan kamera, layar
sentuh, accelometers, magnetometers,
GPS, Akselerasi 2D(dengan perangkat
Orentasi, Scalling, konversi format
piksel) dan akselerasi grafis 3D
10. Multi-touch
kemampuan
layaknya
handset modern yang dapat mengguraikan
dua jari atau lebih untuk berinteraksi
dengan perangkat.
11. Lingkungan Development yang lengkap
dan kaya termasuk perangkat emulator,
tools untuk debugging, profil dan kinerja
memori, dan plugin untuk Eclipse IDE
12. Market seperti kebanyakan Handphone
yang memiliki tempat penjualan aplikasi,
Market pada android merupakan katalog
aplikasi yang dapat di download dan di
install pada Handphone melalui internet
METODE PENELITIAN
Dalam membuat aplikasi ini, metode
penelitian yang dilakukan berupa pengamatan
interaksi langsung dengan anak–anak. Mencari
tahu seberapa jauh anak-anak tersebut
mengerti dan menghafalkan do’a-do’a
tersebut. Sedangkan data dan informasi yang
didapat berdasarkan buku-buku yang berkaitan
dengan
kumpulan
do’a-do’a
serta
memanfaatkan jaringan internet yang tersedia.
Selanjutnya penulis menganalisis data yang
telah dikumpulkan untuk membuat aplikasi ini
secara bertahap:
1. Perancangan
system
dengan
menggunakan UML.
2. Perancangan tampilan dari aplikasi
tersebut (interface).
3. Pengkodingan dengan menggunakan
bahasa pemrograman java.
4. Kemudian melakukan uji coba aplikasi
yang didahului dengan prosesdebugging,
program yang sudah valid dan
terverifikasi selanjutnya dijalankan.
5. Pengimplementasian
aplikasi
pada
emulator Android dan Perangakat
Genggam dengan Sistem Operasi Android
PEMBAHASAN
Arsitektur Android
Mulyadi (2010) menjelaskan bahwa
arsitektur android terdiri dari :
1. Linux Kernel
2. Libraries
3. Android-Runtime
4. Framework-aplikasi
5. Applications
Android telah menyertakan aplikasi inti
seperti email client, sms, kalender, peta,
browser, kontak, dan lain-nya. Semua aplikasi
tersebut ditulis dengan menggunakan bahasa
pemrograman java.
Mengenal Komponen Android
Siregar (2010) menjelaskan komponenkomponen dasar pada android yang sangat
sering digunakan yaitu edittext,button, spinner,
checkbox, radio group, dan ticker.
Fitur yang tersedia pada platform android
Mulyadi (2010) menjelaskan fitur yang
tersedia pada platform android saat ini antara
lain :
1. Framework aplikasi yang mendukung
penggantian komponen dan reusable
2. Mesin virtual dalvik berjalan diatas linux
kernel dan dioptimalkan untuk perangkat
mobile
SI-12
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Gambar 1. Arsitektur Android
Gambar 2 Rancangan Use Case Diagram
Dalam Al-Quran banyak sekali kata-kata
do’a dalam pengertian yang bebeda. Abû AlQasim Al-Naqsabandî dalam kitab syarah AlAsmâ’u al- Husnâ menjelaskan beberapa
pengertian dari kata do’a. Pertama, dalam
pengertian “Ibadah.” Seperti dalam Al-Quran
surah Yûnûs ayat 106 di bawah ini.
Do’a
Do’a adalah suatu ibadah. Do’a merupakan
salah satu tanda kerendahan diri seorang
hamba terhadap Tuhannya. Do’a dapat pula
diartikan sebagai suatu ucapan permohonan
kepada Allah SWT dengan rendah diri dari
hati yang jujur dan ikhlas untuk mendapatkan
rahmat dan perlindungan Allah agar terhindar
dari bahaya dan segala sesuatu yang dimurkai
Allah.
SI-13
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Masa kanak-kanak tentunya saat yang
paling tepat untuk menanamkan budi pekerti
yang baik. Dimulai dari kebiasaan sehari-hari
dengan memberikan pembelajaran yang rutin
pada setiap aktivitas yang dilakukan anak-anak
akan menanamkan sifat yang baik pula untuk
anak-anak. Pentingnya do’a sehari-hari bagi
setiap muslim merupakan suatu wujud rasa
syukur dari segala rahmat dan karunia yang
Allah limpahkan kepada umatnya tentunya
agar diberikan kemudahan serta kelancaran
untuk melakukan berbagai aktivitas seharihari. Untuk itu betapa pentingnya penerapan
do’a sehari-hari dari sejak kecil agar terbiasa
untuk mensyukuri rahmat dan karunia Allah.
Artinya : “Dan janganlah kamu beribadah,
kepada selain Allah, yaitu kepada sesuatu
yang tidak dapat mendatangkan manfaat
kepada engkau dan tidak pula mendatangkan
madarat kepada engkau.”
Kedua, do’a dalam pengertian “Istighatsah”
(memohon bantuan dan pertolongan). Seperti
dalam Al-Quran surah Al-Baqarah ayat 23.
PERANCANGAN DAN
IMPLEMENTASI
Artinya: “Dan berdo’alah kamu (mintalah
bantuan) kepada orang-orang yang dapat
membantumu.”
Pada bab ini akan dijelaskan mengenai
perancangan aplikasi pembelajaran do’a
sehari-hari yang akan dibuat dengan beberapa
tahap seperti perancangan UML, perancangan
interface, pengkodean, kompilasi, dan
implementasi. Pada tahap perancangan UML
akan dijelaskan mengenai suatu rancangan
model sistem aplikasi. Perancangan interface
yaitu perancangan antarmuka untuk apilkasi
ini. Berikutnya tahap pengkodean, tahap ini
berisi pembuatan dan penjelasan kode
program.
Setelah
tahap
pengkodean
selanjutnya yaitu tahap kompilasi kode
program. Tahap terakhir yaitu tahap
pengimplementasian aplikasi pembelajaran
do’a sehari-hari ke dalam ponsel berbasis
Android.
Ketiga,
Do’a
dalam
pengertian
“permintaan” atau “permohonan.” Seperti
dalam Al-Quran surah Al-Mu’minûn ayat 60
ini.
Artinya: “Mohonlah (mintalah) kamu
kepada-Ku,
pasti
Aku
perkenankan
(permintaan) kamu itu.”
Keempat,
Do’a
dalam
pengertian
“percakapan”. Seperti dalam Al-Quran surah
Yûnûs ayat 10. Kelima, Do’a dalam pengertian
“memanggil.” Dan keenam, Do’a dalam
pengertian “memuji.” Seperti dalam Al-Quran
surah Al-Isrâ’ ayat 110. Maka atas dasar
uraian tersebut, diambil kesimpulan bahwa
do’a adalah ucapan permohonan dan pujian
kepada Allah SWT dengan cara-cara tertentu
disertai kerendahan hati untuk mendapatkan
kemaslahatan dan kebaikan yang ada disisiNya. Atau dengan istilah Al-Tîbî seperti
dikutip Hasbi Al-Shidiq do’a adalah
melahirkan kehinaan dan kerendahan diri serta
menyatakan kehajatan (kebutuhan) dan
ketundukan kepada Allah SWT.
Rancangan Use Case Diagram
Gambar 2 adalah contoh dari diagram use
case, dimana diagram use case akan
menjelaskan mengenai aktor yang berinteraksi
dengan sistem. Perancangan diagram ini
menggambarkan suatu fungsionalitas sebuah
sistem yang ditekankan pada apa yang
diperbuat oleh sistem.
Rancangan Activity Diagram
Selanjutnya perancangan activity diagram
(Gambar 3) untuk aplikasi pembelajaran do’a
sehari-hari anak dengan berbagai alir aktivitas
yang digunakan.
Do’a Sehari-hari
SI-14
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Gambar 3. Activity Diagram
Implementasi
Setelah proses kompilasi pada logika
program telah berhasil dan tidak ada lagi pesan
kesalahan maka hasilnya dapat dilihat pada
emulator Android. Kemudian langkah
selanjutnya
yaitu
mengimplementasikan
aplikasi Mobile Learning Do’a Harian untuk
Anak Pra Sekolah pada ponsel Android.
Selanjutnya untuk membuka atau menjalankan
aplikasi tersebut, pengguna dapat langsung
mengklik ikon pada menu emulator atau pada
menu di dalam ponsel berbasis android.
Tampilan pertama saat membuka aplikasi
tersebut adalah tampilan splash screen seperti
pada gambar 4
Gambar 4 Tampilan Splash Screen
Setelah tampilan pembuka, yaitu splash
screen, kini tampilan berganti pada xml
selanjutnya, yaitu tampilan awal. Terdapat
sebuah image button untuk masuk ke dalam
menu, seperti pada gambar 5.
SI-15
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
aplikasi pembelajaran do’a sehari-hari untuk
anak, seperti pada gambar 7 berikut ini.
Gambar 5 Tampilan Awal
Setelah user menekan image button
bertuliskan ‘Klik Tombol Ini Untuk Mulai
Belajar ^.^’, maka user akan menuju pada
aktivitas dari menu-menu yang terdapat pada
aplikasi tesebut (Gambar 6), yaitu sebagai
berikut ini.
Gambar 7 Tampilan Pilih Do’a Sehari-hari
Button buka digunakan untuk membuka
do’a yang telah dipilih dari spinner. Kemudian
untuk list do’a-do’a yang ada di dalam spinner
adalah pada gambar 8. sebagai berikut.
Gambar 6 Tampilan Menu
Gambar 8 Tampilan list do’a pada spinner
Tampilan menu terdapat lima pilihan menu
dari beberapa image button, semua button
tersebut digunakan untuk mengakses masingmasing aktifitas yang ingin dibuka, yang
pertama, image button Do’a Sehari-hari berisi
tentang list do’ado’a yang terdapat pada
Gambar 8 merupakan tampilan untuk daftar
nama-nama do’a yang ada pada spinner.
Penggunaan spinner disini dimaksudkan untuk
membantu pengguna untuk mencari namanama do’a yang telah disediakan. Tampilan
dari nama-nama do’a akan dapat dengan
mudah untuk dicari sesuai dengan kebutuhan.
SI-16
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Hanya dengan memilih dan mengklik salah
satu list maka nama do’a yang dipilih tersebut,
misalnya do’a bangun tidur, setelah menekan
tombol buka pada tampilan pemilihan do’a
sehari-hari, program akan membuka pilihan
user dari spinner yaitu do’a bangun tidur,
seperti pada gambar 9 berikut ini.
ISSN : 2302-7088
Tampilan pemutaran suara do’a tersebut
disertai dengan gambar tulisan arab do’a,
tulisan latinnya, dan juga arti dari do’a yang
sedang diputar. Apabila pengguna ingin
kembali ke menu sebelumnya, cukup dengan
mengklik atau menekan tombol back (seperti
keterangan pada gambar 10) pada jendela
emulator ataupun pada telepon seluler.
Selanjutnya, jika pengguna memilih image
button
games
pada
tampilan
menu
sebelumnya, maka akan muncul tampilan
seperti pada gambar 11 berikut ini.
Gambar 9 Tampilan Do’a Bangun Tidur
Jika pengguna menekan tombol sound,
maka program akan memutar do’a bangun
tidur
beserta
dengan
toast
yang
memberitahukan do’a apa yang sedang
diputar, dan jika menekan tombol stop maka
suara do’a yang diputar akan berhenti, seperti
gambar 10 berikut.
Gambar 11 Tampilan Games
Gambar 11 menunjukkan tampilan games
dimana pengguna telah menjawab pilihan
jawaban yang menghasilkan jawaban benar,
berikut adalah penjelasannya. Button sound
digunakan untuk memutar do’a yang sedang
diputar dan button stop digunakan untuk
menghentikan suara do’a sebelum menuju ke
form selanjutnya. Setelah pengguna menekan
tombol sound dan menebak do’a yang diputar,
pengguna di hadapkan pada pilihan jawaban a,
b, dan c yang masingmasing memberikan
sebuah text view pada setiap button. Jika
pengguna memilih salah satu button yang
menurutnya adalah jawaban yang benar, maka
program akan memberikan toast berupa hasil
dari jawaban user, yaitu berupa toast jawaban
benar atau salah. Setelah selesai menjawab
pertanyaan pada tampilan games pertama ini,
pengguna dapat melanjutkan pertanyaan
berikutnya dengan menekan image button
next, jika tidak, pengguna dapat menekan
Gambar 10 Tampilan Pemutaran Suara
Do’a
SI-17
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
tombol back pada handphone android. Jika
pengguna memilih tombol next, maka
pertanyaan selanjutnya akan ditampilkan
sampai pada pertanyaan games yang terakhir
yang ditandai dengan bergantinya image
button next menjadi image button finish yang
akan menuju ke halaman tampilan menu.
Berikut tampilan pertanyaan dari tampilan
games yang terakhir sebelum membawa user
kembali pada tampilan menu.
Gambar 13 Tampilan Help
Jika ingin kembali ke menu sebelumnya,
pengguna hanya perlu menekan tombol back
pada emulator atau pada handphone android.
Menu yang terakhir pada tampilan menu
adalah exit dimana menu ini digunakan untuk
keluar aplikasi pembelajaran do’a sehari-hari.
Pada menu ini terdapat alert dialog berupa
setmessage yang menanyakan kembali apakah
user benar-benar ingin keluar dari aplikasi,
jika memilih button tidak, maka tampilan tetap
pada tampilan menu dan user dapat terus
mengakses program, jika memilih button ya,
maka user akan keluar dari aplikasi
pembelajaran do’a sehari-hari, seperti pada
tampilan dari image button exit berikut.
Gambar 12 Tampilan Terakhir pada Games
Setelah menekan tombol finish dan
tampilan kembali pada tampilan menu,
selanjutnya jika pengguna memilih tombol
help maka akan muncul tampilan help berupa
alert dialog dimana pada alert dialog ini
dijelaskan secara detail fungsi dari masingmasing tombol yang terdapat pada aplikasi ini
serta cara penggunaan aplikasi pembelajaran
do’a sehari-hari secara ringkas dan jelas,
berikut adalah gambar dari tampilan help:
Gambar 14 Tampilan Exit
SI-18
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
games alangkah baiknya jika aplikasi
menggunakan penilaian berupa score tertinggi
atau terendah dengan soal-soal latihan yang
lebih banyak lagi untuk mengukur kemampuan
pengguna dalam menjawab setiap pertanyaan
dari aktifitas games. Untuk itu kritik dan saran
sangat diperlukan bagi penulis untuk dapat
mengembangkan aplikasi ini agar lebih baik
lagi di masa yang akan datang.
SIMPULAN DAN SARAN
Kesimpulan
Dari keseluruhan penulisan ini, dapat
disimpulkan bahwa aplikasi mobile learning
do’a harian untuk anak prasekolah berbasis
android ini memberikan informasi dari do’a
sehari-hari mengingat pentingnya berdo’a bagi
setiap umat muslim bila hendak melakukan
sesuatu dimanapun berada. Aplikasi ini
memberikan tampilan do’a dengan tulisan arab
dan latinnya, serta arti dari setiap do’a,
tampilan background yang disesuaikan dengan
anak-anak pada aplikasi ini digunakan untuk
membantu semangat belajar anakanak yang
juga dilengkapi dengan suara do’a dari do’a
yang telah dipilih oleh pengguna.
Uji coba aplikasi pembelajaran do’a seharihari untuk anak berbasis android ini paling
optimal pada handphone android dengan layar
3.2 inchi yaitu pada Samsung Galaxy Gio
S5660. Dengan aplikasi ini pengguna terutama
para orang tua akan lebih praktis mendapatkan
informasi tentang do’a sehari-hari untuk
pembelajaran akan do’a sehari-hari bagi anakanak, karena hanya dengan genggaman ponsel
yang dapat dibawa kemana saja dan kapan
saja, pengguna dapat langsung menggunakan
aplikasi tersebut.
DAFTAR PUSTAKA
[1] Agus Haryanto. Categories Android.
http://agusharyanto.net/wordpress. 5 Juli
2011.
[2] Safaat, Nazrudin. Pemrograman Aplikasi
Mobile Smartphone dan Tablet PC
Berbasis Android. Bandung: Informatika,
2011.
[3] Michael, Ivan.Mengembangkan Aplikasi
Enterprise
Berbasis
Android.Jakarta:Gava Media.2011.
[4]
Mulyadi.Membuat
Aplikasi
Untuk
Android.Yogyakarta:Multimedia Center
Publishing.2010.
[5]
Murphy,
Mark
L.Beginning
Android.United States of America:
Apress. 2009
[6] Sony Hanifudin. Review Android AppMuslim Kids:Kumpulan Doa Sehari-hari
[7]
http://www.jagatreview.com/2012
/01/review-android-appmuslim-kidskumpulan-doa-sehari-hari/. 25 Januari
2011.
[8] URL: http://duniabaca.com/bacaan-doasehari-hari-islam-bahasa-arabindonesialengkap.html, 17 Mei 2011.
[9] URL : http://tekno.kompas.com.,6 Mei
2012
Saran
Aplikasi ini masih bisa dikembangkan lebih
lanjut . Untuk membuat tampilan do’a lebih
menarik, alangkah baiknya jika pada aplikasi
ini dibuatkan teks berjalan berupa tulisan latin
dari do’a yang sedang diputar guna
memberikan kemudahan bagi anak-anak untuk
tidak hanya membaca do’a, tetapi juga
mempelajarinya. Selain itu untuk aktifitas
SI-19
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
SI-019 (wahyu)
SI-20
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
SI-020 (wahyu)
SI-21
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
SI-021 (wahyu)
SI-22
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
SI-022 (wahyu)
SI-23
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
SI-024 (wahyu)
SI-24
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
SI-026 (wahyu)
SI-25
ISSN : 2302-7088
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
IMPLEMENTASI ALGORITMA PRIM DAN DEPTH FIRST SEARCH PADA
PEMBUATAN MAZE GAME BERBASIS ANDROID OS MOBILE
M Khoiril Anwar 1, Cucun Very Angkoso 2 , Arik Kurniawati 3
Jurusan Teknik Informatika, Fakultas Teknik, Universitas Trunojoyo Madura
Jl. Raya Telang, PO. BOX. 2 Kamal, Bangkalan-Madura
1
[email protected],[email protected], [email protected]
1,2,3
Abstrak
Teknologi mobile game beroperating system open source berkembang dengan sangat
pesat. Operating system google android menjadi operating system yang sedang ramai
dikembangkan para developer game. Karena keragaman variasinya, mobile game
memiliki banyak peminat dari berbagai kalangan, hal inilah yang menjadi dasar bagi para
pengembang untuk terus mengembangkan mobile game. Game yang sederhana/simple
dengan target pengguna yang tidak dibatasi umur menjadi orientasi para pengembang
game sehingga mampu menarik sebanyak mungkin pengguna. Pada penelitian ini
dirancang sebuah maze mobile game berbasis operating system Android untuk mengasah
kemampuan berfikir dikembangkan dengan mengimplementasikan algoritma Prim dan
Depth First Search. Dalam perancangan game, algoritma Prim diterapkan untuk
pembuatan lintasan dari maze sedangkan algoritma Depth First Search diterapkan pada
saat melakukan proses pencarian solusi permasalahan dalam game.
Dalam pengujian telah dilakukan pada beberapa perangkat mobile dan selanjutnya
hasilnya dapat disimpulkan bahwa algoritma Prim dan Depth First Search dapat
berfungsi dengan baik pada resolusi screen 320 x 480 pixels dalam pembentukan lintasan
dan pencarian solusi dari maze.
Kata kunci : Mobile Game, Android, Algoritma Prim, Algoritma Depth First Search.
Abstract
Mobile game technology with an open source operating system has grown rapidly. A
Google Android is one of the most popular open source operating system which being
intensively discuss among game developer. Mobile game has a lot of interest from
various parties, because of the diversity of its variations. This is the basis for the
developers to continue to develop mobile games. In this study, a mobile game to hone
thinking ability has been developed to implement the algorithm Prim and Depth First
Search. Game developing is starting with applying Prim algorithm at the time creating
the track of the maze then the process go through by applying Depth First Search
algorithm for searching the best solution of the game.
From the experiment that was done, we can make a conclusion of the test results is that
the algorithm Prim and Depth First Search can perform best when creating formation of
the track and searching for the solutions of the maze at the screen resolutions of the
mobile device with 320 x 480 pixels.
Key words : Mobile Game, Android, Prim Algorithm, Depth First Search Algorithm.
PENDAHULUAN
Perkembangan
teknologi
game
sangatlah pesat, tidak hanya pada
komputer dan perangkat-perangkat yang
khusus di desain untuk memainkan game
seperti Playstation, X-box dan sejenisnya
melainkan juga pada handphone.
Kebanyakan orang memainkan game
untuk menghilangkan stress dan mengisi
MD-26
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
waktu luang. Karena handphone
memiliki kepraktisan untuk dibawa
kemana-mana dibandingkan dengan
perangkat elektronik lainnya, maka saat
ini telah banyak pihak yang berminat
untuk mengembangkan fitur-fitur yang
ada di handphone termasuk fitur game.
Dalam pengembangan teknologi
handphone, hal mendasar yang perlu di
pertimbangkan adalah masalah operating
system yang dipakai, karena sudah tentu
suatu aplikasi tidak akan bisa berjalan di
operating system yang berbeda, para
pengembang pun sudah pasti memilih
untuk memgembangkan suatu aplikasi
pada
handphone
yang
memiliki
operating system yang dianggap terbaik.
Operating system Android adalah
operating system yang free dan open
source. Hal inilah yang menjadi dasar
perkembangan teknologi Android yang
begitu pesat dibandingkan dengan
teknologi-teknologi handphone yang
lainnya.
Pada proyek akhir ini, penulis ingin
membuat sebuah aplikasi mobile game
tentang permainan maze / labirin yang
nantinya akan di implementasikan pada
Android OS mobile. Game engine yang
dipakai
untuk
membantu
dalam
pembuatan aplikasi ini adalah LIBGDX
yaitu salah satu framework 2D dan 3D
untuk
Android yang berbasis
OpenGL. LIBGDX di kembangkan oleh
Badlogic games yang bersifat open
sources dan menggunakan bahasa java
sebagai bahasa pemrogramannya.
Perumusan Masalah
Dari latar belakang yang sudah
dijelaskan sebelumnya dimunculkan
sebuah masalah yaitu membuat sebuah
maze game berbasis Android OS mobile
dengan mengimplementasikan algoritma
Prim dan Depth First Search.
Tujuan Proyek
1. Dapat
mengimplementasikan
algoritma Prim pada pembentukan
lintasan maze.
2. Dapat
mengimplementasikan
algoritma Depth First Search dalam
ISSN : 2302-7088
pencarian solusi dari maze yang
telah terbentuk.
3. Dapat mengimplementasikan maze
game pada Android OS mobile.
TEORI PENUNJANG
Maze game
Maze game adalah sebuah permainan
yang bertujuan untuk mencari jalan
keluar dari labirin / jalan yang
membingungkan. Terdapat banyak sekali
variasi dari maze game untuk
membuatnya menjadi lebih menarik.
Pada penelitian kali ini akan di buat
sebuah maze game klasik yaitu pencarian
jalan keluar dengan dibatasi oleh waktu
tertentu yang nantinya akan diterapkan
pada Android OS mobile. Di bawah ini
adalah contoh tampilan lintasan dari
maze game.
Android
Android adalah operating system
untuk handphone yang berbasis Linux.
Android menyediakan platform terbuka
bagi
para
pengembang
untuk
menciptakan
aplikasi
mereka
sendiri,Awalnya Google Inc. membeli
Android Inc., pendatang baru yang
membuat peranti lunak untuk ponsel.
Kemudian
untuk
mengembangkan
Android, dibentuklah Open Handset
Alliance, konsorsium dari 34 perusahaan
peranti keras, peranti lunak, dan
telekomunikasi, termasuk Google, HTC,
Intel, Motorola, Qualcomm, T-Mobile,
dan Nvidia.
Pada saat perilisan perdana Android,
5 November 2007, Android bersama
Open Handset Alliance menyatakan
mendukung
pengembangan
standar
terbuka pada perangkat seluler. Di lain
pihak, Google merilis kode–kode
Android di bawah lisensi Apache, sebuah
lisensi perangkat lunak dan standar
terbuka perangkat seluler.
Di dunia ini terdapat dua jenis
distributor operating system Android.
Pertama yang mendapat dukungan penuh
dari Google atau Google Mail Services
(GMS) dan kedua adalah yang benar–
benar
bebas
distribusinya
tanpa
MD-27
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
dukungan langsung Google atau dikenal
sebagai Open Handset Distribution
(OHD) [1].
LIBGDX
4.
LIBGDX adalah salah satu framework
2D&3D untuk Android yang berbasis
OpenGL. LIBGDX ini dikembangkan
oleh BadLogic Games dan bersifat Open
Source dengan lisensi Apache 2.0
sehingga dapat digunakan untuk proyek
game komersil. LIBGDX menggunakan
bahasa
Java
sebagai
bahasa
pemrogramannya dan dapat berjalan di
semua platform yang mendukung Java
(Windows, Mac, Linux, Android). Saat
ini LIBGDX telah mencapai versi 0.9.2
dan
masih
terus
berlanjut
perkembangannya
didukung
oleh
komunitas yang sangat aktif [2].
ISSN : 2302-7088
a. Rusuk tersebut menghubungkan
salah satu simpul V(T).
b. Rusuk
tersebut
mempunyai
bobot minimal.
Ulangilah langkah tersebut (langkah
2-3) hingga diperoleh (n-1) rusuk
dalam E(T) dengan n adalah
banyaknya simpul dalam G.
Algoritma Depth First Search
Pencarian dengan algoritma Depth
First Search (DFS) dilakukan dari node
awal secara mendalam hingga yang
paling akhir atau sampai ditemukan
tujuan. Dengan kata lain simpul cabang
atau anak terlebih dahulu yang
dikunjungi. Sebagai ilustrasi dapat dilihat
pada gambar 1.
Algoritma Prim
Algoritma Prim digunakan untuk
mencari pohon pembangkit minimum
dari graph terhubung berbobot dengan
cara mengambil sisi / ruas garis yang
memiliki bobot terkecil dari graph,
dimana ruas garis tersebut bersisian
dengan pohon terentang yang telah
dibuat dan yang tidak membentuk siklus
[3].
Untuk mencari pohon pembangkit
minimum T dari graph G dengan
Algoritma Prim dapat dilakukan dengan
langkah-langkah sebagai berikut:
1. Ambilah satu simpul sembarang
(misalnya v1 € G) dan masukkan
simpul tersebut ke dalam graph T
yang merupakan graph kosong.
2. Tambahkanlah satu rusuk yang
terhubung dengan v dengan bobot
yang paling minimum (misalnya e )
dan titik ujung lainnya ke T
sehingga T terdiri dari sebuah rusuk
e dan dua buah simpul yang
merupakan titik-titik ujung dari
rusuk e (salah satu titik ujung harus
memuat simpul v ).
3. Pada langkah berikutnya, pilihlah
sebuah rusuk dalam E(G) yang
bukan E(T) dengan syarat yang
harus dipenuhi sebagai berikut:
Gambar 1 Pencarian dengan DFS
( Sumber: Pratiwi, 2011 )
Berdasarkan
gambar,
proses
pencarian
dilakukan
dengan
mengunjungi cabang terlebih dahulu
hingga tiba di simpul terakhir. Jika tujuan
yang diinginkan belum tercapai maka
pencarian
dilanjutkan
ke
cabang
sebelumnya, turun ke bawah jika masih
ada cabangnya. Begitu seterusnya sampai
ditemukan tujuannya (goal).
DFS memiliki kelebihan diantaranya
adalah cepat mencapai kedalaman ruang
pencarian. Jika diketahui lintasan solusi
permasalahan akan panjang maka DFS
tidak akan memboros waktu untuk
melakukan sejumlah besar keadaan
‘dangkal’ dalam permasalahan graph /
pohon. DFS jauh lebih efisien untuk
ruang pencarian dengan banyak cabang
karena tidak perlu mengevaluasi semua
simpul pada suatu level tertentu [4].
MD-28
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
4. Apabila sel menemui tembok atau
wall, maka kembali ke sel
sebelumnya.
5. Lakukan
langkah-langkah
ini
sampai menemukan sel yang
menjadi selesai atau pintu keluar.
PERANCANGAN SISTEM
Pada perancangan sistem menjelaskan
tentang uraian dan bahan yang akan
digunakan dan cara kerja system dalam
tugas akhir implementasi algoritma Prim
dan Depth First Search pada pembuatan
maze game berbasis Android os mobile .
Deskripsi Sistem
Sistem
ini
dirancang
dengan
menggunakan software Android SDK,
Eclipse dengan tambahan plugin
ADT(Android development tools) untuk
mengembangkan aplikasi Android dan
LIBGDX sebagai frameworknya.
Aplikasi yang dibuat berupa game
labirin, dimana inti dari permainannya
adalah menemukan jalan keluar dari
labirin dengan waktu secepat cepatnya.
Berikut adalah penerapan algoritma
Prim dalam proses pembentukan maze:
1. Pilih random sel sebagai titik awal
2. Jadikan random sel tersebut sebagai
titik mulai
3. Pilih random sel sebagai titik selesai
4. Jadikan tepi-tepi dari kotak lintasan
sebagai wall
5. Pilih random sel tetangga
6. Jika sel yang terpilih kosong
lakukan langkah 7, jika tidak ulangi
langkah 4
7. Jadikan sel tetangga yang dipilih =
path
8. Jadikan sel tetangga sebelah
samping belakang path = wall
9. Ulangi langkah 5, 6, 7, 8 sampai
tidak ada sel yang kosong
Dalam pencarian solusinya, di
gunakan algoritma Depth First Search,
berikut algoritma penyelesaiannya :
1. Pilih titik mulai sebagai titik awal,
akan dikenali sebagai current sel
2. Pilih secara acak sel terdekat yang
bisa dikunjungi, sama seperti proses
pembuatan maze. Hanya ada 4
gerakan yang diperbolehkan yaitu
atas, bawah, kiri dan kanan.
3. Apabila sel belum pernah di datangi
maka pindah current sel ke sel
tersebut. Pilih lagi sel tetangga
secara acak.
ISSN : 2302-7088
Skenario Game
Pada penelitian tugas akhir maze
game ini skenario disusun berdasarkan
waktu.
1. Pada level pertama dan kedua,
waktu tidak dibatasi, jadi seorang
player akan dituntut untuk mencari
jalan keluar dengan waktu secepat
cepatnya yang nantinya waktu
tercepatlah yang akan ditulis di
menu nilai tertinggi / highscore.
2. Pada level ketiga, waktu dibatasi
hanya 1,5 menit.Jika dalam waktu
1,5 menit player dapat menemukan
pintu keluar,
maka player
memenangkan permainan.
3. Sebaliknya, Jika dalam waktu 1,5
menit player
tidak dapat
menemukan pintu keluar dari
labirin, maka player dinyatakan
kalah.
IMPLEMENTASI DAN
ANALISIS
Uji Coba Skenario
Untuk memastikan bahwa sistem
berjalan sebagaimana mestinya, penulis
akan menyusun skenario yang akan diuji
coba antara lain :
1. Pengujian dengan menggunakan
emulator.
2. Pengujian
dengan
handphone
android.
Dalam bab ini dibahas mengenai
skenario hasil uji coba yang telah
dirancang oleh penulis. Uji coba
dilakukan untuk mengetahui apakah
sistem dapat berjalan sebagaimana
mestinya dengan lingkungan uji coba
yang telah ditentukan serta dilakukan
sesuai dengan sekenario uji coba.
Pengujian Dengan Emulator
1.
MD-29
Main Menu Maze Game
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
Gambar 2 menampilkan menu utama
dari maze game yaitu menu mulai,
petunjuk dan pembuat
Gambar 4 Nilai tertinggi
Gambar 2 Main menu
2. Tampilan Pilih Level
Jika tombol mulai pada gambar 2
diklik, maka akan muncul screen baru
yaitu screen pilih level seperti di
tunjukkan oleh gambar 3.
4. Level Pertama
Gambar 5 menunjukkan level pertama
dari maze game. Pada level pertama,
ukuran dimensi dari labirin adalah 20 x
20 dengan waktu tak terbatas. Pada game
ini terdapat menu ganti lintasan, lihat
solusi,gerak otomatis dan menu utama.
Jika menu gerak otomatis di klik, maka
kotak hijau / player akan bergerak secara
otomatis mencari jalan keluar dengan
mengimplementasikan algoritma DFS.
Gambar 3 Pilih Level
Perbedaan antara level pertama,kedua
dan ketiga adalah pada besar dimensi
lintasan dan waktunya. Untuk level
pertama, besar lintasannya adalah 20 x
20 sedangkan level kedua dan ketiga
adalah 30 x 30. Pada level pertama dan
kedua,waktu yang diberikan tidak
terbatas, player dituntut untuk mencari
jalan keluar dengan waktu secepatcepatnya agar bisa mengalahkan nilai
tertinggi/highestscore. Sedangkan pada
level ketiga, waktu dibatasi hanya 1,5
menit. Jika dalam waktu tersebut player
tidak dapat menemukan jalan keluar,
maka player dinyatakan kalah.
Gambar 5 Level Pertama
Level Kedua
Gambar 6 menunjukkan level kedua
dari maze game. Pada level kedua,
ukuran dimensi dari labirin adalah 30 x
30 dengan waktu tak terbatas. Tiap level
memiliki menu yang sama yaitu menu
ganti lintasan, lihat solusi, gerak otomatis
dan menu utama. Dengan waktu yang tak
terbatas, seorang player berusaha
menemukan jalan keluar dengan waktu
secepat- cepatnya untuk di catat pada
menu nilai tertinggi.
3. Tampilan Nilai Tertinggi
Waktu terbaik akan dicatat tiap
level pada menu nilai tertinggi. Seperti di
tunjukkan pada gambar 4.
MD-30
5.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
algoritma Depth First Search. Seperti di
tunjukkan pada gambar 9.
Gambar 6 Level Kedua
6.
Level Ketiga
Gambar 7 menunjukkan level ketiga
dari maze game. Pada level ketiga,
ukuran dimensi dari labirin adalah 30 x
30 dengan waktu yang dibatasi hanya
dengan 1,5 menit. Jika dalam waktu
tersebut seorang player tidak dapat
menemukan jalan keluar, maka player
dinyatakan kalah.
Gambar 9 Tampilan gerak otomatis
Pengujian Dengan Handphone
Untuk pengujian pertama digunakan
handphone Samsung Galaxy Ace dengan
resolusi 480 x 320 pixels, Android versi
2.3.4.
1.
Main Menu Maze Game Pada
Samsung
Untuk main menu dapat tampil
dengan normal seperti di tunjukkan oleh
gambar 10. Semua menu dapat berfungsi
dengan baik, mulai dari menu mulai,
menu petunjuk dan menu pembuat.
Tampilan pada main menu sesuai dengan
tampilan yang ada di emulator.
.
Gambar 7 Level ketiga
7.
Menu Petunjuk
Gambar 8 menunjukkan menu
petunjuk dari maze game. Pada menu ini
akan ditampilkan informasi mengenai
aturan dan bagaimana cara memainkan
maze game ini.
Gambar 10 Main menu pada Samsung
galaxy ace
Gambar 8 Menu Petunjuk
8.
Tampilan Gerak Otomatis
Jika menu solusi otomatis diklik maka
player akan bergerak secara otomatis
mencari jalan keluar dengan menerapkan
2. Tampilan Maze Game Pada
Samsung
Pada pengujian dengan menggunakan
handphone Samsung galaxy ace,
pembentukan lintasan dari maze game
dengan mengimplementasikan algoritma
Prim dapat berjalan dengan baik seperti
di tunjukkan pada gambar 11.
3. Tampilan Gerak Otomatis Pada
Samsung
MD-31
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Jika menu solusi otomatis diklik maka
player akan bergerak secara otomatis
mencari jalan keluar dengan menerapkan
algoritma Depth First Search seperti di
tunjukkan pada gambar 12.
ISSN : 2302-7088
dengan resolusi yang berbeda. Semua
menu dapat berfungsi dengan baik, mulai
dari menu mulai, menu petunjuk dan
menu pembuat. Tampilan pada main
menu sesuai dengan tampilan yang ada di
emulator.
2. Tampilan Pilih Level Pada Motorola
Pada tampilan pilih level, tampilan
hanya muncul pada sisi pojok bawah
sebelah kiri seperti di tunjukkan oleh
gambar 14. Menu-menu yang ada pada
tampilan pilih level tidak bisa berjalan
dengan baik.
Gambar 11 maze game pada Samsung
galaxy ace
Gambar 14 Pilih level pada Motorola
Gambar 12 Solusi otomatis pada
Samsung galaxy ace
Untuk pengujian kedua digunakan
handphone Motorola droid X dengan
resolusi 840 x 420 pixels, Android versi
2.3.3.
2. Main Menu Maze Game
Pada
Motorola
3. Tampilan Maze Game Pada
Motorola
Sama seperti tampilan pilih level,
tampilan maze game juga hanya muncul
pada sisi pojok bawah sebelah kiri
dengan tombol-tombol menu semuanya
tidak berfungsi. Seperti di tunjukkan
pada gambar 15.
Gambar 13 Main menu pada Motorola
Gambar 13 menunjukkan tampilan
main menu dari maze game. Untuk
tampilan main menu dapat berjalan
dengan baik sesuai harapan walau
MD-32
Gambar 15 Maze Game pada
Motorola
4. Tampilan
Motorola
Menu
Petunjuk
Pada
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Tampilan menu petunjuk hanya
berada pada sisi pojok bawah sebelah kiri
dengan tombol-tombol menu tidak
berfungsi dengan baik. Seperti di
tunjukkan pada gambar 16.
ISSN : 2302-7088
Tabel 2 Spesifikasi untuk maze game
Type
Processor
RAM
Resolusi
Screen
OS
Requirements
800 MHz
278MB
320 x 480 pixels
Android 2.3 Gingerbread
KESIMPULAN
Gambar 16 Petunjuk pada Motorola
ANALISA HASIL UJI COBA
Setelah dilakukan uji coba dengan
beberapa perangkat dapat dijelaskan pada
Tabel 1 di bawah ini.
Tabel 1 Perbedaan resolusi screen
Algori
tma
DFS
(Pen
carian
solusi)
Tipe
Smart
phone
Resolu
si
Screen
Tampil
an
Algoritm
a Prim
(Generat
e
Labirin)
Emulat
or
Samsun
g
Galaxy
Ace
Motorol
a Droid
X
320
480
sesuai
sesuai
sesuai
320 x
480
pixels
sesuai
sesuai
sesuai
420 x
820
pixels
Tidak
sesuai
Tidak
sesuai
Tidak
sesuai
x
Dari hasil pengujian dan analisa pada
bab
sebelumnya
maka
diambil
kesimpulan
1. Dari hasil pengujian dan analisa
maze game dapat berjalan dengan
baik pada smartphone android yang
memiliki resolusi screen 320 x 480
pixels. Aplikasi game ini masih
belum bisa berjalan lancar pada tipe
smartphone android yang memiliki
resolusi screen lebih besar dari 320
x 480 pixels.
2. Algoritma Prim dapat berfungsi
dengan baik dalam pembentukan
lintasan dari labirin pada handphone
dengan resolusi 320 x 480 pixels.
3. Algoritma DFS dapat berfungsi
dengan baik dalam pencarian jalan
keluar dari labirin yang telah
terbentuk pada handphone dengan
resolusi 320 x 480 pixels.
DAFTAR PUSTAKA
Setelah dicoba ternyata smartphone
android tipe Motorola Droid X dengan
resolusi 420 x 820 pixels tidak bisa
menjalankan perangkat lunak ini dengan
sempurna (tampilan game hanya berada
di pojok bawah sebelah kiri). Karena
dalam pembuatannya sangat ditentukan
oleh koordinat. Perubahan ukuran layar
dapat membuat game tidak berjalan
dengan semestinya.
Berdasarkan hasil pengujian, “maze
game” membutuhkan standart spesifikasi
untuk dapat berjalan dengan baik. Untuk
lebih jelas melihat spesifikasi tersebut
daapt dilihat pada tabel 2
MD-33
[1] Bernard Y.A. Arti Android
beserta fasilitas yang ada di
dalamnya. April 2011. URL:
http://www.infoteknologi
.com/selular/apa-itu-Android/.
Diakses tanggal 14 Desember
2011.
[2] Zechner
M.
Introduction.
Agustus
2011.URL:http://code.google.co
m/p/libgdx/wiki/Introduction.
Diakses tanggal 14 Desember
2011.
[3] Emut. Aplikasi algoritma Prim
dalam
menentukan
pohon
pembangkit minimum pada suatu
Graph. Pendidikan Matematika.
Universitas Negeri Yogyakarta.
1: 3-5. 2008
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
[4] Pratiwi E.A., Efendi R dan Malik
R.F. Penyelesaian Game Puzzle
Hashiwokakero dengan teknik
MD-34
ISSN : 2302-7088
Solving Hashi dan Depth First
Search. Teknik Informatika.
Universitas Sriwijaya. 1: 2. 2011
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
ISSN : 2302-7088
APLIKASI EDITOR SKENARIO UNTUK PROSES PRODUKSI FILM
Nelly Oktavia Adiwijaya
Program Studi Sistem Informasi, Universitas Jember
E-mail: [email protected]
Abstrak
Dukungan teknologi dan sistem komputer dalam suatu pekerjaan sangat diperlukan
begitu pula dalam proses produksi film. Pengembangan sistem informasi untuk tahapan
produksi film dapat membantu memudahkan para pekerja tim produksi film
menyelesaikan tugasnya dan menyajikan hasilnya.Editor skenario merupakan suatu
aplikasi yang dapat membantu seorang penulis skenario mengetik ide kreatif skenario
untuk sebuah film. Permasalahan pada penelitian ini adalah, editor skenario ini mampu
menyediakan tool pemformatan khusus skenario film yang tidak didapatkan pada
aplikasi editor teks biasa. Aplikasi editor skenario ini dibuat berbasis web yang dapat
dijalankan menggunakan web browser. Hasil penelitian ini dapat membantu melancarkan
dan memudahkan para penulis skenario dalam menuangkan idenya tanpa harus
direpotkan dengan pemformatan yang harus memenuhi aturan penulisan skenario film.
Fitur pemformatan dalam aplikasi editor skenario ini dapat digunakan dengan langsung
memilih jenis format sesuai kategori yang akan digunakan, sehingga proses penulisan
skenario sekaligus pemformatannya dapat dilakukan secara mudah dan cepat.
Kata kunci: Sistem Informasi, produksi film, editor skenario
Abstract
Technology support and computer system in a completing various job(s) is needed as
well as in the film production process. Development of information system for movie
production stages can help the film production team to complete their task and to present
the result. Scenario editor is an application that is useful to the screenwriter(s) which
help them to type their creative ideas in film making. In this research, we propose
scenario editor with screenplay tool and format which is not found in ordinary text
application. This application is web-based. Moreover, this application facilitate the
writers in expressing their ideas without having bothered with the screenplay writing
format. Formatting features in this application can be used to directly select the category
format, therefore the process of screenplay writing as well as text formatting can be done
easily and quickly.
Key words: Information system, film production, scenario editor
PENDAHULUAN
Proses produksi film memiliki empat fase
tahapan besar, yaitu development, praproduksi, produksi, dan post-produksi (Cleve,
2006). Dalam fase pertama, produser
menyiapkan dan memahami suatu ide untuk
film kemudian dikembangkan menjadi paket
rapi dan mencoba untuk meningkatkan
produksi dana untuk mendapatkan proyek
menjadi praproduksi. Pada tahap development
ini pula sebuah skenario disiapkan.
Permasalahan yang dihadapi penulis skenario
khususnya di Indonesia adalah tool untuk
menulis. Studi kunjungan pernah dilakukan ke
studio animasi Kojo Anima di Bandung.
Proses pembuatan film animasi 3D secara
umum sama dengan proses pembuatan film
pada umumnya, perbedaannya adalah pada
bagian produksinya tidak dilakukan syuting
dengan pemeran film tapi dengan membuat
animasi digital. Untuk proses development dan
pra produksi khususnya pemnyusunan
skenario, mereka masih menggunakan cara
manual untuk penulisan skenario dan
pemformatannya, serta pengalokasian waktu
untuk masing-masing adegan masih dihitung
manual. Pada saat diajukan perancangan untuk
MD-35
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
aplikasi editor skenario, respon yang didapat
sangat baik.
Wawancara juga dilakukan terhadap
penulis scenario Indonesia, Salman Aristo,
yaitu
bagaimana
seorang
scriptwriter
melakukan
pekerjaannya.
Dari
hasil
wawancara yang dilakukan di Jakarta pada
saat acara Indonesia International Fantastic
Film Festival, Salman Aristo mengatakan
bahwa menulis skenario bisa muncul kapan
saja dan sebisanya langsung dituangkan agar
ide yang muncul tidak lupa. Kendalanya
adalah penulisan skenario mempunyai aturan
pemformatan tersendiri. Pemformatan skenario
cukup banyak dan untuk menghindari
hilangnya ide, penulisan dilakukan secara
langsung tanpa format, baru kemudian ditata
ulang sesuai dengan format baku. Saat
ditanyakan tentang perlu tidaknya disediakan
tool yang dapat membantu pekerjaannya
menulis, tanggapannya adalah, sangat perlu.
Tool yang ada yang pernah dipakai, masih
sangat mahal dan kekurangannya adalah harus
diinstal terlebih dahulu dan menggunakan
format tersendiri untuk hasil penyimpanan
filenya. Ketika file skenario tersebut dikirim
atau dibuka dalam computer lain maka
computer tersebut harus pula menginstal
software editor skenario tersebut.
Dari hasil wawancara dan kunjungan studi
tersebut, maka penelitian ini dilakukan dengan
permasalahan bagaimana seorang penulis
skenario dapat menulis skenario dengan
menggunakan suatu aplikasi yang otomatis
menyediakan
fitur-fitur
khusus
dalam
pemformatan skenario film.
Tujuan penelitian ini adalah merancang dan
mengimplementasikan suatu aplikasi berbasis
web untuk editor skenario. Harapannya disini
adalah dapat membantu mempermudah
pekerjaan penulis skenario dalam menuliskan
idenya menjadi sebuah skenario. Aplikasi ini
dilengkapi dengan tool formatting serta
berbasis web sehigga dapat dibuka dari
browser dan tidak harus menginstal di setiap
computer untuk membuka file yang tersimpan.
FORMAT SKENARIO FILM
Format dari screenplay atau skenario
adalah sebuah penyajian secara seksama apa
yang terjadi dalam setiap adegan dalam setiap
scene.
Manager
produksi
dapat
mengidentifikasi elemen-elemen dalam skrip
(karakter, lokasi/background, props, dll) yang
ISSN : 2302-7088
akan berpengaruh pada jadwal dan dana, para
actor juga dapat menemukan tugas dan
posisinya dengan mudah, dan sutradara akan
mempunyai sebuah blueprint dimana dia dapat
membuat shooting script.
Pengaturan formatnya adalah sebagai
berikut (Antonini.L, 2005):
1. Aturan 1 – teks hitam pada kertas
berukuran 8.5” x 11” atau seukuran
dengan kertas kwarto
2. Aturan 2 – font Courier 12pt
3. Aturan 3 – rule 1 dan rule 2 tidak boleh
dilanggar
4. Aturan 4 – Margin :
Untuk setiap halaman (dapat bervariasi,
namun harus standar pada keseluruhan
skrip):
- left margin = 1.5” dan right margin =
1.0”;
- top margin = 1.0” dan bottom margin
= 1.0”.
Margin kiri lebih besar untuk area
penjilid-an, dapat juga disamakan semua
ukuran margin.
Untuk kata-kata dalam setiap halaman,
pemenggalan baris dan deskripsi scene
adalah rata kiri dan kanan.
Dialog mempunyai left margin = 2.5” dan
right margin = 2.5”
Nama karakter di atas dialog yang
berkaitan mempunyai left margin = 3.5”
Parenthetical direction (arahan) dalam
dialog mempunyai left margin dan right
margin sebesar 3”.
Transisi scene seperti CUT TO dan
FADE OUT mempunyai left margin 6”
atau rata kanan.
5. Aturan 5 – nomor halaman.
Diletakkan di pojok kanan atas halaman.
Halaman pertama tanpa nomor halaman,
dimulai dari halaman kedua. Hal umum
dan bermanfaat adalah meletakkan
periode setelah nomor halaman untuk
menghindari kebingungan dengan nomor
scene.
6. Aturan 6 – SPASI, deskripsi scene dan
blok dialog berspasi satu/single. Semua
yang lain dipisah oleh spasi ganda.
7. Aturan 7 – NOMOR SCENE, untuk
sebuah shooting script yang ditujukan
untuk memberi catatan khusus, maka
harus diberi nomor scene.
Nomor scene adalah berurut dimulai dari
1 dan ditempatkan pada baris yang sama
dengan judul scene, baik di kanan dan di
MD-36
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
kiri. Ketika sebuah scene ditambahkan
diantara scene yang telah ada, scene
tersebut diberi label sama yang kemudian
diikuti dengan A (kemudian B jika ada
tambahan lagi).
Scene yang dihilangkan masih disajikan
dalam shooting script dengan diberi tanda
pada nomor scene yaitu dengan kata
“OMIT”. Hal ini untuk memberi tahu
setiap orang tentang adanya perubahan
yang terjadi.
8. Aturan 8 – JUDUL SCENE, untuk setiap
scene baru- misalnya ketika ada
perubahan lokasi dalam action (fisik atau
sementara), ada sebuah judul scene baru.
Judul menyatakan 3 hal yaitu Setting,
Lokasi dan Time of Day. Semuanya selalu
ditulis capital.
Contoh:
INT. KIT’S CLASSROOM – NIGHT
(setting) (lokasi) (Time of Day)
SETTING: Ada 2 pilihan yaitu INT
(interior) dan EXT (exterior). Semua yang
tertutup masuk dalam INT, semua yang
berada di luar masuk dalam EXT.
LOKASI: dua spasi kemudian nama
lokasi singkat, menjelaskan tipe tempat
yang digunakan.
TIME OF DAY: selalu ada strip antara
lokasi dan time of day. Secara umum
dinyatakan sebagai DAY atau NIGHT
walaupun sedang fajar atau senja- jika
diperlukan penjelasan tambahan letakkan
dalam deskripsi scene.
9. Aturan 9 – SCENE BREAK, setiap
rangkaian (kumpulan scene yang memuat
klimaks action) diakhiri dengan sebuah
scene break. Hal ini membantu anda
mempercepat ritme cerita anda.
Secara umum digunakan hal berikut dan
tempatkan di margin kanan:
CUT TO: dan 2 baris kosong berarti
sangat sedikit waktu dipakai.
DISSOLVE TO: dan 2 baris kosong
berarti beberapa waktu dipakai.
FADE OUT: dan 2 baris kosong berarti
banyak waktu dipakai.
10. Aturan 10 – CONTINUED atau
CONT’D, digunakan ketika baris karakter
atau deskripsi scene harus muncul pada
halaman berikutnya. Gunakan CONT’D
pada bagian bawah halaman, rata kanan;
dapat juga ditambahkan CONT’D pada
bagian atas halaman berikutnya, rata kiri.
ISSN : 2302-7088
11. Aturan 11 – DESKRIPSI SCENE,
menyatakan apa yang dilakukan karakter,
relasi
terhadap
yang
lain
dan
lingkungannya. Juga
dapat untuk
menjelaskan karakter. Terlalu banyak
detail akan memperlambat kecepatan
pembaca. Buatlah tepat dan lancar. Semua
diberi spasi tunggal.
Ketika memperkenalkan karakter baru
dalam skenario, nama karakter ditulis
dalam huruf kapital. Hanya sekali, hal ini
akan memberi tanda pada pembaca bahwa
karakter tersebut adalah baru. Juga tulis
dalam kapital untuk props dan suara
penting. Dalam scenario dihindari
deskripsi arahan kamera.
12. Aturan 12 – DIALOG, nama karakter
selalu dalam huruf capital. Jika karakter
tidak tampak dalam scene, dapat
ditambahkan sebuah vocal arahan yang
selalu ada dalam parenthesis dan
mengikuti nama aktor – (Off screen)
(Voice over).
Di bawah nama karakter dalam
parenthesis dapat ditambahkan arahan
khusus untuk karakter tersebut. Catatan,
hal ini hanya dilakukan ketika benarbenar dibutuhkan untuk menyoroti sebuah
kesan emosional atau aksi spesifik plot.
Contoh: (Shaking) atau (cracking gum).
Kemudian diberi pindah baris lalu
menuliskan dialog menggunakan margin
dari Aturan 3.
Jangan pernah menuliskan nama karakter
di bagian paling bawah halaman lalu
dialognya pada halaman berikutnya.
13. Aturan 13 – JUDUL HALAMAN, berada
di tengah sekitar 1/3 bagian halaman ke
bawah kemudian 4-6 baris ke bawah,
masih rata tengah. Pada bagian bawah,
sudut
kanan
harus
ada
nama
orang/perusahaan yang mengeluarkan
skenario tersebut dilengkapi dengan
kontak informasi.
TinyMCE
Pada pembuatan aplikasi editor skenario
ini, digunakan engine TinyMCE. TinyMCE
adalah platform editor WYSIWYG kontrol
berbasis web independen Javascript HTML
yang dirilis sebagai Open Source di bawah
LGPL oleh Moxiecode Sistem AB. Memiliki
kemampuan untuk mengkonversi field HTML
textarea atau elemen HTML lain menjadi
MD-37
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
obyek editor. TinyMCE sangat mudah untuk
diintegrasikan ke dalam Sistem Manajemen
Konten lainnya.
ISSN : 2302-7088
Spesifikasi Kebutuhan Sistem
Komputer Pentium dengan RAM 128MB
untuk menjalankan web browser, kapasitas
memori utama (Hard Disk) 1GB.
Web browser untuk membuka aplikasi,
lebih disarankan menggunakan Opera untuk
mendukung kemampuan tampilan aplikasi.
Basis data MySQL 5.0 yang bersifat freeware.
Pemodelan sistem
Secara garis besar aliran kerja proses pada
aplikasi editor skenario dapat digambarkan
dalam blok diagram dan sequence diagram
seperti pada gambar 2 dan gambar 3 berikut
Gambar 1. Contoh skenario dengan format
standar
Fitur TinyMCE:
- mudah diintegrasi, hanya diperlukan
beberapa baris kode saja untuk
mengintegrasikannya;
- dapat dikustomisasi, theme dan plugin,
elemen-elemen blok yang tidak sah dan
elemen atribut;
- browserfriendly, dapat menggunakan
browser Mozilla, MSIE, FireFox, Opera,
Safari dan Chrome;
- mendukung teknologi AJAX, dapat
menggunakan teknologi ajax dengan
mudah untuk menyimpan dan memanggil
isi;
- internasional,
mendukung
berbagai
bahasa menggunakan paket language;
- opensource, free di bawah lisensi LGPL
(AB.M.S, 2009).
Gambar 2. Blok diagram editor skenario
Sequence diagram digunakan untuk
menggambarkan rangkaian langkah yang
dilakukan sebagai respon dari sebuah event
untuk
menghasilkan
keluaran
tertentu
(Donald.B, 2003). Sequence diagram diawali
dari apa yang memicu aktifitas tersebut, proses
dan perubahan apa saja yang terjadi secara
internal dan keluaran apa yang dihasilkan.
aplikasi
editor skenario
editor control
database
: penulis skenario
1 : buka aplikasi()
2 : request page()
3 : tampilkan halaman()
4 : buat skenario()
5 : kirim data()
ANALISIS KEBUTUHAN SISTEM
DAN PERANCANGAN
6 : tag komponen skenario()
7 : simpan data()
8 : kirim data()
9 : simpan data()
Kebutuhan fungsional aplikasi editor skenario:
1. Sistem mampu menyediakan tempat bagi
penulis skenario untuk menulis skenario;
2. Editor
skenario
dilengkapi
tool
pemformatan sesuai standar penulisan
skenario;
Gambar 3. Sequence diagram penulisan
skenario
Implementasi
Implementasi dari perancangan system
menggunakan perangkat implementasi sebagai
berikut:
MD-38
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
Perangkat Lunak
Untuk mendukung pembuatan aplikasi
sistem, digunakan beberapa software sebagai
berikut.
1. Bahasa pemrograman, digunakan bahasa
pemrograman PHP 5.2.4 sebagai script
server, Javascript sebagai script dinamis
client, CSS sebagai script style.
2. Web Design, dalam membuat desain
tampilan ini digunakan Adobe Photoshop
CS3 dan digunakan Adobe Dreamweaver
CS3 serta microsoft Frontpage 2003
tergantung dari kebutuhan auto licence
pada saat melakukan coding script.
3. Basis data, basis data yang dipakai adalah
aplikasi MySQL 5.0 yang bersifat
freeware. Dengan editor MyDeveloper
Studio memudahkan dalam perancangan
dan pembangunan database.
4. Web server, web server yang digunakan
adalah Apache 2.2.6 dengan sisitem
operasi yang digunakan adalah Windows
XP.
5. Web browser, web browser yang dipakai
adalah Opera 9.
Perangkat keras
Lingkungan
perangkat
keras
yang
digunakan dalam pengimplementasian sistem
berspesifikasi:
1. processor Intel Pentium Dual Core 1.7
Ghz;
2. RAM 1024 MB
Tampilan Antarmuka
Antarmuka pengguna atau yang biasa
disebut user interface merupakan bentuk
tampilan grafis yang berhubungan langsung
dengan pengguna (user). Antarmuka berfungsi
untuk menghubungkan informasi antara
pengguna dengan sistem, sehingga tersebut
dapat digunakan. Pada gambar 4 merupakan
antarmuka untuk editor skenario.
ISSN : 2302-7088
Gambar 4. Antarmuka editor skenario
Penulis mengharapkan penelitian ini dapat
dikembangkan lebih lanjut, diantaranya:
1. Kemampuan aplikasi yang didukung
dengan fasilitas resume komponen dan
kategori dalam sebuah scenario film, untuk
kemudahan dalam pelaksanaan tahapan
produksi film berikutnya yaitu pra
produksi.
2. Kemampuan aplikasi untuk mencetak
dokumen scenario misalnya ke dalam
bentuk PDF atau berdasarkan filter scene.
DAFTAR REFERENSI
KESIMPULAN DAN SARAN
Berdasarkan hasil perancangan serta
implementasi aplikasi editor scenario film,
dapat diperoleh kesimpulan sebagai berikut:
1. Aplikasi editor scenario ini mampu
memberikan fitur pemformatan khusus
penulisan scenario yang mudah digunakan.
2. Aplikasi editor scenario ini dijalankan
melalui web browser untuk kemudahan
penggunaannya.
MD-39
[1] AB, M. S., http://tinymce.moxiecode.
com/index.php, 27 januari 2009
[2] Antonini, L. (2005), 4 Juni 2009,
Screenplay
Formatting,
http://www.mediachops.com/producer_ch
ops/1_Production_Cycle/PDFs/screenplay
_formatting.pdf
[3] Bell, Donald. (2003). UML Basics:An
introduction to the Unified Modeling
Language.
http://www.ibm.com/developerworks/ratio
nal/library/769.html . 3 Agustus 2012
[4] Cleve, B. (2006). Film Production
Management 3rd ed. USA: Focal Press.
Seminar Nasional Teknologi Informasi & Komputasi 2012 (SENASTIK 2012)
Bangkalan, 13-14 Nopember
MD-005 (not yet)
MD-40
ISSN : 2302-7088