HYBRID ALGORITMA GENETIKA SIMULATED ANNEALING UNTUK
PERAMALAN DATA TIME SERIES
Peramalan
time series bertujuan untuk mengendalikan atau mengenali perilaku system
berdasarkan data pada periode waktu tertentu. Pada umumnya metode statistic
untuk peramalan data time series stasioner dan non stasioner kurang akurat dan
tidak lengkap dalam mendeskripsikan perilaku data, sehingga hasil peramalannya
kurang akurat. Pada Tesis ini akan dikembangkan teknik peramalan time series
dengan menggunakan hybrid algoritma genetika simulated annealing (hybrid
GA-SA). Algoritma genetika menghasilkan nilai optimasi yang baik dan cepat
dalam memecahkan suatu solusi, tetapi masih memungkinkan terjebakpada local
optimum, sedangkan simulated annealing digunakan pada proses mutasi untuk
memperoleh individu yang lebih baik. Teknik ini dikembangkan berdasarkan
persamaan linier untuk menghasilkan nilai koefisien time series. Studi empiris
pada empat tipe data time series menunjukkan bahwa model hybrid GA-SA mampu
menghindari local optimum lebih baik dan memperbaiki hasil optimasi model
algoritma genetika murni. Untuk peramalan satu tahap ke depan, hasil peramalan
hybrid GA-SA lebih mendekati nilai aktual dan menghasilkan kinerja yang lebih
baik dibandingkan dengan ARIMA untuk data time series stasioner, non stasioner
dan musiman. Untuk peramalan banyak periode ke depan menunjukkan akurasi
peramalan hybrid GA-SA lebih baik dibandingkan model ARIMA.
Time
series forecasting use to control or recognize system behavior according to
data in some period. Commonly, statistic method are less adequate and
incompletely for stationer and non stationer time series forecasting when
describing data behavior, with the result that not accurate prediction. This
thesis proposes a developing of time series forecasting technique using hybrid
genetic algorithms simulated annealing (hybrid GASA). Genetic algorithms have a
better and fast optimization results in order to solve a solution, but should
trap in local optimum, simulated annealing is used in mutation process to get a
fitter offspring. This technique is developed from linier equation to get some
coefficient values of time series. Empirical study of four types of time series
data show that hybrid GA-SA model can escape from local optimum better than
natural genetic algorithms model and get optimization values better than
genetic algorithms model. One step ahead forecasting shows that forecast
results of hybrid GA-SA model get closer to actual value and better performance
results than ARIMA model for stationer, non stationer and seasoning time series
data. Multi step ahead forecasting shows that forecast accuracy of hybrid GA-SA
model is better than AJRIMA model.
HYBRID AVERAGE COMPLETE CLUSTERING SEBAGAL ALGORITMA
KOMPROMI ANTARA KUALITAS DAN WAKTU KOMPUTASI PROSES CLUSTERING
Agglomerative
Hierarchical clustering mempunyai beberapa algoritma yang telah dikenal yaitu,
Single Linkage,] Complete Linkage, Average Linkage, Cenlroid Linkage. Algoritma
average linkage mempunyai kualitas hasil clustering paling baik dibandingkan
dengan algoritma lainnya. Namun algoritma average linkage membutuhkan waktu
proses yang lebih lama dibandingkan dengan algoritma lainnya. Di lain pihak,
algoritma complete linkage mempunyai hasil kualitas yang cenderung lebih baik
dari algoritma single linkage, dan cenderung mempunyai waktu komputasi yang
lebih cepat dibandingkan dengan algoritma centroid linkage. Atas dasar ini maka
perlu dilakukan penggabungan algoritma yang dapat mengkompromikan kualitas
hasil clustering dan waktu komputasi.Dalam penelitian ini dilakukan eksperimen
terhadap hibrida/penggabungan antara algoritma average linkage dan complete
linkage yang disebut dengan Hybrid Average Complete Clustering {HACC). Algoritma
IIACC diimplementasikan dalam dua tahap proses linkage! clustering. Dalam tahap
pertama, data diproses terlebih dahulu dengan menggunakan algoritma average
linkage. Sedang dalam tahap kedua, luaran tahap pertama diproses lebih lanjut
dengan menggunakan algoritma complete linkage. Masing-masing tahapan proses
linkage tersebut ditentukan, oleh prosentase komposisi proses linkage. Jika
pada tahap pertama digunakan algoritma average linkage dengan proses linkage
sebanyak p%, maka pada tahap kedua algoritma complete linkage harus digunakan
dengan proses linkage sebanyak (l00-p)%. Komposisi proses linkage pada
algoritma HACC ini harus ditentukan terlebih dahulu sebelum algoritma tersebut
diaplikasikan. Kualitas algoritma HACC dihitung berdasarkan nilai faktor
kompromi. Faktor kompromi dideflnisikan sebagai perbandingan antara delta
rata-rata peningkatan kualitas hasil clustering terhadap algoritma complete
linkage dengan delta penurunan waktu komputasi terhadap average
linkage.Algoritma HACC telah diujicobakan dengan menggunakan data uji coba
standar yang diperoleh dari UCI Repository. Hasil uji coba algoritma HACC
menunjukkan bahwa nilai Faklor kompromi terbesar (24.4) diperoleh untuk
komposisi hibrida 30%:70%. Dari hasil uji coba ini dapat disimpulkan bahwa algoritma
HACC dapat memberikan nilai kompromi paling baik pada komposisi hibrida
30%:70%. Kutii Kuuei: Clustering, Hibrida , Average Linkage, Complete linkage,
Faktor Kompromi
Agglomerative
Hierarchical Clustering has some algorithms called Single Linkage, Complete
Linkage, Average Linkage, and Centroid Linkage. Average linkage Algorithm gives
the best quality in clustering than the others, but it requires a longer
computing time. On the other hand, in terms of clustering quality, complete
linkage algorithm tends to be better than single linkage algorithm and has
faster computing time than that of centroid linkage algorithm. Thus a merging
algorithm was needed to compromise the quality of clustering result and
computing time. In this research, an algorithm that merges the average linkage
and complete linkage algorithms is experimented. It is called the Hybrid
Average Complete Clustering (HACC) algorithm. This algorithm consists of two
main steps in performing the clustering process. In the first step, data is
processed using the average linkage algorithm; while in the second step, the
output of the first step is processed using the complete linkage algorithm. In
each step, the number of linkage processes that must be performed is determined
by percentage of linkage process composition. If in the first step the average
linkage algorithm is used with a linkage process of p%, then in the second
step, the complete linkage algorithm must involve a linkage process of
(100-p)%. The linkage process composition of the HACC algorithm must be
determined in advance before the algorithm is executed. The quality of the HACC
algorithm is calculated by computing the value of compromise factor, which is
defined as a comparison between the delta of mean of quality improvement of the
clustering result obtained by the complete linkage algorithm and the delta of
degradation of computing time obtained during the average linkage. The HACC
algorithm has been tested using a standart test data set obtained from The
University California, Irvine (UC1) Repository. The experimental results show
that the HACC algorithm finds that the biggest value of the compromise factor
(i.e.,24.4) is obtained for a hybrid composition of 30%:70%. Therefore, it can
be concluded that the HACC algorithm gives its best compromise factor value at
a hybrid composition of 30%:70%.
IMPLEMENTASI ALGORITMA H-ERROR DAN K-ERROR PADA KLASTERISASI
DATA
Clustering
adalah proses pengelompokan objek data ke dalam kelas-kelas berbeda yang
disebut cluster sehingga objek yang berada pada cluster yang sama semakin mirip
dan berbeda dengan objek pada cluster yang lain. Pada algoritma clustering
tradisional seperti k-means dan Ward diasumsikan tidak ada kesalahan pengukuran
yang berhubungan dengan data. Padahal pada aplikasi nyata, kesalahan pengukuran
pada data seringkali terjadi. Dengan adanya kesalahan pengukuran, metode
clustering tradisional seperti k-means dan Ward mungkin tidak menghasilkan
hasil clustering yang memuaskan. Untuk mengatasi permasalahan kesalahan
pengukuran pada data pada metode clustering k-means dan Ward, maka dikembangkan
metode error-based clustering yang terdiri dari algoritma kError dan hError.
Algoritma kError dan hError ini merupakan pengembangan dari algoritma k-means
dan Ward. Pada tugas akhir ini, digunakan algoritma kError dan hError untuk
melakukan clustering data, serta algoritma k-means dan Ward sebagai
perbandingan evaluasi hasil cluster berdasarkan nilai F-Measure, running time
dan MSE. Uji coba dilakukan terhadap 6 buah data set yang berbeda. Berdasarkan
hasil uji coba diperoleh bahwa, jika ditinjau dari nilai F-Measure dan MSE,
algoritma hError mampu memberikan hasil yang lebih baik. Sedangkan bila dilihat
dari running time, algoritma clustering tradisional relatif lebih baik jika
dibandingkan dengan error-based clustering.
Clustering
is a process to categorize object into some different classes that is called
cluster, so that the objects within the same cluster have more similarity than
other objects in different cluster. In the traditional clustering algorithm,
such as: k-means and ward, assumed that there is no measurement error regarding
the data. However, in the real application, the measurement error within the
data is often occurred. With the occurrence of measurement error within the data,
traditional algorithm like k-means and ward may not produce a good result. To
produce a better result with some measurement error occur in the data, K-means
and ward have been developed with error-based clustering method named kError
and hError. These algorithm are developed from the original K-means and Ward.
In this final project, kError and hError is used to cluster the data and
k-means and ward algorithm are used as the comparator based on the evaluation
clustering result of F-measure value, running time and MSE. The experiment is
tested from 6 different data sets. As a result, if observed by F-measure value
and MSE, hError algorithm can produce a better result than the traditional
algorithm. But, if the data been observed by running time, the traditional
clustering algorithm may produce a better result relatively than error based
clustering algorithm.
IMPLEMENTASI MODIFIKASI ENHANCED CONFIX STRIPPING STEMMER
UNTUK BAHASA INDONESIA DENGAN METODE CORPUS BASED STEMMING
Algoritma
stemming kata pada Bahasa Indonesia dengan performa yang paling baik (memiliki
jenis kesalahan stemming yang paling sedikit) adalah algoritma Enhanced Confix
Stripping (ECS) Stemmer. Meskipun terdapat peningkatan performa stemming kata,
masih terdapat kesalahan yang dilakukan oleh ECS Stemmer. Selain itu, algoritma
ECS Stemmer juga tidak mengajukan perbaikan terhadap permasalahan overstemming
dan understemming. Dalam tugas akhir ini, diajukan perbaikan terhadap algoritma
ECS Stemmer. Selain perbaikan terhadap aturan pada tabel acuan pemenggalan
imbuhan, juga dilakukan implementasi metode corpus based stemming untuk
melakukan penyelesaian terhadap problem overstemming dan understemming.Proses
evaluasi sistem Information Retrieval (IR) menggunakan relevansi set dokumen
terhadap query yang dibentuk secara otomatis menggunakan teknik data fusion dan
metode condorcet. Karena tidak dibentuk secara manual, relevan set tersebut
dinamakan pseudo relevant documents (pseudorels).
The
best performance for Indonesian words stemming algorithm (having the least kind
of error) is the Enhanced Confix Stripping (ECS) Stemmer algorithm. Although
the performance on stemming words had improved, ECS Stemmer still made some
mistakes. In addition, ECS Stemmer algorithm also did not propose a solution
for overstemming and understemming problem. In this final project, proposed
improvements to ECS Stemmer algorithm. In addition to improvements on the rules
of confix stripping reference table, there is also implementation of
corpus-based stemming method to solve overstemming and understemming problem.
Evaluation of Information Retrieval system use a set of document relevance to
queries that are created automatically using data fusion techniques and
Condorcet methods. Because not created manually, the relevant set is called
pseudo relevant documents (pseudorels).
IMPLEMENTASI SISTEM REKOMENDASI BERITA BERBAHASA INDONESIA
BERBASIS PILIHAN PERSONAL MENGGUNAKAN ALGORITMA HYBRID FILTERING
Sistem
rekomendasi berita berbahasa Indonesia diimplementasikan menggunakan data pilihan
berita secara personal untuk memenuhi kebutuhan pembaca berita di Indonesia
yang semakin meningkat. Pengimplementasian sistem ini didapatkan rekomendasi
berita yang berbeda-beda untuk setiap pembaca. Algoritma yang digunakan adalah
hybrid filtering yang merupakan gabungan dari collaborative filtering dan
content-based filtering. Collaborative filtering merupakan algoritma yang
sering digunakan dalam sistem rekomendasi. Algoritma ini merekomendasikan item
atau berita berdasarkan item yang dipilih oleh pengguna lain. Content-based
filtering merupakan algoritma rekomendasi yang memberikan rekomendasi tertinggi
terhadap item-item yang memiliki konten yang paling disukai oleh pengguna
tersebut. Nilai rekomendasi tertinggi diberikan kepada item yang memiliki nilai
rekomendasi secara collaborative filtering dan content-based filtering yang
tertinggi. Uji coba yang dilakukan adalah membandingkan dua simulasi
rekomendasi berita yang dijalankan dalam merekomendasikan berita dengan jumlah
kategori yang berbeda. Hasil uji coba menunjukkan 44% berita terekomendasi
tergolong kategori favorit pembaca.
Indonesian
news recommendation system is implemented using the data in a personal
preferences of news to meet the needs of news readers in Indonesia, which has
been increasing year to year. The implementation of this system we get
different news recommendation for every reader. The algorithm, that is used, is
hybrid filteringa as a combination of collaborative filtering and content-based
filtering. Collaborative filtering is an algorithm that is often used in
recommendation system. This algorithm recommends item or news based on the
items selected by other users. Content-based filtering is a recommendation
algorithm that provides content of items that most preferred by the user. The
highest recommended value is given to items that have the highest value in a
collaborative filtering recommendation and content-based filtering. Experiments
that is performed is comparine two simulations that run news recommendation in
recommending the news with a number of different categories. The test result
showed 44% of news recommended catagory were news reader favorite .
KAJIAN SISTEM PENGAMAN DATA YANG MENJAMIN KEASLIAN DAN
KERAHASIAAN DATA DENGAN ALGORITMA RSA
Algoritma
RSA (Rivest-Shamir-Adleman) adalah algoritma sistem kripto dengan kunci publik
yang paling dikenal. Algoritma RSA ini didasarkan pada pemangkatan modulo dari
perkalian dua bilangan prima yang besar. Salah satu aplikasi dari algoritma RSA
adalah dapat digunakan dalam pengamanan data. Dalam tesis ini memberikan kajian
sistem pengaman data yang menjamin keaslian dan kerahasiaan data model kunci
publik dengan menggunakan algoritma RSA. Sistem pengaman data yang menjamin
kerahasian data, disini data sebelum dikirimkan dilakukan enkripsi satu kali
begitu pula setelah data diterima dekripsi dilakukan satu kali. Dengan
menggunakan sifat yang dimiliki algoritma RSA, yaitu ; Dicd( Eite (m)) =
DKd(mKe mod n) = DK<="" span="">
RSA(Rivest-Shamir-Adleman)
algorithm is the most well known public key crypto system. This algorithm is
based on a modulo power from multiplication of two prime numbers. One of the
RSA algorithm application is on data security. In this thesis give the study of
data security system which guarantees the originality and the secrecy of data
using RSA algorithm. Data security system which guarantees the secrecy of data,
this system, before data is sent, data must be encrypted , thus after data
accepted then data is decrypted. By using chracteristic which is possessed by
RSA algorithm, namely ; DKd( Eite (m)) = DKd(mKe mod n) = DKd(c) = cKd mod n =
m, can be applied on designing data security system which guarantees the
originality and the secrecy of data. In the system, before plaintext is sent by
user, the encryption is done followed by decryption. Moreover, after ciphertext
is accepted by user, decryption is done to know the security of data and
encryption to make sure that the data is original from these user.
PENERAPAN ALGORITMA PRIMAL INFEASIBLE INTERIOR POINT PADA
PEMROGRAMAN CONVEX DENGAN BATASAN LINIER
Pencarian
solusi optimal pada pemrograman convex dapat dilakukan dengan menggunakan
modifikasi pada metode simpleks. Metode simpleks bergantung pada pencarian
extreme point, yang kadang harus dilakukan pencarian seluruh extreme point yang
ada sebelum mendapatkan solusi yang optimal. Terdapat metode interiorpoint yang
tidak bergantung pada extreme point, karena pencarian dimulai dari daerah
interior lalu menuju ke titik solusi. Pada tugas akhir ini diimplementasikan metode
Primal Infeasible Interior Point untuk menyelesaikan permasalahan pemrograman
convex dengan batasan linier. Pencarian solusi melalui beberapa tahap, yaitu
pemberian titik awal yang Infeasible, menghitung search direction untuk titik x
dan y, perhitungan steplength multiplier, dan perubahan (update) terhadap titik
x,y,z. Uji coba dilakukan dengan menggunakan 8 contoh permasalahan pemrograman
convex dengan nilai titik awal yang berbeda untuk setiap permasalahan.
Berdasarkan hasil uji coba didapatkan bahwa grafik trayektori fungsi obyektif
yang dihasilkan konvergen pada satu titik kesetimbangan antara bentuk primal
dan dual, yang mana nilainya setara dengan penyelesaian menggunakan toolbox
optimasi “fmincon” di MATLAB. Dalam menyelesaikan permasalahan convex yang
berbeda-beda, performa yang diberikan sangat bagus dengan jumlah iterasi yang
mimimum.Pemberian nilai parameter Beta yang optimal untuk permasalahan
pemrograman convex yang berbeda-beda adalah 0.01
In
convex programming, optimal solution can be found by using modified simplex
method. Simplex method depend on finding extreme point, where all feasible
extreme point are visited before the optimum solution is reached. Interior
point method is not depend on extreme point, because the algorithm cuts across
the interior of the solution space to optimal solution. In this final project,
Primal Infeasible Interior Point as a part of Interior Point Algorithm is
implemented to solve convex programming. Searching optimal solution in several
stage, such as choose any infeasible starting point, construct the move
direction for x and y as solution point, steplength multiplier computation and
update the new solution for x, y, z. Experiments is done by 8 convex
programming datas with different starting point for each data. From the
experiments result, can be seen that the solution on trajectory graph is
convergent to one optimal solution between primal and dual, which is similar
with the result by using optimization toolbox “fmincon” in MATLAB. This
application can solve different convex programming problem with minimum
iteration. The optimal value of parameter Beta is 0.01 for different convex
programming problem.
PENGEMBANGAN ALGORITMA NEURAL NETWORK UNTUK MENDETEKSI
PERGESERAN RATA-RATA DAN VARIAN KARAKTERISTIK KUALITAS PROSES PRODUKSI
Peta
kendali merupakan salah satu cara mengukur stabilitas proses, Peta kendali yang
hdn&dl dan efisien adalah peta kendali yang dapat mendeteksi pergeseran
rata-rata dan varian proses secara simultan. Pergeseran proses terjadi apabila
proses berada dalam kondisi tidak terkendali. Peta kendali yang sudah mum
digunakan adalah peta kendali Shewhart. Peta kendali Shewhart dapat digunakan
dengan asun~sid istribusi normal pada datanya. Kelen~ahanp eta kendali Shewhart
ini adalah kurnng dapat mendeteksi adanya pergeseran proses yang kecil.
Pendekatan jaringan syaraf merupakan salah satu alternatif metode pernbuatan
peta kenclali. Kelebihan dari peta kendali jaringan syaraf ini adalah dapat
dditerapkan pada data dengan distribusi nonnal dan non-nonnal. Schingga asumsi
kcnormalan data dapat diabaikan. DaIam tesis ini dipelajari tentang pendekatan
jaringan syaraf pada peta kendali untuk mendeteksi prgeseran proses. Sebagai
kontrol, hasil pendekatan jaringan syaraf ini akan dibandingkan dengan peta
kendali Shewhart dengan knteria pembanding nilai ARL (Averngc R~iz Length).
Peta kendali Shewhart yang dibandingkan adalah x -chart dan s-chart. Titik
berat tesis ini adalah pengembangan algoritma program jaringan syaraf dan
penerapan syntax prograin jaringan syaraf pada S-Plus serta penerapannya pada
kasus riil. Hasil dari tesis ini adalah peta kendali dengan pendekatan jaringan
syaraf lebih dapat mendeteksi pergeseran proses yang kecil, dibandingkan dengan
peta kendali Shewhart. Hal ini ditunjukkan oleh nilai ARL peta kendali jaringan
syaraf relatif lebih kecil dari peta kendali Shewhart dalam berbagai besar
pergeseran, baik itu pergeseran kecil maupun pergeseran besar. Nilai ARL yang
kecil menunjukkan bahwa peta kendali tersebut iehih efisien dalarn mendeteksi
pergeseran proses. Kelemahan dari peta kendali jaringan syaraf ini adalah
memerlukan proses yang relatif lebih lama dan juga memerlukan
kecermdtan/ketepatan ddiam menentukan illisialisasi data, ha1 ini dapat
ditunjjukkan dalam algoritma jaringall syaraf yang mempunyai kecepatan proses
berbanding linier dengan jumlah data O(n) dan dalam proses piirhitungan matriks
Hessian yang rnernpunyai keccpatan proses berbanding linier dengan jun~lah data
dikalikan kuadrat junllah bobot 0(nw2)
Control
chart is a tool for stability process measure. Efficient and reliable control
chart is control chart which can detect mean and varians shift simultanious.
Process shift will be happend if the process out of control. Commonly control
chart in industrialization is Shewhart Control Chat Shewhart Control Chart can
use with normal distribution asunlsion in data. The weekness of Shewhart
Control Chart is useless for detection small shift. Neural network
approximation is alternative for control chart methods. The superiority of
Control Chart Neural Network can apply in norn~al or non-normal distribution
data. So, normality data asunlsion can be under estimate, Tn the thesis is
studied about neural network approximation in control chart for process shift
detection. In this research, neural network approximation control chart will be
compare with Shewhart Control Chart. ARL (Average Run Length) value is tool for
this co~nparation. Shewhart Control Chart which be compare is - chart dan
s-chart. Important point in the thesis is exploration algoritm neural network
program, neural network syntax program application in S-Plus and application
neural network control chart in riil problem. Thesis yield is control chart
ne~~rlrnael twork can much detect small shifi from Shewhart Control Chart. This
yield is showed by ARL value. ARI, value control chart neural netw~rks maller
than Shewhart Control Chart in small shift or big shift. Smaller ARL value show
more efficient control chart for detect process shfi. The kveekness control
chart neural network is need long process and need more direct or accuracy in
inisialization data input. Neural network algoritm has speed process linier
with sum of data O(n) and calculation process matriks Hessian has speed process
linier with crossing sum of data and sum square of weight @mZ).
REDUKSI DIMENSI ROBUST DENGAN ESTIMATOR MCD UNTUK
PRA-PEMROSESAN DATA PEMODELAN STATISTICAL DOWNSCALING
Pemodelan
Statistical Downscaling (SD) menghubungkan skala global GCM dengan skala yang
lebih kecil. Data GCM merupakan data spasial dan temporal di mana kemungkinan
besar terjadi korelasi spasial antara data pada grid yang berbeda dalam satu
domain. Di samping itu data GCM memungkinkan adanya pengamatan outlier. Oleh
karena itu, dalam pemodelan SD perlu dilakukan suatu prapemrosesan yaitu
reduksi dimensi untuk mengatasi masalah multikolinearitas data luaran GCM.
Metode reduksi dimensi yang serikali digunakan adalah Principal Component
Analysis (PCA). Namun PCA tidak dapat diandalkan jika ada pengamatan outlier
dalam data, sehingga diperlukan reduksi dimensi yang robust. Reduksi dimensi
robust menggunakan Robust Principal Component Analysis (ROBPCA) dengan
estimator robust MCD. Metode MCD merupakan upaya untuk menemukan h observasi
yang memiliki determinan matriks varian-kovarian minimum. Identifikasi outlier
menggunakan robust distance yang juga menggunakan estimator MCD. Hasil
penelitian menunjukkan bahwa ROBPCA menghasilkan komponen utama yang jauh lebih
sedikit dibanding dengan PCA pada variabel HUSS. Hal ini dipengaruhi oleh
adanya pengamatan outlier yang cukup banyak dan mempunyai jarak yang lebar
terhadap nilai cut off dibanding dengan variabel-variabel lain. Variabel hasil
reduksi dimensi kemudian digunakan untuk pemodelan SD, setelah itu dilakukan
validasi. Pada pemodelan SD, tidak ada perbedaan signifikan antara metode
regresi PCA dan regresi ROBPCA. Namun, secara umum metode regresi PCA cenderung
lebih baik daripada regresi ROBPCA dilihat dari nilai RMSEP dan R2.
Statistical
Downscaling (SD) modeling connects GCM global scale to smaller rainfall scale.
Nevertheless, GCM data is spatial and temporal data where there is possibility
of spatial correlation among the data in different grids in the same domain and
enable the presence of outliers. Therefore, in SD modeling preprocessing is
necessary, such as dimension reduction to solve GCM outline data
multicolinearity problem. Dimension reduction method which is often used is
Principal Component Analysis (PCA). PCA can�t
be relied on if there are outliers in the data, so robust dimension reduction
is required. One of robust dimension reduction methods is Robust Principal
Component Analysis (ROBPCA) with MCD robust estimator. MCD method is objective
is to find h observations whose covariance matrix has the lowest determinant. Outlier
identification uses robust distance which also uses MCD estimator. This
research shows that ROBPCA yields less principal components than common PCA for
variable HUSS. This is affected by the presence of many outliers and having
longer distance to cut off value than other variables. Variables from dimension
reduction are used in SD modeling, after validation is done. In SD modeling,
there is no significant difference between PCA and ROBPCA regression method.
But, generally PCA regression method tends to be better than ROBPCA regression
based on RMSEP and R2.
STUDI PERFORMANSI ALGORITMA GENETIKA DALAM PENCAPAIAN NILAI
SOLUSI PADA PENYELESAIAN MULTI OBJECTIVE GOAL PROGRAMMING
Pada
problem optimasi yang mempunyai multiple objective seringkali tujuannya
merupakan konflik dalam pencapaian nilai optimal dari ruang permasalahan
dimensi tinggi (high dimensional) dan seringkali membutuhkan proses perhitungan
yang rumit. Cara algoritmis yang umum dipakai dalam menyelesaikan permasalahan
multi objective biasanya dengan menggunakan teknik konvensional seperti goal
programming, compromise programming dan interactive methods. Teknik-teknik ini
efektif ketika menghadapi model dengan goal yang tidak terlalu banyak, namun
tidak efektif ketika menghadapi model yang kurang jelas dan kompleks (jumlah
variabel. subject to dan goal terlalu besar) Algoritma genetika memberikan
alternatif baru dalam memecahkan banyak model sulit dari bidang optimalisasi.
Metodologi yang digunakan dalam menyelesaikan persoalan multi objective goal
programming dengan pendekatan GA, terlebih dahulu dilakukan dengan merubah
subject to menjadi nilai domain constrain. Nilai range dari domain constrain
ini kemudian diacak pada populasi tertentu untuk menentukan nilai tertinggi
dari proses pencarian. Hasil akhir menunjukkan bahwa GA mampu menuntun
penelusuran titik-titik optimaldalam persoalan multi objective goal
programming. Titik-titik tersebut didapatkan dengan lebih efisien dibandingkan
dengan proses QS3 atau LINDO. GA mampu memberikan nilai pencapaian solusi
terhadap solusi idealnya lebih baik dibanding dengan metode lainnya.Hal ini
disebabkan karena pada saat eksekusi GA lebih tergantung pada panjang populasi
dan panjang generasi, sedangkan pada metode lainnya tergantung pada jumlah
variabel yang akan dieksekusi.
In
problem of optimization having multiple objectives the goals often conflict
each in achieving optimum value from the space of high dimensional issues and
it frequently needs some complicated calculation process. The commonly used
algorithm method for solving the problem of multi objective usually employees a
conventional technique such as goal programming, compromise programming and
interactive methods. Those techniques are effective with less clear and complex
model (variable number, subject to and too large goal). Genetics algorithm
gives a new alternative in solving many complicated models in the area of
optimization. The methodology adopted in the solving the problem of multi
objective goal programming with GA approach was done by changing subject to
into domain constrains value. Range value from domain constrain was then
randomized in certain population to determine the highest value of the
searching process. The final result shows that GA is able to guide in tracing
the optimum points in the multi objective programming. The points, are obtained
more efficiently relative to the process of QS3 or LINDO. GA is able to give
the value of solution achievement on its ideal solution better than the other
methods do. It is because on the execution GA depends more on the population
length and generation length, while in the other method GA depends on the
variable number to execute.
Implementasi Algoritma Cipher Transposisi Dan Secure Hash
Algorithm (SHA) Dalam Sistem Pengamanan Data
Keamanan
data merupakan salah satu aspek dalam teknologi informasi. Dengan keamanan
data, diharapkan informasi dapat terjaga keasliannya. Pada tugas akhir ini,
dibentuk suatu sistem pengamanan data dengan menggabungkan dua algoritma
kriptografi yaitu algoritma Cipher Transposisi dan Secure Hash Algortihm (SHA).
Algoritma Cipher Transposisi merupakan algoritma kriptografi klasik yang
sederhana, sehingga Algoritma Cipher Transposisi tidak pernah digunakan lagi.
Karena kesederhanaan dari Algoritma Cipher Transposisi, timbul ide untuk
menggabungkannya dengan SHA yang merupakan algoritma kriptografi modern yang
kompleks. Sistem pengamanan data ini dibangun menggunakan bahasa pemograman
Borland Delphi 7.0. Penggabungan kedua algoritma ini diharapkan dapat menjamin
keamanan data, sehingga tidak dapat dilihat atau diubah orang yang tidak
berhak. Implementasi dari penggabungan kedua algoritma ini dapat mengenkripsi
file biner dan mendekripsi kembali file tersebut.
Data
security is one of the important aspect in the information technology. With
data security, is expected information can be protected authenticity. In this
writing, the system security of data is formed by Transposition Cipher
algorithm and Secure Hash Algorithm (SHA). The Transposition Cipher algorithm
is the classical cryptography that simple, so that Transposition Cipher
algorithm has never been used anymore. Because the simplicity of Transposition
Cipher algorithm, the idea to combine it with SHA that representing of complex
modern cryptography. This system security of data is built by using Borland
Delphi 7.0. The combination of that algorithms are expected to make sure of
data security, so that the data cannot be viewed or altered by unauthorized
user. The implementation form combination of that algorithms can encrypt of
biner file and decrypt it back.
Implementasi Algoritma Kompresi Deflate Pada Data
Pemakaian
komputer sebagai bagian dari hidup tidak bisa dielakkan. Segala informasi disimpan
ke dalam bentuk digital, baik berupa teks, gambar, suara dan video. Hal ini
mengakibatkan kebutuhan akan media penyimpanan meningkat dan pengiriman
informasi boleh jadi menyakitkan. Deflate adalah algoritma kompresi dengan
teknik lossless compression. Hal ini menjawab kebutuhan dalam memperkecil
ukuran suatu data untuk penyimpanan atau pengiriman tanpa merusak isinya.
Spesifikasi yang diuraikan pada dokumen RFC 1951 “DEFLATE Compressed Data
Format Spesification Version 1.3” menjelaskan bahwa algoritma deflate
mengkombinasikan algoritma LZ77 dan Huffman, mengambil konsep sliding-window
dan prefix-tree. Setelah dilakukan pengujian didapati bahwa algoritma Deflate
ini efektif digunakan pada data teks dan data gambar bitmap, sedangkan pada
data yang sudah mengalami kompresi justru akan mengalami pengembangan ukuran.
Perangkat lunak kompresi yang mengimplementasikan algoritma Deflate ini
dibangun dengan menggunakan bahasa pemrograman Java.
The
computer usage as a part of life is inevitable. Every information stored in
digital form, whether in the form of text, images, sound, dan video. This
resulted in the need of the media storage will be increase and the information
transmission maybe painful. Deflate is the compression algorithm with lossless
compression techniques. This is answering the needs in reducing the size of
data to storage or delivery without damaging the contents. Spesifications
outlined at the document of RFC 1951 "Deflate Compressed Data Format
Specification Version 1.3" explain that the deflate combining the LZ77 and
Huffman algorithm, took the concept of sliding-window and the prefix-tree.
After the testing found that the Deflate algorithm is effectively used on text
data and bitmap image data, on data that has been compressed it will expanding
the size. The compression software that implements this Deflate algorithm is
built by using Java programming language.
ANALISIS KOMPONEN UTAMA NONLINEAR PADA DATA MULTIVARIABEL
BERSKALA CAMPURAN
Analisis
Komponen Utama Nonlinear (PRINCALS) merupakan pengembangan dari Analisis
Komponen Utama yang dapat mereduksi variabel dari data multivariabel berskala
campuran (nominal, ordinal, interval dan rasio) secara simultan. Penelitian ini
membandingkan variansi penaksir akar karakteristik dari komponen utama linear
dan nonlinear pada kasus data multivariabel berskala campuran. Untuk lebih
mudah menginterpretasikan hasil dari Analisis Komponen Utama Nonlinear
dilanjutkan dengan Analisis Kelompok Berhierarki, khususnya dengan Metode
Pautan Tunggal. Dari hasil penelitian diperoleh bahwa variansi penaksir akar
karakteristik Analisis Komponen Utama adalahVar(s) = HSVSHS dan
Variansi penaksir akar karakte- ristik Analisis Komponen Utama Nonlinear adalah
Var(R) = HRVl{HR. Jika Var(s) = HSVSHS dan Var(R)=
HRVRHR , maka diperoleh: Var(s) ≥Var(R) Ini berarti bahwa
variansi penaksir akar karakteristik Analisis Komponen Utama Nonlinear lebih
efisien dari pada variansi penaksir akar karakteristik Analisis Komponen Utama.
Dengan kata lain XR lebih efisien dari pada Xs. Dari hasil Analisis Komponen
Utama Nonlinear tentang Pengeluaran Rumah Tangga di Kota Surabaya didapatkan
lima akar karakteristik yang mampu menjelaskan 76,99% dari total keragaman
data. Ini lebih baik dibandingkan dengan menggunakan Analisis Komponen Utama
dimana dengan lima akar karakteristik hanya mampu menjelaskan 74,486% dari
total keragaman data. Dengan Analisis Komponen Utama Nonlinear juga diperoleh
tiga faktor, yang merupakan reduksi dari variabel asli, yaitu: Faktor Pertama:
Rata-rata pengeluaran rumah tangga; Faktor Kedua : Banyaknya anggota rumah
tangga; Faktor Ketiga : Sumber penghasilan utama keluarga. Dari hasil
pengelompokkan diperoleh dua fungsi diskriminan, yaitu: Yi = 0,119X, + 0,58X2 -
0,028X5 - 0,118Xi0 - 0,133Xn + 0,972X12 Y2 = 0,957Xi + 0,351X2 - 1,026X5 +
0,634Xi0 - 0,167Xn - 0,06X12. Berdasarkan hasil analisis data, diperoleh
gambaran bahwa rata-rata pendapatan penduduk di Kota Surabaya tidak merata,
sehingga Pemerintah seharusnya memberikan perhatian yang serius guna
meningkatkan pendapat penduduk agar lebih merata.
Nonlinear
Principal Component Analysis (PRINCALS) is a development of Principal Component
Analysis reduced variable from the multivariable data whith mixture of
measurement types (nominal, ordinal, interval and ratio) simultaneously. This
research compare estimator variansi of characteristic roots for both linear and
nonlinear Principal Component Analysis on the multivariable data of mixture of
measurecement types. For easily intrepreting a result of Nonlinear Principal Component
Analysis is continued with Hierarchical Clustering Analysis, especially with
Single Linkage methods. From the research result is obtained that estimator
variance of characteristic roots for Principal Component Analysis is
(s) = HSVSHS and estimator variance of characteristic roots for
Nonlinear Principal Component is Var(s)= HRVRHR. If Var(s)=
HSVsHS is compared with Var(R) = HRVRHR,, the result obtained is as
followed: Var(s) ≥Var(R) It means that estimator variance
of characteristic roots for Nonlinear Principal Component more efficient than
estimator variance of characteristic roots for Linear Principal Component. By
the way XR more efficient than Xs. From the analysis resulf of Nonlinear
Principal Component Analysis about household expending at Surabaya District and
by use obtained five characteristic roots which can explain 76,99% of the
totals sample variance. This is the better than the usage of Principal
Component Analysis with five characteristic roots which can only explain
74,486% of the total sample variance and also obtained three factors from
reduced primary variable, i.e: First factor : Average of household expending
Second factor : Number of household members. Third factor : Source of family
main income Form the result clustering is obtained two functions discriminant,
i,e. Yi = 0,119Xi + 0,58X2-0,028X5 - 0,118X10 - 0,133Xn+ 0,972Xi2 Y2 = 0,957Xi
+ 0,351X2 - 1,026X5 + 0,634Xio - 0,167Xu - 0,06X]2. Base on the result of data
analysis, it is obtained a conclusion that inhabitants' main income rate at
Surabaya Discrit as equitable, so Government have to give attention to increase
the income inhabitant of unprosperity to be spread evenly. Key words :
Multivariable Data, Nonlinear Principal Component Analysis, Estimator Variance
of Characteristic roots, Hierarchical Clustering, Single Linkage, Delta Methods
HYBRID ALGORITMA GENETIKA SIMULATED ANNEALING UNTUK
PERAMALAN DATA TIME SERIES
Peramalan
time series bertujuan untuk mengendalikan atau mengenali perilaku system
berdasarkan data pada periode waktu tertentu. Pada umumnya metode statistic
untuk peramalan data time series stasioner dan non stasioner kurang akurat dan
tidak lengkap dalam mendeskripsikan perilaku data, sehingga hasil peramalannya
kurang akurat. Pada Tesis ini akan dikembangkan teknik peramalan time series
dengan menggunakan hybrid algoritma genetika simulated annealing (hybrid
GA-SA). Algoritma genetika menghasilkan nilai optimasi yang baik dan cepat
dalam memecahkan suatu solusi, tetapi masih memungkinkan terjebakpada local
optimum, sedangkan simulated annealing digunakan pada proses mutasi untuk
memperoleh individu yang lebih baik. Teknik ini dikembangkan berdasarkan
persamaan linier untuk menghasilkan nilai koefisien time series. Studi empiris
pada empat tipe data time series menunjukkan bahwa model hybrid GA-SA mampu
menghindari local optimum lebih baik dan memperbaiki hasil optimasi model
algoritma genetika murni. Untuk peramalan satu tahap ke depan, hasil peramalan
hybrid GA-SA lebih mendekati nilai aktual dan menghasilkan kinerja yang lebih
baik dibandingkan dengan ARIMA untuk data time series stasioner, non stasioner
dan musiman. Untuk peramalan banyak periode ke depan menunjukkan akurasi
peramalan hybrid GA-SA lebih baik dibandingkan model ARIMA.
Time
series forecasting use to control or recognize system behavior according to
data in some period. Commonly, statistic method are less adequate and
incompletely for stationer and non stationer time series forecasting when
describing data behavior, with the result that not accurate prediction. This
thesis proposes a developing of time series forecasting technique using hybrid
genetic algorithms simulated annealing (hybrid GASA). Genetic algorithms have a
better and fast optimization results in order to solve a solution, but should
trap in local optimum, simulated annealing is used in mutation process to get a
fitter offspring. This technique is developed from linier equation to get some
coefficient values of time series. Empirical study of four types of time series
data show that hybrid GA-SA model can escape from local optimum better than
natural genetic algorithms model and get optimization values better than
genetic algorithms model. One step ahead forecasting shows that forecast
results of hybrid GA-SA model get closer to actual value and better performance
results than ARIMA model for stationer, non stationer and seasoning time series
data. Multi step ahead forecasting shows that forecast accuracy of hybrid GA-SA
model is better than AJRIMA model.