Contoh Pengimplementasian Algoritma



HYBRID ALGORITMA GENETIKA SIMULATED ANNEALING UNTUK PERAMALAN DATA TIME SERIES
Peramalan time series bertujuan untuk mengendalikan atau mengenali perilaku system berdasarkan data pada periode waktu tertentu. Pada umumnya metode statistic untuk peramalan data time series stasioner dan non stasioner kurang akurat dan tidak lengkap dalam mendeskripsikan perilaku data, sehingga hasil peramalannya kurang akurat. Pada Tesis ini akan dikembangkan teknik peramalan time series dengan menggunakan hybrid algoritma genetika simulated annealing (hybrid GA-SA). Algoritma genetika menghasilkan nilai optimasi yang baik dan cepat dalam memecahkan suatu solusi, tetapi masih memungkinkan terjebakpada local optimum, sedangkan simulated annealing digunakan pada proses mutasi untuk memperoleh individu yang lebih baik. Teknik ini dikembangkan berdasarkan persamaan linier untuk menghasilkan nilai koefisien time series. Studi empiris pada empat tipe data time series menunjukkan bahwa model hybrid GA-SA mampu menghindari local optimum lebih baik dan memperbaiki hasil optimasi model algoritma genetika murni. Untuk peramalan satu tahap ke depan, hasil peramalan hybrid GA-SA lebih mendekati nilai aktual dan menghasilkan kinerja yang lebih baik dibandingkan dengan ARIMA untuk data time series stasioner, non stasioner dan musiman. Untuk peramalan banyak periode ke depan menunjukkan akurasi peramalan hybrid GA-SA lebih baik dibandingkan model ARIMA.
Time series forecasting use to control or recognize system behavior according to data in some period. Commonly, statistic method are less adequate and incompletely for stationer and non stationer time series forecasting when describing data behavior, with the result that not accurate prediction. This thesis proposes a developing of time series forecasting technique using hybrid genetic algorithms simulated annealing (hybrid GASA). Genetic algorithms have a better and fast optimization results in order to solve a solution, but should trap in local optimum, simulated annealing is used in mutation process to get a fitter offspring. This technique is developed from linier equation to get some coefficient values of time series. Empirical study of four types of time series data show that hybrid GA-SA model can escape from local optimum better than natural genetic algorithms model and get optimization values better than genetic algorithms model. One step ahead forecasting shows that forecast results of hybrid GA-SA model get closer to actual value and better performance results than ARIMA model for stationer, non stationer and seasoning time series data. Multi step ahead forecasting shows that forecast accuracy of hybrid GA-SA model is better than AJRIMA model.

HYBRID AVERAGE COMPLETE CLUSTERING SEBAGAL ALGORITMA KOMPROMI ANTARA KUALITAS DAN WAKTU KOMPUTASI PROSES CLUSTERING
Agglomerative Hierarchical clustering mempunyai beberapa algoritma yang telah dikenal yaitu, Single Linkage,] Complete Linkage, Average Linkage, Cenlroid Linkage. Algoritma average linkage mempunyai kualitas hasil clustering paling baik dibandingkan dengan algoritma lainnya. Namun algoritma average linkage membutuhkan waktu proses yang lebih lama dibandingkan dengan algoritma lainnya. Di lain pihak, algoritma complete linkage mempunyai hasil kualitas yang cenderung lebih baik dari algoritma single linkage, dan cenderung mempunyai waktu komputasi yang lebih cepat dibandingkan dengan algoritma centroid linkage. Atas dasar ini maka perlu dilakukan penggabungan algoritma yang dapat mengkompromikan kualitas hasil clustering dan waktu komputasi.Dalam penelitian ini dilakukan eksperimen terhadap hibrida/penggabungan antara algoritma average linkage dan complete linkage yang disebut dengan Hybrid Average Complete Clustering {HACC). Algoritma IIACC diimplementasikan dalam dua tahap proses linkage! clustering. Dalam tahap pertama, data diproses terlebih dahulu dengan menggunakan algoritma average linkage. Sedang dalam tahap kedua, luaran tahap pertama diproses lebih lanjut dengan menggunakan algoritma complete linkage. Masing-masing tahapan proses linkage tersebut ditentukan, oleh prosentase komposisi proses linkage. Jika pada tahap pertama digunakan algoritma average linkage dengan proses linkage sebanyak p%, maka pada tahap kedua algoritma complete linkage harus digunakan dengan proses linkage sebanyak (l00-p)%. Komposisi proses linkage pada algoritma HACC ini harus ditentukan terlebih dahulu sebelum algoritma tersebut diaplikasikan. Kualitas algoritma HACC dihitung berdasarkan nilai faktor kompromi. Faktor kompromi dideflnisikan sebagai perbandingan antara delta rata-rata peningkatan kualitas hasil clustering terhadap algoritma complete linkage dengan delta penurunan waktu komputasi terhadap average linkage.Algoritma HACC telah diujicobakan dengan menggunakan data uji coba standar yang diperoleh dari UCI Repository. Hasil uji coba algoritma HACC menunjukkan bahwa nilai Faklor kompromi terbesar (24.4) diperoleh untuk komposisi hibrida 30%:70%. Dari hasil uji coba ini dapat disimpulkan bahwa algoritma HACC dapat memberikan nilai kompromi paling baik pada komposisi hibrida 30%:70%. Kutii Kuuei: Clustering, Hibrida , Average Linkage, Complete linkage, Faktor Kompromi
Agglomerative Hierarchical Clustering has some algorithms called Single Linkage, Complete Linkage, Average Linkage, and Centroid Linkage. Average linkage Algorithm gives the best quality in clustering than the others, but it requires a longer computing time. On the other hand, in terms of clustering quality, complete linkage algorithm tends to be better than single linkage algorithm and has faster computing time than that of centroid linkage algorithm. Thus a merging algorithm was needed to compromise the quality of clustering result and computing time. In this research, an algorithm that merges the average linkage and complete linkage algorithms is experimented. It is called the Hybrid Average Complete Clustering (HACC) algorithm. This algorithm consists of two main steps in performing the clustering process. In the first step, data is processed using the average linkage algorithm; while in the second step, the output of the first step is processed using the complete linkage algorithm. In each step, the number of linkage processes that must be performed is determined by percentage of linkage process composition. If in the first step the average linkage algorithm is used with a linkage process of p%, then in the second step, the complete linkage algorithm must involve a linkage process of (100-p)%. The linkage process composition of the HACC algorithm must be determined in advance before the algorithm is executed. The quality of the HACC algorithm is calculated by computing the value of compromise factor, which is defined as a comparison between the delta of mean of quality improvement of the clustering result obtained by the complete linkage algorithm and the delta of degradation of computing time obtained during the average linkage. The HACC algorithm has been tested using a standart test data set obtained from The University California, Irvine (UC1) Repository. The experimental results show that the HACC algorithm finds that the biggest value of the compromise factor (i.e.,24.4) is obtained for a hybrid composition of 30%:70%. Therefore, it can be concluded that the HACC algorithm gives its best compromise factor value at a hybrid composition of 30%:70%.

IMPLEMENTASI ALGORITMA H-ERROR DAN K-ERROR PADA KLASTERISASI DATA
Clustering adalah proses pengelompokan objek data ke dalam kelas-kelas berbeda yang disebut cluster sehingga objek yang berada pada cluster yang sama semakin mirip dan berbeda dengan objek pada cluster yang lain. Pada algoritma clustering tradisional seperti k-means dan Ward diasumsikan tidak ada kesalahan pengukuran yang berhubungan dengan data. Padahal pada aplikasi nyata, kesalahan pengukuran pada data seringkali terjadi. Dengan adanya kesalahan pengukuran, metode clustering tradisional seperti k-means dan Ward mungkin tidak menghasilkan hasil clustering yang memuaskan. Untuk mengatasi permasalahan kesalahan pengukuran pada data pada metode clustering k-means dan Ward, maka dikembangkan metode error-based clustering yang terdiri dari algoritma kError dan hError. Algoritma kError dan hError ini merupakan pengembangan dari algoritma k-means dan Ward. Pada tugas akhir ini, digunakan algoritma kError dan hError untuk melakukan clustering data, serta algoritma k-means dan Ward sebagai perbandingan evaluasi hasil cluster berdasarkan nilai F-Measure, running time dan MSE. Uji coba dilakukan terhadap 6 buah data set yang berbeda. Berdasarkan hasil uji coba diperoleh bahwa, jika ditinjau dari nilai F-Measure dan MSE, algoritma hError mampu memberikan hasil yang lebih baik. Sedangkan bila dilihat dari running time, algoritma clustering tradisional relatif lebih baik jika dibandingkan dengan error-based clustering.
Clustering is a process to categorize object into some different classes that is called cluster, so that the objects within the same cluster have more similarity than other objects in different cluster. In the traditional clustering algorithm, such as: k-means and ward, assumed that there is no measurement error regarding the data. However, in the real application, the measurement error within the data is often occurred. With the occurrence of measurement error within the data, traditional algorithm like k-means and ward may not produce a good result. To produce a better result with some measurement error occur in the data, K-means and ward have been developed with error-based clustering method named kError and hError. These algorithm are developed from the original K-means and Ward. In this final project, kError and hError is used to cluster the data and k-means and ward algorithm are used as the comparator based on the evaluation clustering result of F-measure value, running time and MSE. The experiment is tested from 6 different data sets. As a result, if observed by F-measure value and MSE, hError algorithm can produce a better result than the traditional algorithm. But, if the data been observed by running time, the traditional clustering algorithm may produce a better result relatively than error based clustering algorithm.

IMPLEMENTASI MODIFIKASI ENHANCED CONFIX STRIPPING STEMMER UNTUK BAHASA INDONESIA DENGAN METODE CORPUS BASED STEMMING
Algoritma stemming kata pada Bahasa Indonesia dengan performa yang paling baik (memiliki jenis kesalahan stemming yang paling sedikit) adalah algoritma Enhanced Confix Stripping (ECS) Stemmer. Meskipun terdapat peningkatan performa stemming kata, masih terdapat kesalahan yang dilakukan oleh ECS Stemmer. Selain itu, algoritma ECS Stemmer juga tidak mengajukan perbaikan terhadap permasalahan overstemming dan understemming. Dalam tugas akhir ini, diajukan perbaikan terhadap algoritma ECS Stemmer. Selain perbaikan terhadap aturan pada tabel acuan pemenggalan imbuhan, juga dilakukan implementasi metode corpus based stemming untuk melakukan penyelesaian terhadap problem overstemming dan understemming.Proses evaluasi sistem Information Retrieval (IR) menggunakan relevansi set dokumen terhadap query yang dibentuk secara otomatis menggunakan teknik data fusion dan metode condorcet. Karena tidak dibentuk secara manual, relevan set tersebut dinamakan pseudo relevant documents (pseudorels).
The best performance for Indonesian words stemming algorithm (having the least kind of error) is the Enhanced Confix Stripping (ECS) Stemmer algorithm. Although the performance on stemming words had improved, ECS Stemmer still made some mistakes. In addition, ECS Stemmer algorithm also did not propose a solution for overstemming and understemming problem. In this final project, proposed improvements to ECS Stemmer algorithm. In addition to improvements on the rules of confix stripping reference table, there is also implementation of corpus-based stemming method to solve overstemming and understemming problem. Evaluation of Information Retrieval system use a set of document relevance to queries that are created automatically using data fusion techniques and Condorcet methods. Because not created manually, the relevant set is called pseudo relevant documents (pseudorels).

IMPLEMENTASI SISTEM REKOMENDASI BERITA BERBAHASA INDONESIA BERBASIS PILIHAN PERSONAL MENGGUNAKAN ALGORITMA HYBRID FILTERING
Sistem rekomendasi berita berbahasa Indonesia diimplementasikan menggunakan data pilihan berita secara personal untuk memenuhi kebutuhan pembaca berita di Indonesia yang semakin meningkat. Pengimplementasian sistem ini didapatkan rekomendasi berita yang berbeda-beda untuk setiap pembaca. Algoritma yang digunakan adalah hybrid filtering yang merupakan gabungan dari collaborative filtering dan content-based filtering. Collaborative filtering merupakan algoritma yang sering digunakan dalam sistem rekomendasi. Algoritma ini merekomendasikan item atau berita berdasarkan item yang dipilih oleh pengguna lain. Content-based filtering merupakan algoritma rekomendasi yang memberikan rekomendasi tertinggi terhadap item-item yang memiliki konten yang paling disukai oleh pengguna tersebut. Nilai rekomendasi tertinggi diberikan kepada item yang memiliki nilai rekomendasi secara collaborative filtering dan content-based filtering yang tertinggi. Uji coba yang dilakukan adalah membandingkan dua simulasi rekomendasi berita yang dijalankan dalam merekomendasikan berita dengan jumlah kategori yang berbeda. Hasil uji coba menunjukkan 44% berita terekomendasi tergolong kategori favorit pembaca.
Indonesian news recommendation system is implemented using the data in a personal preferences of news to meet the needs of news readers in Indonesia, which has been increasing year to year. The implementation of this system we get different news recommendation for every reader. The algorithm, that is used, is hybrid filteringa as a combination of collaborative filtering and content-based filtering. Collaborative filtering is an algorithm that is often used in recommendation system. This algorithm recommends item or news based on the items selected by other users. Content-based filtering is a recommendation algorithm that provides content of items that most preferred by the user. The highest recommended value is given to items that have the highest value in a collaborative filtering recommendation and content-based filtering. Experiments that is performed is comparine two simulations that run news recommendation in recommending the news with a number of different categories. The test result showed 44% of news recommended catagory were news reader favorite .

KAJIAN SISTEM PENGAMAN DATA YANG MENJAMIN KEASLIAN DAN KERAHASIAAN DATA DENGAN ALGORITMA RSA
Algoritma RSA (Rivest-Shamir-Adleman) adalah algoritma sistem kripto dengan kunci publik yang paling dikenal. Algoritma RSA ini didasarkan pada pemangkatan modulo dari perkalian dua bilangan prima yang besar. Salah satu aplikasi dari algoritma RSA adalah dapat digunakan dalam pengamanan data. Dalam tesis ini memberikan kajian sistem pengaman data yang menjamin keaslian dan kerahasiaan data model kunci publik dengan menggunakan algoritma RSA. Sistem pengaman data yang menjamin kerahasian data, disini data sebelum dikirimkan dilakukan enkripsi satu kali begitu pula setelah data diterima dekripsi dilakukan satu kali. Dengan menggunakan sifat yang dimiliki algoritma RSA, yaitu ; Dicd( Eite (m)) = DKd(mKe mod n) = DK<="" span="">
RSA(Rivest-Shamir-Adleman) algorithm is the most well known public key crypto system. This algorithm is based on a modulo power from multiplication of two prime numbers. One of the RSA algorithm application is on data security. In this thesis give the study of data security system which guarantees the originality and the secrecy of data using RSA algorithm. Data security system which guarantees the secrecy of data, this system, before data is sent, data must be encrypted , thus after data accepted then data is decrypted. By using chracteristic which is possessed by RSA algorithm, namely ; DKd( Eite (m)) = DKd(mKe mod n) = DKd(c) = cKd mod n = m, can be applied on designing data security system which guarantees the originality and the secrecy of data. In the system, before plaintext is sent by user, the encryption is done followed by decryption. Moreover, after ciphertext is accepted by user, decryption is done to know the security of data and encryption to make sure that the data is original from these user.

PENERAPAN ALGORITMA PRIMAL INFEASIBLE INTERIOR POINT PADA PEMROGRAMAN CONVEX DENGAN BATASAN LINIER
Pencarian solusi optimal pada pemrograman convex dapat dilakukan dengan menggunakan modifikasi pada metode simpleks. Metode simpleks bergantung pada pencarian extreme point, yang kadang harus dilakukan pencarian seluruh extreme point yang ada sebelum mendapatkan solusi yang optimal. Terdapat metode interiorpoint yang tidak bergantung pada extreme point, karena pencarian dimulai dari daerah interior lalu menuju ke titik solusi. Pada tugas akhir ini diimplementasikan metode Primal Infeasible Interior Point untuk menyelesaikan permasalahan pemrograman convex dengan batasan linier. Pencarian solusi melalui beberapa tahap, yaitu pemberian titik awal yang Infeasible, menghitung search direction untuk titik x dan y, perhitungan steplength multiplier, dan perubahan (update) terhadap titik x,y,z. Uji coba dilakukan dengan menggunakan 8 contoh permasalahan pemrograman convex dengan nilai titik awal yang berbeda untuk setiap permasalahan. Berdasarkan hasil uji coba didapatkan bahwa grafik trayektori fungsi obyektif yang dihasilkan konvergen pada satu titik kesetimbangan antara bentuk primal dan dual, yang mana nilainya setara dengan penyelesaian menggunakan toolbox optimasi “fmincon” di MATLAB. Dalam menyelesaikan permasalahan convex yang berbeda-beda, performa yang diberikan sangat bagus dengan jumlah iterasi yang mimimum.Pemberian nilai parameter Beta yang optimal untuk permasalahan pemrograman convex yang berbeda-beda adalah 0.01
In convex programming, optimal solution can be found by using modified simplex method. Simplex method depend on finding extreme point, where all feasible extreme point are visited before the optimum solution is reached. Interior point method is not depend on extreme point, because the algorithm cuts across the interior of the solution space to optimal solution. In this final project, Primal Infeasible Interior Point as a part of Interior Point Algorithm is implemented to solve convex programming. Searching optimal solution in several stage, such as choose any infeasible starting point, construct the move direction for x and y as solution point, steplength multiplier computation and update the new solution for x, y, z. Experiments is done by 8 convex programming datas with different starting point for each data. From the experiments result, can be seen that the solution on trajectory graph is convergent to one optimal solution between primal and dual, which is similar with the result by using optimization toolbox “fmincon” in MATLAB. This application can solve different convex programming problem with minimum iteration. The optimal value of parameter Beta is 0.01 for different convex programming problem.

PENGEMBANGAN ALGORITMA NEURAL NETWORK UNTUK MENDETEKSI PERGESERAN RATA-RATA DAN VARIAN KARAKTERISTIK KUALITAS PROSES PRODUKSI
Peta kendali merupakan salah satu cara mengukur stabilitas proses, Peta kendali yang hdn&dl dan efisien adalah peta kendali yang dapat mendeteksi pergeseran rata-rata dan varian proses secara simultan. Pergeseran proses terjadi apabila proses berada dalam kondisi tidak terkendali. Peta kendali yang sudah mum digunakan adalah peta kendali Shewhart. Peta kendali Shewhart dapat digunakan dengan asun~sid istribusi normal pada datanya. Kelen~ahanp eta kendali Shewhart ini adalah kurnng dapat mendeteksi adanya pergeseran proses yang kecil. Pendekatan jaringan syaraf merupakan salah satu alternatif metode pernbuatan peta kenclali. Kelebihan dari peta kendali jaringan syaraf ini adalah dapat dditerapkan pada data dengan distribusi nonnal dan non-nonnal. Schingga asumsi kcnormalan data dapat diabaikan. DaIam tesis ini dipelajari tentang pendekatan jaringan syaraf pada peta kendali untuk mendeteksi prgeseran proses. Sebagai kontrol, hasil pendekatan jaringan syaraf ini akan dibandingkan dengan peta kendali Shewhart dengan knteria pembanding nilai ARL (Averngc R~iz Length). Peta kendali Shewhart yang dibandingkan adalah x -chart dan s-chart. Titik berat tesis ini adalah pengembangan algoritma program jaringan syaraf dan penerapan syntax prograin jaringan syaraf pada S-Plus serta penerapannya pada kasus riil. Hasil dari tesis ini adalah peta kendali dengan pendekatan jaringan syaraf lebih dapat mendeteksi pergeseran proses yang kecil, dibandingkan dengan peta kendali Shewhart. Hal ini ditunjukkan oleh nilai ARL peta kendali jaringan syaraf relatif lebih kecil dari peta kendali Shewhart dalam berbagai besar pergeseran, baik itu pergeseran kecil maupun pergeseran besar. Nilai ARL yang kecil menunjukkan bahwa peta kendali tersebut iehih efisien dalarn mendeteksi pergeseran proses. Kelemahan dari peta kendali jaringan syaraf ini adalah memerlukan proses yang relatif lebih lama dan juga memerlukan kecermdtan/ketepatan ddiam menentukan illisialisasi data, ha1 ini dapat ditunjjukkan dalam algoritma jaringall syaraf yang mempunyai kecepatan proses berbanding linier dengan jumlah data O(n) dan dalam proses piirhitungan matriks Hessian yang rnernpunyai keccpatan proses berbanding linier dengan jun~lah data dikalikan kuadrat junllah bobot 0(nw2)
Control chart is a tool for stability process measure. Efficient and reliable control chart is control chart which can detect mean and varians shift simultanious. Process shift will be happend if the process out of control. Commonly control chart in industrialization is Shewhart Control Chat Shewhart Control Chart can use with normal distribution asunlsion in data. The weekness of Shewhart Control Chart is useless for detection small shift. Neural network approximation is alternative for control chart methods. The superiority of Control Chart Neural Network can apply in norn~al or non-normal distribution data. So, normality data asunlsion can be under estimate, Tn the thesis is studied about neural network approximation in control chart for process shift detection. In this research, neural network approximation control chart will be compare with Shewhart Control Chart. ARL (Average Run Length) value is tool for this co~nparation. Shewhart Control Chart which be compare is - chart dan s-chart. Important point in the thesis is exploration algoritm neural network program, neural network syntax program application in S-Plus and application neural network control chart in riil problem. Thesis yield is control chart ne~~rlrnael twork can much detect small shifi from Shewhart Control Chart. This yield is showed by ARL value. ARI, value control chart neural netw~rks maller than Shewhart Control Chart in small shift or big shift. Smaller ARL value show more efficient control chart for detect process shfi. The kveekness control chart neural network is need long process and need more direct or accuracy in inisialization data input. Neural network algoritm has speed process linier with sum of data O(n) and calculation process matriks Hessian has speed process linier with crossing sum of data and sum square of weight @mZ).

REDUKSI DIMENSI ROBUST DENGAN ESTIMATOR MCD UNTUK PRA-PEMROSESAN DATA PEMODELAN STATISTICAL DOWNSCALING
Pemodelan Statistical Downscaling (SD) menghubungkan skala global GCM dengan skala yang lebih kecil. Data GCM merupakan data spasial dan temporal di mana kemungkinan besar terjadi korelasi spasial antara data pada grid yang berbeda dalam satu domain. Di samping itu data GCM memungkinkan adanya pengamatan outlier. Oleh karena itu, dalam pemodelan SD perlu dilakukan suatu prapemrosesan yaitu reduksi dimensi untuk mengatasi masalah multikolinearitas data luaran GCM. Metode reduksi dimensi yang serikali digunakan adalah Principal Component Analysis (PCA). Namun PCA tidak dapat diandalkan jika ada pengamatan outlier dalam data, sehingga diperlukan reduksi dimensi yang robust. Reduksi dimensi robust menggunakan Robust Principal Component Analysis (ROBPCA) dengan estimator robust MCD. Metode MCD merupakan upaya untuk menemukan h observasi yang memiliki determinan matriks varian-kovarian minimum. Identifikasi outlier menggunakan robust distance yang juga menggunakan estimator MCD. Hasil penelitian menunjukkan bahwa ROBPCA menghasilkan komponen utama yang jauh lebih sedikit dibanding dengan PCA pada variabel HUSS. Hal ini dipengaruhi oleh adanya pengamatan outlier yang cukup banyak dan mempunyai jarak yang lebar terhadap nilai cut off dibanding dengan variabel-variabel lain. Variabel hasil reduksi dimensi kemudian digunakan untuk pemodelan SD, setelah itu dilakukan validasi. Pada pemodelan SD, tidak ada perbedaan signifikan antara metode regresi PCA dan regresi ROBPCA. Namun, secara umum metode regresi PCA cenderung lebih baik daripada regresi ROBPCA dilihat dari nilai RMSEP dan R2.
Statistical Downscaling (SD) modeling connects GCM global scale to smaller rainfall scale. Nevertheless, GCM data is spatial and temporal data where there is possibility of spatial correlation among the data in different grids in the same domain and enable the presence of outliers. Therefore, in SD modeling preprocessing is necessary, such as dimension reduction to solve GCM outline data multicolinearity problem. Dimension reduction method which is often used is Principal Component Analysis (PCA). PCA cant be relied on if there are outliers in the data, so robust dimension reduction is required. One of robust dimension reduction methods is Robust Principal Component Analysis (ROBPCA) with MCD robust estimator. MCD method is objective is to find h observations whose covariance matrix has the lowest determinant. Outlier identification uses robust distance which also uses MCD estimator. This research shows that ROBPCA yields less principal components than common PCA for variable HUSS. This is affected by the presence of many outliers and having longer distance to cut off value than other variables. Variables from dimension reduction are used in SD modeling, after validation is done. In SD modeling, there is no significant difference between PCA and ROBPCA regression method. But, generally PCA regression method tends to be better than ROBPCA regression based on RMSEP and R2.

STUDI PERFORMANSI ALGORITMA GENETIKA DALAM PENCAPAIAN NILAI SOLUSI PADA PENYELESAIAN MULTI OBJECTIVE GOAL PROGRAMMING
Pada problem optimasi yang mempunyai multiple objective seringkali tujuannya merupakan konflik dalam pencapaian nilai optimal dari ruang permasalahan dimensi tinggi (high dimensional) dan seringkali membutuhkan proses perhitungan yang rumit. Cara algoritmis yang umum dipakai dalam menyelesaikan permasalahan multi objective biasanya dengan menggunakan teknik konvensional seperti goal programming, compromise programming dan interactive methods. Teknik-teknik ini efektif ketika menghadapi model dengan goal yang tidak terlalu banyak, namun tidak efektif ketika menghadapi model yang kurang jelas dan kompleks (jumlah variabel. subject to dan goal terlalu besar) Algoritma genetika memberikan alternatif baru dalam memecahkan banyak model sulit dari bidang optimalisasi. Metodologi yang digunakan dalam menyelesaikan persoalan multi objective goal programming dengan pendekatan GA, terlebih dahulu dilakukan dengan merubah subject to menjadi nilai domain constrain. Nilai range dari domain constrain ini kemudian diacak pada populasi tertentu untuk menentukan nilai tertinggi dari proses pencarian. Hasil akhir menunjukkan bahwa GA mampu menuntun penelusuran titik-titik optimaldalam persoalan multi objective goal programming. Titik-titik tersebut didapatkan dengan lebih efisien dibandingkan dengan proses QS3 atau LINDO. GA mampu memberikan nilai pencapaian solusi terhadap solusi idealnya lebih baik dibanding dengan metode lainnya.Hal ini disebabkan karena pada saat eksekusi GA lebih tergantung pada panjang populasi dan panjang generasi, sedangkan pada metode lainnya tergantung pada jumlah variabel yang akan dieksekusi.
In problem of optimization having multiple objectives the goals often conflict each in achieving optimum value from the space of high dimensional issues and it frequently needs some complicated calculation process. The commonly used algorithm method for solving the problem of multi objective usually employees a conventional technique such as goal programming, compromise programming and interactive methods. Those techniques are effective with less clear and complex model (variable number, subject to and too large goal). Genetics algorithm gives a new alternative in solving many complicated models in the area of optimization. The methodology adopted in the solving the problem of multi objective goal programming with GA approach was done by changing subject to into domain constrains value. Range value from domain constrain was then randomized in certain population to determine the highest value of the searching process. The final result shows that GA is able to guide in tracing the optimum points in the multi objective programming. The points, are obtained more efficiently relative to the process of QS3 or LINDO. GA is able to give the value of solution achievement on its ideal solution better than the other methods do. It is because on the execution GA depends more on the population length and generation length, while in the other method GA depends on the variable number to execute.

Implementasi Algoritma Cipher Transposisi Dan Secure Hash Algorithm (SHA) Dalam Sistem Pengamanan Data
Keamanan data merupakan salah satu aspek dalam teknologi informasi. Dengan keamanan data, diharapkan informasi dapat terjaga keasliannya. Pada tugas akhir ini, dibentuk suatu sistem pengamanan data dengan menggabungkan dua algoritma kriptografi yaitu algoritma Cipher Transposisi dan Secure Hash Algortihm (SHA). Algoritma Cipher Transposisi merupakan algoritma kriptografi klasik yang sederhana, sehingga Algoritma Cipher Transposisi tidak pernah digunakan lagi. Karena kesederhanaan dari Algoritma Cipher Transposisi, timbul ide untuk menggabungkannya dengan SHA yang merupakan algoritma kriptografi modern yang kompleks. Sistem pengamanan data ini dibangun menggunakan bahasa pemograman Borland Delphi 7.0. Penggabungan kedua algoritma ini diharapkan dapat menjamin keamanan data, sehingga tidak dapat dilihat atau diubah orang yang tidak berhak. Implementasi dari penggabungan kedua algoritma ini dapat mengenkripsi file biner dan mendekripsi kembali file tersebut.
Data security is one of the important aspect in the information technology. With data security, is expected information can be protected authenticity. In this writing, the system security of data is formed by Transposition Cipher algorithm and Secure Hash Algorithm (SHA). The Transposition Cipher algorithm is the classical cryptography that simple, so that Transposition Cipher algorithm has never been used anymore. Because the simplicity of Transposition Cipher algorithm, the idea to combine it with SHA that representing of complex modern cryptography. This system security of data is built by using Borland Delphi 7.0. The combination of that algorithms are expected to make sure of data security, so that the data cannot be viewed or altered by unauthorized user. The implementation form combination of that algorithms can encrypt of biner file and decrypt it back.

Implementasi Algoritma Kompresi Deflate Pada Data
Pemakaian komputer sebagai bagian dari hidup tidak bisa dielakkan. Segala informasi disimpan ke dalam bentuk digital, baik berupa teks, gambar, suara dan video. Hal ini mengakibatkan kebutuhan akan media penyimpanan meningkat dan pengiriman informasi boleh jadi menyakitkan. Deflate adalah algoritma kompresi dengan teknik lossless compression. Hal ini menjawab kebutuhan dalam memperkecil ukuran suatu data untuk penyimpanan atau pengiriman tanpa merusak isinya. Spesifikasi yang diuraikan pada dokumen RFC 1951 “DEFLATE Compressed Data Format Spesification Version 1.3” menjelaskan bahwa algoritma deflate mengkombinasikan algoritma LZ77 dan Huffman, mengambil konsep sliding-window dan prefix-tree. Setelah dilakukan pengujian didapati bahwa algoritma Deflate ini efektif digunakan pada data teks dan data gambar bitmap, sedangkan pada data yang sudah mengalami kompresi justru akan mengalami pengembangan ukuran. Perangkat lunak kompresi yang mengimplementasikan algoritma Deflate ini dibangun dengan menggunakan bahasa pemrograman Java.
The computer usage as a part of life is inevitable. Every information stored in digital form, whether in the form of text, images, sound, dan video. This resulted in the need of the media storage will be increase and the information transmission maybe painful. Deflate is the compression algorithm with lossless compression techniques. This is answering the needs in reducing the size of data to storage or delivery without damaging the contents. Spesifications outlined at the document of RFC 1951 "Deflate Compressed Data Format Specification Version 1.3" explain that the deflate combining the LZ77 and Huffman algorithm, took the concept of sliding-window and the prefix-tree. After the testing found that the Deflate algorithm is effectively used on text data and bitmap image data, on data that has been compressed it will expanding the size. The compression software that implements this Deflate algorithm is built by using Java programming language.

ANALISIS KOMPONEN UTAMA NONLINEAR PADA DATA MULTIVARIABEL BERSKALA CAMPURAN
Analisis Komponen Utama Nonlinear (PRINCALS) merupakan pengembangan dari Analisis Komponen Utama yang dapat mereduksi variabel dari data multivariabel berskala campuran (nominal, ordinal, interval dan rasio) secara simultan. Penelitian ini membandingkan variansi penaksir akar karakteristik dari komponen utama linear dan nonlinear pada kasus data multivariabel berskala campuran. Untuk lebih mudah menginterpretasikan hasil dari Analisis Komponen Utama Nonlinear dilanjutkan dengan Analisis Kelompok Berhierarki, khususnya dengan Metode Pautan Tunggal. Dari hasil penelitian diperoleh bahwa variansi penaksir akar karakteristik Analisis Komponen Utama adalahVar(s) = HSVSHS dan Variansi penaksir akar karakte- ristik Analisis Komponen Utama Nonlinear adalah Var(R) = HRVl{HR. Jika Var(s) = HSVSHS dan Var(R)= HRVRHR , maka diperoleh: Var(s) ≥Var(R) Ini berarti bahwa variansi penaksir akar karakteristik Analisis Komponen Utama Nonlinear lebih efisien dari pada variansi penaksir akar karakteristik Analisis Komponen Utama. Dengan kata lain XR lebih efisien dari pada Xs. Dari hasil Analisis Komponen Utama Nonlinear tentang Pengeluaran Rumah Tangga di Kota Surabaya didapatkan lima akar karakteristik yang mampu menjelaskan 76,99% dari total keragaman data. Ini lebih baik dibandingkan dengan menggunakan Analisis Komponen Utama dimana dengan lima akar karakteristik hanya mampu menjelaskan 74,486% dari total keragaman data. Dengan Analisis Komponen Utama Nonlinear juga diperoleh tiga faktor, yang merupakan reduksi dari variabel asli, yaitu: Faktor Pertama: Rata-rata pengeluaran rumah tangga; Faktor Kedua : Banyaknya anggota rumah tangga; Faktor Ketiga : Sumber penghasilan utama keluarga. Dari hasil pengelompokkan diperoleh dua fungsi diskriminan, yaitu: Yi = 0,119X, + 0,58X2 - 0,028X5 - 0,118Xi0 - 0,133Xn + 0,972X12 Y2 = 0,957Xi + 0,351X2 - 1,026X5 + 0,634Xi0 - 0,167Xn - 0,06X12. Berdasarkan hasil analisis data, diperoleh gambaran bahwa rata-rata pendapatan penduduk di Kota Surabaya tidak merata, sehingga Pemerintah seharusnya memberikan perhatian yang serius guna meningkatkan pendapat penduduk agar lebih merata.
Nonlinear Principal Component Analysis (PRINCALS) is a development of Principal Component Analysis reduced variable from the multivariable data whith mixture of measurement types (nominal, ordinal, interval and ratio) simultaneously. This research compare estimator variansi of characteristic roots for both linear and nonlinear Principal Component Analysis on the multivariable data of mixture of measurecement types. For easily intrepreting a result of Nonlinear Principal Component Analysis is continued with Hierarchical Clustering Analysis, especially with Single Linkage methods. From the research result is obtained that estimator variance of characteristic roots for Principal Component Analysis is (s) = HSVSHS and estimator variance of characteristic roots for Nonlinear Principal Component is Var(s)= HRVRHR. If Var(s)= HSVsHS is compared with Var(R) = HRVRHR,, the result obtained is as followed: Var(s) ≥Var(R) It means that estimator variance of characteristic roots for Nonlinear Principal Component more efficient than estimator variance of characteristic roots for Linear Principal Component. By the way XR more efficient than Xs. From the analysis resulf of Nonlinear Principal Component Analysis about household expending at Surabaya District and by use obtained five characteristic roots which can explain 76,99% of the totals sample variance. This is the better than the usage of Principal Component Analysis with five characteristic roots which can only explain 74,486% of the total sample variance and also obtained three factors from reduced primary variable, i.e: First factor : Average of household expending Second factor : Number of household members. Third factor : Source of family main income Form the result clustering is obtained two functions discriminant, i,e. Yi = 0,119Xi + 0,58X2-0,028X5 - 0,118X10 - 0,133Xn+ 0,972Xi2 Y2 = 0,957Xi + 0,351X2 - 1,026X5 + 0,634Xio - 0,167Xu - 0,06X]2. Base on the result of data analysis, it is obtained a conclusion that inhabitants' main income rate at Surabaya Discrit as equitable, so Government have to give attention to increase the income inhabitant of unprosperity to be spread evenly. Key words : Multivariable Data, Nonlinear Principal Component Analysis, Estimator Variance of Characteristic roots, Hierarchical Clustering, Single Linkage, Delta Methods

HYBRID ALGORITMA GENETIKA SIMULATED ANNEALING UNTUK PERAMALAN DATA TIME SERIES
Peramalan time series bertujuan untuk mengendalikan atau mengenali perilaku system berdasarkan data pada periode waktu tertentu. Pada umumnya metode statistic untuk peramalan data time series stasioner dan non stasioner kurang akurat dan tidak lengkap dalam mendeskripsikan perilaku data, sehingga hasil peramalannya kurang akurat. Pada Tesis ini akan dikembangkan teknik peramalan time series dengan menggunakan hybrid algoritma genetika simulated annealing (hybrid GA-SA). Algoritma genetika menghasilkan nilai optimasi yang baik dan cepat dalam memecahkan suatu solusi, tetapi masih memungkinkan terjebakpada local optimum, sedangkan simulated annealing digunakan pada proses mutasi untuk memperoleh individu yang lebih baik. Teknik ini dikembangkan berdasarkan persamaan linier untuk menghasilkan nilai koefisien time series. Studi empiris pada empat tipe data time series menunjukkan bahwa model hybrid GA-SA mampu menghindari local optimum lebih baik dan memperbaiki hasil optimasi model algoritma genetika murni. Untuk peramalan satu tahap ke depan, hasil peramalan hybrid GA-SA lebih mendekati nilai aktual dan menghasilkan kinerja yang lebih baik dibandingkan dengan ARIMA untuk data time series stasioner, non stasioner dan musiman. Untuk peramalan banyak periode ke depan menunjukkan akurasi peramalan hybrid GA-SA lebih baik dibandingkan model ARIMA.
Time series forecasting use to control or recognize system behavior according to data in some period. Commonly, statistic method are less adequate and incompletely for stationer and non stationer time series forecasting when describing data behavior, with the result that not accurate prediction. This thesis proposes a developing of time series forecasting technique using hybrid genetic algorithms simulated annealing (hybrid GASA). Genetic algorithms have a better and fast optimization results in order to solve a solution, but should trap in local optimum, simulated annealing is used in mutation process to get a fitter offspring. This technique is developed from linier equation to get some coefficient values of time series. Empirical study of four types of time series data show that hybrid GA-SA model can escape from local optimum better than natural genetic algorithms model and get optimization values better than genetic algorithms model. One step ahead forecasting shows that forecast results of hybrid GA-SA model get closer to actual value and better performance results than ARIMA model for stationer, non stationer and seasoning time series data. Multi step ahead forecasting shows that forecast accuracy of hybrid GA-SA model is better than AJRIMA model.