Metode Gauss Seidel

Metode Gauss-Seidel digunakan untuk menyelesaikan sistem persamaan linear (SPL) berukuran besar dan proporsi koefisien nolnya besar, seperti sistem-sistem yang banyak ditemukan dalam sistem persamaan diferensial. Metode iterasi Gauss-Seidel dikembangkan dari gagasan metode iterasi pada solusi persamaan tak linier.

Teknik iterasi jarang digunakan untuk menyelesaikan SPL berukuran kecil karena metode-metode langsung seperti metode eliminasi Gauss lebih efisien daripada metode iteratif. Akan tetapi, untuk SPL berukuran besar dengan persentase elemen nol pada matriks koefisien besar, teknik iterasi lebih efisien daripada metode langsung dalam hal penggunaan memori komputer maupun waktu komputasi. Dengan metode iterasi Gauss-Seidel sesatan pembulatan dapat diperkecil karena dapat meneruskan iterasi sampai solusinya seteliti mungkin sesuai dengan batas sesatan yang diperbolehkan.

Semoga bermanfaat. Terima Kasih

Sumber : http://id.wikipedia.org/wiki/Metode_Gauss-Seidel

METODE NEURO FUZZY

Metode adaptive neuro fuzzy inference system (ANFIS) merupakan metode yang menggunakan jaringan syaraf tiruan untuk mengimplementasikan system inferensi fuzzy. Keunggulan system inference fuzzy adalah dapat menerjemahkan pengetahuan dari pakar dalam bentuk aturan-aturan, namun biasanya dibutuhkan waktu yang lama untuk menetapkan fungsi keanggotaannya. Oleh sebab itu dibutuhkan teknik pembelajaran dari jaringan syaraf tiruan untuk mengotomatisasi proses tersebut sehingga dapat mengurangi waktu pencarian, hal tersebut menyebabkan metoda ANFIS sangat baik diterapkan dalam berbagai bidang.

Landasan Teori

Soft Computing

Soft Computing (SC) merupakan suatu bidang ilmu multidisiplin, pertama kali diusulkan oleh Dr. Lotfi A. Zadeh. Pada makalah pertamanya tentang Soft Data Analysis, Dr. Zadeh mendefinisikan SC sebagai penggabungan Fuzzy Logic, Neuro Computing, Evolutionary Computation, dan Probabilistic Computing ke dalam suatu bidang multidisiplin. Pada perkembangannya Dr. Lotfi A. Zadeh mendeifnisikan SC sebagai sekumpulan metodologi yang berkembang secara terus menerus, yang bertujuan untk menghasilkan sistem yang memiliki toleransi terhaan ketidakakuratan (imprepicission), ketidakpastian (uncertainty), dan kebenaran parsial (partial truth) untuk mencapai ketahanan (robustness), bisa ditelusuri (tractability) dan biaya rendah [Zadeh, Lotfi A., 2006, “ soft computing”,www.cs.berkeley.edu/~zadeh].

Secara kasar SC dapat diartikan sebagai suatu bidang ilmu yang mempelajari metode-metode yang nantinya akan berkembang menjadi suatu kecerdasan buatan (artificial intelligence) yang bisa menirukan pola pikir manusia. Hingga saat ini SC masih tumbuh dan berkembang. Sehingga, definisi SC yang jelas masih belum disepakati. Satu hal yang sangat penting dalam SC adalah antara satu bidang ilmu dengan bidang ilmu yang lainnya saling melengkapi dan berkontribusi untuk menyelesaikan suatu permasalahan.

Logika Fuzzy

Logika fuzzy merupakan peningkatan dari logika Boolean yang berhadapan dengan konsep kebenaran sebagian. Di mana logika klasik menyatakan bahwa segala hal dapat diekspresikan dalam istilah binary (0 atau 1, hitam atau putih, ya atau tidak), logika fuzzy menggantikan kebenaran boolean dengan tingkat kebenaran. Logika Fuzzy memungkinkan nilai keanggotaan antara 0 dan 1, tingkat keabuan dan juga hitam dan putih, dan dalam bentuk linguistik, konsep tidak pasti seperti “sedikit”, “lumayan”, dan “sangat”.

Logika Fuzzy dikatakan sebagai logika baru yang lama, sebab ilmu tentang logika fuzzy modern dan metodis baru ditemukan beberapa tahun yang lalu, padahal sebenarnya konsep tentang logika fuzzy itu sendiri sudah ada sejak lama (Sri kusumadewi dan Hari Purnomo, 2004, ”Aplikasi Logika Fuzzy untuk pendukung keputusan”, hal.1). Konsep logika Fuzzy yang sangat sistematis pertama kali diusulkan oleh Dr. Lotfi A. Zadeh, seorang bidang ilmu komputer dari University Of California, Berkeley, Amerika Serikat. Pada bulan Juni tahun 1965, profesor Zadeh mempublikasikan makalah atau paper pertama yang membahas “Fuzzy Sets ” pada jurnal Information and Control [Suyanto,ST,MSc., 2008, “Soft Computing: membangun mesin ber-IQ Tinggi”,hal.2].

Logika fuzzy merupakan suatu cara yang tepat untuk memetakan suatu ruang input ke dalam suatu ruang output, sebagai contoh :

1. Manajer pergudangan mengatakan pada manajer produksi seberapa banyak persediaan barang pada akhir minggu ini, kemudian manajer produksi akan menetapkan jumlah barang yang harus diproduksi esok hari.

2. Pelayan restoran memberikan pelayanan kepada tamu, kemudian tamu akan memberikan tip yang sesuai atas baik tidaknya pelayanan yang diberikan.

3. Anda mengatakan kepada saya seberapa sejuk ruangan yang anda inginkan, kemudian saya akan mengatur putaran kipas yang ada pada ruangan ini.

[Sri kusumadewi dan Hari Purnomo, 2004, ”Aplikasi Logika Fuzzy untuk pendukung keputusan”, hal.1-2].

Neuro Fuzzy

Neuro fuzzy merupakan gabungan atau integrasi antara 2 metode yaitu, Jaringan syarat tiruan dengan sistem fuzzy, dimana 2 metode tersebut memiliki karakteristik yang bertolak belakang akan tetapi apabila digabungkan akan menjadi suatu metode yang lebih baik. Jaringan syaraf tiruan (JST) memiliki kemampuan Learning , tetapi tidak bisa menjelaskan proses penalaran yang dilakukan karena pengetahuan yang dimilikinya hanyta berupa bobot-bobot sinapsis yang biasanya bernilai real. JST tidak memiliki aturan-aturan IF – THEN sama sekali, sebaliknya sistem fuzzy tidak memiliki kemampuan learning, tetapi bisa menjelaskan proses penalaran yang dilakukannya berdasarkan aturan-aturan (rules) dalam basis pengetahuan yang dimilikinya.

Jaringan syaraf tiruan

Jaringan saraf tiruan (JST) (Bahasa Inggris: artificial neural network (ANN), atau juga disebut simulated neural network (SNN), atau umumnya hanya disebut neural network (NN)), adalah jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan jaringan saraf manusia. JST merupakan sistem adaptif yang dapat merubah strukturnya untuk memecahkan masalah berdasarkan informasi eksternal maupun internal yang mengalir melalui jaringan tersebut. Secara sederhana, JST adalah sebuah alat pemodelan data statistik non-linier. JST dapat digunakan untuk memodelkan hubungan yang kompleks antara input dan output untuk menemukan pola-pola pada data (id.wikipedia.org).

ANFIS

Adaptive Neuro-Fuzzy Inference System (ANFIS) adalah penggabungan mekanisme fuzzy inference system yang digambarkan dalam arsitektur jaringan syaraf. Sistem inferensi fuzzy yang digunakan adalah sistem inferensi fuzzy model Tagaki-Sugeno-Kang (TSK) orde satu dengan pertimbangan kesederhanaan dan kemudahan komputasi.

Untuk menjelaskan arsitektut ANFIS, disini siasumsikan fuzzy inference sistem (FIS) hanya mempunyai dua input, x dan y, serta satu output yang dilambangkan z. Pada model sugeno orde satu, himpunan aturan menggunakan kombinasi linier dari input-input yang ada, dapat diekspresikan sebagai berikut :

IF x is A1 AND y is B1 THEN f1 = p1x + q1y + r1

IF x is A2 AND y is B2 THEN f2= p2x + q2y + r2

Semoga Bermanfaat. Terima Kasih…

Sumber : http://aayogi-ngebloglagi.blogspot.com/2010/03/adaptive-neuro-fuzzy-inference-system.html

Algoritma Knuth-Morris-Pratt

Algoritma Knuth-Morris-Pratt adalah salah satu algoritma pencarian string, dikembangkan secara terpisah oleh Donald E. Knuth pada tahun 1967 dan James H. Morris bersama Vaughan R. Pratt pada tahun 1966, namun keduanya mempublikasikannya secara bersamaan pada tahun 1977.

Jika kita melihat algoritma brute force lebih mendalam, kita mengetahui bahwa dengan mengingat beberapa perbandingan yang dilakukan sebelumnya kita dapat meningkatkan besar pergeseran yang dilakukan. Hal ini akan menghemat perbandingan, yang selanjutnya akan meningkatkan kecepatan pencarian.

Perhitungan penggeseran pada algoritma ini adalah sebagai berikut, bila terjadi ketidakcocokkan pada saat pattern sejajar dengan teks[i..i + n − 1], kita bisa menganggap ketidakcocokan pertama terjadi di antara teks[i + j] dan pattern[j], dengan 0 < j < n. Berarti, teks[i..i + j − 1] = pattern[0..j − 1] dan a = teks[i + j] tidak sama dengan b = pattern[j]. Ketika kita menggeser, sangat beralasan bila ada sebuah awalan v dari pattern akan sama dengan sebagian akhiran u dari sebagian teks. Sehingga kita bisa menggeser pattern agar awalan v tersebut sejajar dengan akhiran dari u.

Dengan kata lain, pencocokkan string akan berjalan secara efisien bila kita mempunyai tabel yang menentukan berapa panjang kita seharusnya menggeser seandainya terdeteksi ketidakcocokkan di karakter ke-j dari pattern. Tabel itu harus memuat next[j] yang merupakan posisi karakter pattern[j] setelah digeser, sehingga kita bisa menggeser pattern sebesar j − next[j] relatif terhadap teks.[2]

Secara sistematis, langkah-langkah yang dilakukan algoritma Knuth-Morris-Pratt pada saat mencocokkan string:

01. Algoritma Knuth-Morris-Pratt mulai mencocokkan pattern pada awal teks.
02. Dari kiri ke kanan, algoritma ini akan mencocokkan karakter per karakter pattern dengan karakter di teks yang bersesuaian, sampai salah satu kondisi berikut dipenuhi:
-Karakter di pattern dan di teks yang dibandingkan tidak cocok (mismatch).
-Semua karakter di pattern cocok. Kemudian algoritma akan memberitahukan penemuan di posisi ini.
03. Algoritma kemudian menggeser pattern berdasarkan tabel next, lalu mengulangi langkah 2 sampai pattern berada di ujung teks.

sumber : http://id.wikipedia.org/wiki/Algoritma_Knuth-Morris-Pratt

Semoga bermanfaat. Terima kasih

Algoritma PlayFair Chiper

Algoritma PlayFair Chiper adalah salah satu teknik kriptografi. Dalam teknik ini pesan dienkripsi berdasarkan pasangan huruf, bukan huruf tunggal seperti sandi klasik lainnya. Sandi Playfair ditemukan oleh ahli Fisika berkebangsaan Inggris bernama Sir Charles Wheatstone (1802 – 1875) namun dipromosikan oleh Baron Lyon Playfair (1819 – 1898) pada tahun 1854.

Dibandingkan dengan sandi-sandi lainnya, sandi Playfair dapat meningkatan keamanan dalam pengiriman sebuah pesan rahasia sehingga dapat memberikan jaminan integritas data serta menjaga kerahasiaan. Sandi Playfair pertama kali digunakan untuk tujuan-tujuan taktis oleh pasukan Inggris dalam Perang Boer II dan Perang Dunia I. Australia dan Jerman juga menggunakan sandi ini untuk tujuan yang sama dalam Perang Dunia II. Sandi Playfair paling sering digunakan karena penggunaannya yang sangat sederhana dan tidak memerlukan peralatan khusus untuk membaca atau menerjemahkan suatu sandi yang bersifat rahasia. Pada perkembangan selanjutnya, sandi ini tidak lagi digunakan oleh pasukan militer karena telah muncul berbagai perangkat enkripsi digital untuk menerjemahkannya. Sandi Playfair dianggap tidak aman lagi untuk menjaga suatu kerahasiaan pesan karena komputer dengan piranti lunak tertentu dapat memecahkan suatu sandi dalam hitungan detik.

Sandi Playfair menggunakan 25 huruf sebagai kunci yang disusun dalam bujur sangkar dengan menghilangkan huruf J dari abjad. Susunan kunci di dalam bujur sangkar tersebut diperluas dengan menambahkan kolom keenam dan baris keenam.

sumber : http://id.wikipedia.org/wiki/Sandi_Playfair

Semoga bermanfaat. Terima kasih

Metode Certainty Factor

Faktor kepastian (certainty factor) diperkenalkan oleh Shortliffe Buchanan dalam pembuatan MYCIN pada tahun 1975 untuk mengakomadasi ketidakpastian pemikiran (inexact reasoning) seorang pakar. Teori ini berkembang bersamaan dengan pembuatan sistem pakar MYCIN. Team pengembang MYCIN mencatat bahwa dokter sering kali menganalisa informasi yang ada dengan ungkapan seperti misalnya: mungkin, kemungkinan besar, hampir pasti. Untuk mengakomodasi hal ini tim MYCIN menggunakan certainty factor (CF) guna menggambarkan tingkat keyakinan pakar terhadap permasalahan yang sedang dihadapi. Secara umum, rule direpresentasikan dalam bentuk sebagai berikut (John Durkin, 1994) :

                 IF E1 [AND / OR] E2 [AND / OR] … En

                         THEN H (CF = CFi)

dimana:

E1 … En : fakta – fakta (evidence) yang ada.

H : hipotesa atau konklusi yang dihasilkan.

CF : tingkat keyakinan (Certainty Factor) terjadinya hipotesa H akibat adanya fakta – fakta E1 s/d En .

Definisi menurut David McAllister Certainty Factor adalah suatu metode untuk membuktikan apakah suatu fakta itu pasti ataukah tidak pasti yang berbentuk metric yang biasanya digunakan dalam sistem pakar. Metode ini sangat cocok untuk sistem pakar yang mendiagnosis sesuatu yang belum pasti.

Aturan metode Certainty Factors:

1. McAllister menggambarkan aturan untuk menambahkan dua faktor Certaint positif adalah:

2. Aturan untuk menambahkan dua Certaint yang negatif adalah:

3. Aturan untuk menambahkan Certainty Factors positif dan Certainty Factors negatif lebih kompleks:

3 aturan ini menyediakan suatu skala interval untuk Certainty Factors. Contoh untuk fakta yang positif:

Strong suggestive (CFa): 0.8

Suggestive (CFb) : 0.6

CFcombine (CFa CFb) = 0.8 + 0.6 (1-0.8) = 0.92

Contoh untuk fakta yang negatif:

Strong suggestive (CFc): -0.8

Suggestive (CFd) : -0.6

CFcombine (CFc CFd) = -0.8 + -0.6 + -0.8 * -0.6 = -0.92

Contoh untuk fakta yang positif dan negatif:

Certainty factor adalah 0.88 (CFe)

Certainty factor against adalah 0.90 (CFf)

Metode certainty factors ini hanya bisa mengolah 2 bobot dalam sekali perhitungan. Untuk bobot yang lebih dari 2 banyaknya, untuk melakukan perhitungan tidak terjadi masalah apabila bobot yang dihitung teracak, artinya tidak ada aturan untuk mengkombinasikan bobotnya, karena untuk kombinasi seperti apapun hasilnya akan tetap sama. Untuk mengetahui apakah seorang pasien tersebut menderita penyakit jantung atau tidak, itu dilihat dari hasil perhitungan bobot setelah semua keluhankeluhan diinputkan dan semua bobot dihitung dengan menggunakan metode certainty factors. Pasien yang divonis mengidap penyakit jantung adalah pasien yang memiliki bobot mendekati +1 dengan keluhan-keluhan yang dimiliki mengarah kepada penyakit jantung. Sedangkan pasien yang mempunyai bobot mendekati -1 adalah pasien yang dianggap tidak mengidap penyakit jantung, serta pasien yang memiliki bobot sama dengan 0 diagnosisnya tidak diketahui atau unknown atau bisa disebut dengan netral.

CF(H,E) = MB(H,E) - MD(H, E)

CF(H,E) : certainty factor dari hipotesis H yang dipengaruhi oleh gejala (evidence) E.Besarnya CF berkisar antara –1 sampai dengan 1. Nilai –1 menunjukkan ketidakpercayaan mutlak sedangkan nilai 1 menunjukkan kerpercayaan mutlak.

MB(H,E) : ukuran kenaikan kepercayaan(measure of increased belief) terhadap hipotesis H yang dipengaruhi oleh gejala E.

MD(H,E) : ukuran kenaikan ketidakpercayaan (measure of increased disbelief) terhadap hipotesis H yang dipengaruhi oleh gejala E Bentuk dasar rumus certainty factor sebuahaturan JIKA E MAKA H adalah seperti ditunjukkan oleh persamaan 2 berikut:

CF(H,e) = CF(E, e) *CF(H,E)

Dimana

CF(E,e) : certainty factor evidence E yang dipengaruhi oleh evidence e

CF(H,E) : certainty factor hipotesis dengan asumsi evidence diketahui dengan pasti, yaitu ketika CF(E, e) = 1

CF(H,e) : certainty factor hipotesis yang dipengaruhi oleh evidence e Jika semua evidence pada antecedent diketahui dengan pasti maka persamaannya akan menjadi:

CF(H, e) = CF(H, E)

Dalam aplikasinya, CF(H,E) merupakan nilai kepastian yang diberikan oleh pakar terhadap suatu aturan, sedangkan CF(E,e) merupakan nilai kerpercayaan yang diberikan oleh pengguna terhadap gejala yang dialaminya. Sebagai contoh, berikut ini adalah sebuah aturan dengan CF yang diberikan oleh seorang pakar:

JIKA batuk

DAN demam

DAN sakit kepala

DAN bersin-bersin

MAKA influensa, CF: 0,7

Kelebihan dan Kekurangan Metode Certainty Factors

Kelebihan metode Certainty Factors adalah:

1. Metode ini cocok dipakai dalam sistem pakar untuk mengukur sesuatu apakah pasti atau tidak pasti dalam mendiagnosis penyakit sebagai salah satu contohnya.

2. Perhitungan dengan menggunakan metode ini dalam sekali hitung hanya dapat mengolah dua data saja sehingga keakuratan data dapat terjaga.

Kekurangan metode Certainty Factors adalah:

Ide umum dari pemodelan ketidakpastian manusia dengan menggunakan numerik metode certainty factors biasanya diperdebatkan. Sebagian orang akan membantah pendapat bahwa formula untuk metode certainty factors diatas memiliki sedikit kebenaran.

Metode ini hanya dapat mengolah ketidakpastian/kepastian hanya 2 data saja. Perlu dilakukan beberapa kali pengolahan data untuk data yang lebih dari 2 buah.

sumber : http://paustayugianus.blog.upi.edu/2010/01/

Semoga bermanfaat. Terima kasih

Metode Relative Strength Index (RSI)

Indeks Kekuatan Relatif atau lebih dikenal dengan nama Relative Strength Index (RSI) adalah merupakan suatu osilator yang digunakan dalam analisis teknis untuk menunjukkan kekuatan harga dengan cara membandingkan pergerakan kenaikan dan penurunan harga.

Metode RSI ini diperkenalkan oleh J. Welles Wilder dan diterbitkan pada majalah Commodities Magazine yang sekarang bernama Future Magazine pada bulan Juni 1978 serta dalam bukunya yang berjudul New Concepts in Technical Trading Systems [1], RSI ini menjadi populer penggunaannya oleh karena secara relatif mudah diinterpretasikan.

Istilah “kekuatan relatif” atau relative strength ini juga merujuk pada kekuatan dari suatu saham dalam kaitannya dengan pasar secara keseluruhan atau terhadap sektor usaha saham tersebut. [2] Untuk menghindari kebingungan maka kadang-kadang disebut juga “pembanding kekuatan relatif” (relative strength comparative) yang tidak berhubungan dengan RSI dalam artikel ini.

sumber : http://id.wikipedia.org/wiki/Indeks_Kekuatan_Relatif

Semoga bermanfaat. Terima kasih

Algoritma k-nearest neighbor

Algoritma k-nearest neighbor (k-NN atau KNN) adalah sebuah metode untuk melakukan klasifikasi terhadap objek berdasarkan data pembelajaran yang jaraknya paling dekat dengan objek tersebut.

Data pembelajaran diproyeksikan ke ruang berdimensi banyak, dimana masing-masing dimensi merepresentasikan fitur dari data. Ruang ini dibagi menjadi bagian-bagian berdasarkan klasifikasi data pembelajaran. Sebuah titik pada ruang ini ditandai kelas c jika kelas c merupakan klasifikasi yang paling banyak ditemui pada k buah tetangga terdekat titk tersebut. Dekat atau jauhnya tetangga biasanya dihitung berdasarkan jarak Euclidean.

Pada fase pembelajaran, algoritma ini hanya melakukan penyimpanan vektor-vektor fitur dan klasifikasi dari data pembelajaran. Pada fase klasifikasi, fitur-fitur yang sama dihitung untuk data test (yang klasifikasinya tidak diketahui). Jarak dari vektor yang baru ini terhadap seluruh vektor data pembelajaran dihitung, dan sejumlah k buah yang paling dekat diambil. Titik yang baru klasifikasinya diprediksikan termasuk pada klasifikasi terbanyak dari titik-titik tersebut.

Nilai k yang terbaik untuk algoritma ini tergantung pada data; secara umumnya, nilai k yang tinggi akan mengurangi efek noise pada klasifikasi, tetapi membuat batasan antara setiap klasifikasi menjadi lebih kabur. Nilai k yang bagus dapat dipilih dengan optimasi parameter, misalnya dengan menggunakan cross-validation. Kasus khusus di mana klasifikasi diprediksikan berdasarkan data pembelajaran yang paling dekat (dengan kata lain, k = 1) disebut algoritma nearest neighbor.

Ketepatan algoritma k-NN ini sangat dipengaruhi oleh ada atau tidaknya fitur-fitur yang tidak relevan, atau jika bobot fitur tersebut tidak setara dengan relevansinya terhadap klasifikasi. Riset terhadap algoritma ini sebagian besar membahas bagaimana memilih dan memberi bobot terhadap fitur, agar performa klasifikasi menjadi lebih baik.

Terdapat beberapa jenis algoritma pencarian tetangga terdekat, diantaranya:

Linear scan
Pohon kd
Pohon Balltree
Pohon metrik
Locally-sensitive hashing (LSH)

Algoritma k-NN ini memiliki konsistensi yang kuat. Ketika jumlah data mendekati tak hingga, algoritma ini menjamin error rate yang tidak lebih dari dua kali Bayes error rate (error rate minimum untuk distribusi data tertentu).

sumber : http://id.wikipedia.org/wiki/KNN

Semoga bermanfaat. Terima kasih

Algoritma Luhn

Algoritma Luhn atau Formula Luhn, dikenal juga sebagai algoritma “modulus 10”, adalah sebuah formula checksum sederhana yang digunakan untuk memvalidasi macam-macam Nomor Identifikasi seperti nomor Kartu Kredit. Checksum adalah sebuah cara sederhana untuk melindungi integritas data dengan mendeteksi kesalahan (error) dalam data yang
dikirim melalui media telekomunikasi atau data dalam media penyimpanan.

Algoritma ini diciptakan oleh peneliti IBM Hans Peter Luhn. Saat ini algoritma Luhn bebas digunakan publik dan telah dipakai secara luas. Algoritma Luhn tidak didesain untuk menjadi sebuah fungsi hash yang aman secara kriptografi. Algoritma ini lebih didesain untuk melindungi dari sebuah kesalahan tak sengaja pada data, bukan dari serangan dengan maksud mencuri data. Banyakan kartu kredit dan nomor identifikasi pemerintah menggunakan algoritma ini sebagai cara sederhana untuk membedakan nomor yang sahih dari nomor-nomor acak.

Cara kerja algoritma ini dapat dijelaskan sebagai
berikut:

01. Mulai dari angka paling kanan sampai paling kiri, kalikan setiap angka kedua dengan 2. Untuk semua angka yang menjadi lebih besar dari atau sama dengan 10, kurangi angka hasil perkalian tadi dengan 9. Sebagai
contoh, 1111 menjadi 2121, sementara 8763 menjadi 7733 (dari 2×6 = 12 lalu 12-9 = 3 dan 2×8 = 16 lalu 16-9 = 7).
02. Jumlahkan semua angka yang ada. Sebagai contoh, jika 1111 menjadi 2121, maka 2+1+2+1 = 6; dan 8763 menjadi 7733, maka 7+7+3+3 = 20.
03. Jika total dari penjumlahan tadi dimoduluskan 10 kongruen dengan 0, maka nomor itu sahih. Jadi, 1111 bukan angka yang sahih (6 mod 10 ≠ 0) sementara 8763
adalah sahih (20 mod 10 = 0).

Angka x2 -9 Hasil
0 0 0 0
1 2 2 2
2 4 4 4
3 6 6 6
4 8 8 8
5 10 10-9 1
6 12 12-9 3
7 14 14-9 5
8 16 16-9 7
9 18 18-9 9

Semoga bermanfaat. Terima kasih

BIT-PLANE COMPLEXITY SEGMENTATION (BPCS)

Wahh… klo ingat metode ini, jadi ingat masa-masa susah tidur. hehehehe 😀

Tapi demi berbagi… mari di lanjutkan. 😉

Steganografi adalah teknik menyembunyikan data rahasia ke dalam data lainnya sehingga perubahan yang terjadi tidak terlihat mencurigakan. Permasalahan yang dihadapi adalah masalah seperti pada prisoner’s problem dimana 2 orang berkomunikasi dengan mengirimkan data rahasia yang tidak mencurigakan dan menarik perhatian. Penggunaan teknik Kriptografi atau password akan menimbulkan kecurigaan pada pihak lain yang tidak berwenang sehingga berusaha untuk memecahkan pesan rahasia yang ada atau memecahkan password yang digunakan.

Pada Steganografi, data rahasia disisipkan pada data lain yang disebut cover-data dan menghasilkan stego-data (hasil steganografi). Stego-data tersebut disisipi data rahasia sedemikian rupa sehingga perubahan yang terjadi tidak terlihat mencolok. Stego-data tersebut akan terlihat seperti data biasa yang tidak menimbulkan kecurigaan pihak lain untuk memecahkannya, sehingga tingkat keamanan data rahasia yang tertanam didalamnya cenderung lebih baik.

Biasanya teknik Steganografi diterapkan pada dokumen multimedia seperti image, audio dan video. Hal ini disebabkan karena perubahan yang terjadi pada dokumen multimedia setelah penyisipan cenderung tidak dapat dideteksi
menggunakan indera manusia. Terdapat beberapa metode yang digunakan untuk steganografi pada dokumen citra seperti metode Least Significant Bit (LSB), Spread Spectrum Steganography dan Bit- Plane Complexity Segmentation ( BPCS ).

Tetapi saya akan membahas sedikit tentang Bit- Plane Complexity Segmentation ( BPCS ).

Bit-plane complexity segmentation (BPCS) adalah salah satu teknik steganografi yang diperkenalkan oleh Eiji Kawaguchi dan R. O. Eason pada tahun 1997. Teknik ini merupakan teknik steganografi kapasitas besar, karena dapat menampung data rahasia dengan kapasitas yang relatif besar jika dibandingkan dengan metode steganografi lain seperti LSB (Least Significant Bit).

Eiji Kawaguchi dan R. O. Eason memperkenalkan teknik BPCS ini untuk digunakan pada dokumen citra dengan format BMP yang tidak terkompresi. Dokumen citra tersebut dibagi menjadi beberapa segmen dengan ukuran 8×8 pixel setiap segmennya. Pada dokumen citra 8-bit, setiap satu segmen akan memiliki 8 buah bitplane yang merepresentasikan pixel – pixel dari setiap bit tersebut. Kedelapan bitplane ini disebut PBC system (Pure Binary Coding). Pada BPCS, proses embedding dilakukan pada bit-plane dengan sistem CGC (Canonical Gray Coding) karena proses bit slicing pada CGC cenderung lebih baik dibandingkan pada PBC.

Proses penyisipan data dilakukan pada segmen yang memiliki kompleksitas yang tinggi. Segmen yang memiliki kompleksitas tinggi ini disebut noise-like regions. Pada segmen-segmen ini penyisipan dilakukan tidak hanya pada least significant bit, tapi pada seluruh bit-plane. Karena itu kapasitas data pada BPCS dapat mencapai 50% dari ukuran cover-imagenya. Sumber : Shrikant S. Khaire and DR. Sanjay L. Nalbalwar (2010). “Review: Steganography – Bit Plane Complexity Segmentation (BPCS) Technique.” Department of Electronics & Telecommunication, Dr. Babasaheb Ambedkar Technological University, Lonere, Dist: Raigad, Maharashtra, India. 2(9). 4860-4868.

Bagi yang mau jurnalnya silahkan download..

01. Klik Di Sini atau Di Sini
02. Klik Di Sini atau Di Sini