Sie sind auf Seite 1von 55
MODUL STEM CERDAS DR. IR. MM LANNY W PANDJAITAN aly JURUSAN TEKNIK ELEKTRO FAKULTAS TEKNIK UNIKA ATMA JAYA JAKARTA. OKTOBER 2000 KATA PENGANTAR Mengingat perkembangan ilmu pengetahuan di bidang kecerdasan tirdan yang sangat ccepat, dirasakan perlu dibuat suatu buku pegangan yang menunjang kuliah sistem cerdas bagian pertama, Buku pegangan pada mata kuliah kecerdasan tiruan dibagi menjadi dua buku yaitu: Buku: berisi pembahasan tentang topologi sistem kecerdasan tiruan, dan kecerdasan komputasional yang diwakili oleh Jaringan Saraf Tirwan Buku ll: berisi pembahasan tentang Himpunan Fuzzy, logika fuzzy dan algoritma genetik. Demikian, mudah-mudahan buku pegangan ini berguna. Penulis Lanny W. Pandjaitan Gambar 1.1 Gambar 1.2 Gambar 1.3 Gambar 2.1 Gambar 2.2 Gambar 2.3 Gambar 2.4 Gambar 3.1 Gambar 3.2 Gambar 3.3 Gambar 4.1 Gambar 4.2 Gambar 5.1 Gambar 5.2 Gambar 5.3 Gambar 5.4 Gambar 5.5 Gambar 5.6 Gambar 5.7 Gambar 5.8 Gambar 5.9 DAFTAR GAMBAR Topologi Kecerdasan Tirvan Dasar Sistem Pakar (ES) Halaman 4 7 Komponen-komponen Dasar dari Sistem Berbasis pengetahuan 9 Analogi sel biologis dengan satu se! neuron Struktur Mikro JST Jenis-jenis struktur meso JST Diagram Blok Sistem JST pada tingkat makro Bentuk hubungan umpan maju elemen pemroses Bentuk umum elemen pemroses Pengenalan Pola dengan jaringan umpan maju tiga lapis. JST dua lapis, JST lapis banyak Struktur rangkaian perceptron Penyesuaian bobot pada ADALINE IPB empat lapis Arsitektur jaringan propagasi balik Jaringan Hopfield Biner Jaringan Hopfield dengan nilai bobot yang ditunjukkan Arsitektur jaringan dua lapis dengan belajar kompetitif Elemen pemroses pada lapisan kompetitif Struktur dasar jaringan Kohonen iti 15 16 18 20 Tabel 1.1 Tabel 1.2 Tabel 3.1 Tabel 3.2 DAFTAR TABEL Halaman Topologi Kecerdasan Tiruan 5 Perbandingan antara Karakteristik Pemrograman Konvensional Dan Karakteristik Pemrograman Deklaratif’ 9 Belajar tanpa pengawasan 29 Belajar dengan pengawasan 29 BABI SISTEM CERDAS 1 PENDAHULUAN Bermacam-macam definisi Kecerdasan Tiruan (Arnificial Intelligence): Buchanan & Shortliffe (1985) + Manipulasi simbol-simbo! untuk menyelesaikan masalah ‘Waterman (1986) + Bagian dari imu pengetahuan bidang Komputer yang digunakan untuk pengembangan program-program kecerdasan komputer Rich (1981 Studi bagaimana membuat komputer mengerjakan sesuatu sedemikian rupa sehingga pada saat tersebut orang merasa mendapatkan hasil yang lebih baik. Staugaai Marvin. k ~ flmu pengetahuan yang dapat membuat mesin melakukan sesuatu yang memerlukan kecerdasan apabila dikerjakan oleh manusia, 'Mekanisasi atau duplikasi dari proses berfikir manusia’ Schildt (1987) + Suatu program yang mempertihatkan tingkah laku serupa perilaku manusia jika menghadapi persoalan yang sama Charniak & McDermott (1985) ~ _Proses pembelajaran menggunakan model komputasi Dari berbagai pengertian tersebut, sebenamya apa yang dinamakan Kecerdasan Tiruan (Antificial Intelligence) adalah suatu bidang sains komputer yang ditujukan untuk menyempumakan kinerja sistem instrumentasi elektronika. Peralatan'mesin/ sistem yang dibangun dapat melakukan kerja yang memerlukan kecerdasan apabila kerja tersebut dilakukan oleh manusia. Sebagai contoh: Tanyakan sesuatu subjek pada mesin/peralatan maka akan diperoleh jawaban 2 TOPOLOGI KECERDASAN TIRUAN Berbagai kecerdasan tiruan dapat dikategorl n dalam beberapa macam menurut keunggulan spesifik yang dimiliki, Menurut Russel dan Norwig kecerdasan tinvan mempunyat dimensi: = peniruan peritaku = peniruan cara berfikir manusia Sistem yang mampu menirukan perilaku manusia mempunyai kemampuan: 1. Menyimpan informasi. 2. Menggunakan informasi yang dipunyai untuk melakukan suatu pekerjaan dan untuk ‘menarik kesimpulan 3. Beradaptasi tethadap keadaan baru. 4, Berkomunikasi dengan penggunanya Sistem yang mampu menirukan cara berfikir manusia terdiri dari dua kategor: 1. Sistem yang mampu melakukan emulasi kepakaran seseorang (knowledge based expert system), 2. Sistem yang mampu melakukan komputasi secara cerdas berdasarkan kecerdasan komputasional (computational intelligence). Knowledge based expert system dan computational imelligence dibedakan dalam hal kemampuannya: ~- mengenali pola + beradaptasi terhadap pengaruh fingkungan dan atau alami Kecerdasan Trvan eniruan cara berfkir Peniruan tingkah taku Gambar 1.1. Topologi Kecerdasan Tiruan, Tabel 1. Topologi Kecerdasan Tiruan, T KATEGORI | Pendekatan Akuisisi Implementasi_ | Keunggulan | \ | Desain Pengetahuan Keeerdasan Tiruan | Pemodlan dan | Pemrogramin | Peranghatkeras | Prosedur taku’ Diprogram Smart | Pemrograman | sang djalankan ole | statis System) | Perangkat lunak Kecerdasan Tiran BerbasisPengetatuan | | | - Sistem Pakar (ES) | Emulasi | Observasi kepakaran } Perangkat lunak: Diagnosis | Kepakaran dalam | menvelesahan | | | masaah | | -Pemrosramancerdas | Emule cara | Algorimalproses | Peranghat lunak | Algoritma | Gineligent berfiki manusia | beri | programming) | | Kecerdasan Tirvan Komputasional | - JST (hemampuan Pilthan arsitekrur | Belajar (dengan dan | Peranghat Pengenalan belajar) Jst | tanpa | lunakisirnulasi dan} pola | pengawvasan) | ‘atau perangkat keras ~Fuzm (Granular | Penerapanbshasa | Berbasis rancangan | Peranghat linak | Pengendalian Computation) manusiake dalam | atuan (rue based) | dan atau resin perangkatkeras Algortma Genesis | Emulasievolusi | Mekanisme evolusi_ | Peranghat nak | Optimasi (Gvolutionary dalam biologi Compuiation) 21 Kecerdasan yang diprogram (Smart system) Smart system merupakan suatu langkah lain untuk memperbesar kemampuan manusia dalam berfikir dan belajar. Agar dapat mengemulasikan kemampuan manusia dalam berfikir, berasosiasi, membedakan dan mengintepretrasikan di dalam otak manusia, maka harus difahami bagaimana memodelkan otak manusia yang dapat_menarik kesimpulan tersebut ‘Smart system dipandang sebagai suatu subset dari kumpulan suatu sistem peralatan yang. mempunyai beberapa tugas, Sistem ini mempunyai kemampuan dalam menyimpulkan, mengimplementasikan atau merekomendasikan suatu keputusan _berdasarkan kesimpulan yang mengacu pada fakta yang terjadi, Teknologi utama yang mempengaruhi implementasi smart system adalah: = expert system - ST - Struktur data ert System (sistem pakar, ES) berkontribusi memasukkan kecerdasan tiruan ke dalam sistem dengan menempatkan pengetahuan sebelumnya ke dalam modul yang dapat bereaksi menggunakan stimulan eksteral dengan suatu cara seperti yang diinginkan oleh seorang pakar. Secara sama, JST adalah suatu sistem yang mengintepretasikan hasil proses komputasi berdasarkan klasifikasi atau karakterisisasi yang diintegrasikan secara menyeluruh ke dalam suatu pola, Di sisi lain, struktur data berkontribusi pada kecerdasan tiruan dengan cara mengorganisasikan, menyimpan dan memanggil kembali data yang berhubungan dengan fungsi-fungsi kecerdasan Inference engine Rule External updates data Decision analysis Gambar 1.2. Dasar Sistem Pakar (ES) 2.2 Kecerdasan berbasis Pengetahuan Masalah kecerdasan tiruan berbasis pengetahuan berakar pada pemrograman berbasis ilmu pengetahuan yang mencoba meniru tingkah laku kecerdasan manusia pada Komputer. Dalam mempelajari pengetahuan dan penggunaannya, diperoleh ciri-ciri menarik, Sebagai contoh adalah kepakaran manusia yang cenderung sempit namum mempunyai nilai kekhususan yang tinggi. Pada pakar yang benar, kemampuan mengenali pola-pola dapat cepat dilakukan dan mampu menetapkan aturan-aturan yang tepat untuk mengatasi persoalan, Walaupun aturan sering mengacu pada masa Jalu, penggunaan cara ini mempersempit suatu ruang solusi yang penting untuk ditelusuri Tetapi salah satu ciri kepakaran adalah kemampuan dari seorang pakar untuk menjelaskan alasan-alasan yang digunakan dalam menyelesaikan masalah Jadi definisi suatu Knowledge based (expert) system adalah suatu program komputer yang melaksanakan tugas yang normainya dikerjakan oleh scorang pakar atau Konsultan, yang dalam pengerjaannya menggunakan pemafaman pengetahuan masa lalu, Jika difikirkan bahwa suatu program komputer sebagai suatu kumpulan aturan yang menjelaskan tindakan apa yang harus diambil, maka program algoritma dapat ipandang sebagai sesuatu yang merupakan urutan tujuan atau pengujian dan aplikasi Aturan ditentukan lebih dahulu dan tiap keadaan aturan menghasitkan suatu tindakan. Dengan demikian kemajuan dalam suatu program dikontrol oleh suatu urutan algoritma yang ketat, Selanjutnya dalam suatu program dengan algoriima konvensional, pemrosesan dilakukan dengan menggunakan simbol yang merepresentasikan angka, hhubungan arithmetic (misalnya ketidaksamaan) dan operasi matematik. Lebih jelas adalah dalam sistem berbasis pengetahuan, urutan aturan yang dilakukan ditentukan oleh inference engine (mesin penentu) yang diisi oleh program, dan kondisi yang diperlukan untuk melaksanakan tiap aturan yang dapat melakukan multiple actions atau tak ada tindakan sama sekali, Koleksi aturan dalam suatu sistem mungkin ‘menggabungkan aturan masa lalu atau aturan baru yang diakumulasikan oleh seorang, pakar selama beberapa tahun dalam menyelesaikan masalah Simbot-simbol dalam sistem berbasis pengetahuan digunakan untuk mewakili secara virtual setiap jenis objek, termasuk tindakan tiruan, orang, bahan, organ biologis, pengkelasan objek, konsep dan sebagainya, Perbedaan lain yang terlihat antara pemrograman dengan algoritma konvensional dan pemrograman kecerdasan tiruan direfleksikan pada sistem berbasis pengetahuan dalam cara penulisan program. Dalam pemrograman yang sering disebut pemrograman prosedural, diperintahkan kepada komputer apa yang harus dilakukan dengan data yang dimasukkan secara berturutan. Dengan demikian pada pemrograman prosedural, prosedur sebagai wakil pakar adalah aturan bagaimana sesuatu akan dikerjakan, Pada sisi lain pemrograman berbasis pengetahuan, menyajikan pengetahuan deklaratif (declarative knowledge) tentang svatu domain; jadi merepresentasikan apa yang diketahui (anpa memutuskan lebih dahulu secara tepat bagaimana pengetahuan akan digunakan. Perbandingan karakteristik antara pemtograman konvensional (prosedural) ‘dan pemrograman deklaratif dituliskan dalam tabel 1.2. Tabel 1.2. Perbandingan antara Karakteristik Pemrograman Konvensional ddan Karakteristik Pemrograman Deklaratif Program Konvensional Program berbasis Pengetahuan Menggunakan data Menggunakan pengetahuan Menggabungkan pengetahuan dan Kontrol Pembagian pengetahuan dan kontrol - Pemrosesan menggunakan algoritma Pemrosesan menggunakan inferensial | Manipulasi basis data yang besar Manipulasi_ basis besar pengetahuan yang f Pemrogram menjamin keunikan , Kelengkapan Relaksasi keunikan, kelengkapan Run-time tidak mungkin dijelaskan Run-time dijelaskan dalam karakteristik Orientasi: Pemrosesan numerik Orientasi: Pemrosesan simbolik Arsitektur dasar sistem berbasis pengetahuan ditunjukkan pada diagram blok Gambar 1.3 berikut, Gambar 1.3. Komponen-komponen dasar dari Sistem berbasis Pengetahuan, Fasilitas akuisisi “pengetahuan memungkinkan sistem -memperoleh pengetahuan selanjutiiya téntang domain masalah dari para pakar, atau mungkin secara otomatik, atau dari pustaka, basis data dsb. nya, Inference engine berlaku sebagai eksekutif yang menjalankan sistem. 2.3 Kecerdasan Tiruan Komputasional Dorongan untuk melakukan pendekatan kecerdasan tiruan dalam mencoba menciptakan program-program komputer yang menjelaskan tingkah laku mesin yang cerdas dan menghasilkan kecerdasan tiruan komputasional; pada sisi lain digunakan mekanisme proses pemodelan otak untuk mencapai tingkat kecerdasan. Menurut topologinya, kecerdasan tiruan komputasional dapat dikategorikan menjadi tiga kelompok yaitu JST, fuzzy dan algoritma genetik. 2.3.1 Jaringan Saraf Tiruan _Bebsrapa defi 1, JST adalah suatu teknik pemrosesan informasi berbasis komputer yang mensimulasikan ‘dan memodelkan sistem saraf biologis. 2, Suatu model matematik yang mengandung sejumlah besar elemen pemroses yang diorganisasikan dalam lapisan-lapisan 3. Suatu sistem komputasi yang dibuat dari sejumlah elemen pemroses yang sederhana yang saling diinterkéncksikan untuk memproses informasi melalui masukan- ‘masukan dari Ivar dan mampu merespons keadaan yang dinamik 4. JST adalah suatu teknologi kumputasi yang berbasis hanya pada. model saraf biologis dan mencoba mensimulasikan tingkah laku dan kerja model saraf tersebut terhadap berbagai macam input. Berbagai arsitektur JST telah banyak digunakan dalam berbagai bidang. Keunggulan JST dalam pengenalan pola menjadi sebab mengapa penelitian dan aplikasi JST sangat cepat berkembang. 2.3.2. Sistem Fuzzy Teori fuzzy pertama kali diperkenalkan oleh Lotfi Zadeh berbasis pada himpunan fuzzy sebagai suatu kerangka konsep untuk sistem-sistem informasi dengan ketidakpastian, Yang perlu diperhatikan pada sistem fuzzy adalah seberapa besar informasi itu mengandung ketidakpastian, Suatu sistem informasi yang mengandung ketidakpastian yang besar menyebabkan sistem akan sangat kompleks. Sistem yang kompleks dapat dikendalikan lebih baik apabila kekompleksan tersebut dapat disederhanakan Suatu cara dapat dilakukan adalah menggunakan cara kompromi antara informasi yang tersedia dan ketidakpastian yang akan didefinisikan. Sebagai contoh, dalam mendefinisikan cuaca selain dari persentase awan, dapat juga dinyatakan kecerahan marahari yang mengandung ketidaktentuan sehingga kurang presisi, tetapi lebih berguna, Akan lebih akurat mengatakan bahwa biasanya panas pada musim panas dibandingkan mengatakan bahwa biasanya temperatur 22 derajat Celsius pada musim panas. Dengan menerapkan bahasa manusia ke bahasa mesin yang lebih sederhana dan memudahkan akan dapat didefinisikan himpunan fuzzy dalam dua kelompok yang umum, yaitu kelompok anggota (suatu yang pasti masuk ke dalam himpunan) dan bukan anggota (yang tidsk pasti) yang dinyatakan dalam himpunan konvensional Hubungan antara masukan dengan himpunan fuzzy dinyatekan dalam fungsi keanggotaan. Suatu himpunan konvensional berisi objek properti yang cukup presisi yang diperlukan untuk Keanggotaan. Nilai-nilai keanggotaan menentukan seberapa banyak fuzziness isi dari suatu himpunan fuzzy. Pada himpunan fuzzy, jumiah ketidak presisian dikuantifikasi Sistem fuzzy umumnya digunakan pada proses pengendalian suatu sistem. 2.3.2 Algoritma Genetik Algoritma Genetik dikembangkan oleh John Holland pada awal tahun 1970. Tujuan penelitiannya adalah untuk menjelaskan proses adaptif alami dari suatu sistem secara ‘mantap dan merancang suatu perangkat luntak yang menirukan mekanisme alami dengan keandalan tinggi yang merupakan keseimbangan efisiensi_dan efektifitas (optimum) suatu sistem untuk bertahan dalam berbagai jenis lingkungan yang berbeda, Pencarian optimasi dilakukan dengan pelaksanaan suatu prosedur iteratif untuk mengatur sebuah populasi yang akan menjadi satu solusi, Algoritma Genetik adalah suatu algoritma pencarian/optimasi untuk tujuan umum, yang berdasarkan pada kerja seleksi alan dan genetik alami dalam mendapatkan solusi dari suatu persoalan, BABII STRUKTUR DASAR JST Sebagai suatu teknik komputasi JST mempinyai kelintungan-keuntungan berikut 1. Bersifat adaptif terhadap perubahan parameter yang mempengaruhi karakteristik sistem. 2. Kebal terhadap kesalahan yang berarti tetap berfungsi dengan data yang tidak Jengkap. 3. Dapat dilatih untuk membuat keputusan dengan memberikan set pelatihan untuk ‘mencapai target tertentu 4, Struktur paralel dan terdistribusi yang berarti komputasi dapat dilakukan ofeh lebih dari satu elemen pemroses yang bekerja secara simultan. Teknologi- JST-yang berkembang pesat merupakan solusi persoalan komputasi yang tidak dapat diselesaikan oleh komputer konvensional. Klasifikasi JST secara garis besar - dapat dibagi 2 ~ JST yang menggunakan paket pelatihan sebagai proses belajar - JST tanpa paket pelatihan pada proses belajar IST sebagai pemroses sistem informasi dapat melakukan pemrosesan: 1. Klasifikasi, pola masuken yang diproses akan diklasifikasikan keluarannya. 2. Penyesuaian, pola keluaran JST berhubungan dengan masukan yang diberikan 3. Pengisian bagian masukan yang kurang lengkap sehingga diperoleh keluaran pola yang lengkap, 4. Pengurangen derau sehingga dihasitkan keluaran yang lebih bersih, 5. Optimisasi penyetesaian suatu masalah tertentu. 6. Pengendalian masukan agar diperoleh tanggapan yang diinginkan. 13 Dari fungsi-fungsi jaringan' yang dikehendaki JST mempunyai 3 elemen prinsip: 1. Topologi,. bagaimana mengorganisasikan dan menginterkoneksikan lapisan sehingga terbentuk JST. 2. Proses belajar, bagaimana informasi disimpan dalam JST. 3. Pemanggilan kembali, bagaimana informasi yang disimpan dapat dipanggil kembali Berdasarkan ketiga elemen prinsip tersebut dapat ditentukan arsitektur mana yang cocok, Untuk mengetahui struktur dan arsitektur yang akan digunakan perlu ditinjaw dari beberapa tingkatan yang berbeda 1. Strktur mikro, adalah struktr jaringan pada tingkat yang paling rendah yaitu elemen pemroses (neuron), 2. Struktur meso, adalah struktur yang dibentuk berhubungan dengan fungsinya. 3, Struktur makro, adalah struktur yang terdiri dari banyak jaringan dan dapat ‘mengako-modasikan tugas-tugas yang kompleks. Struktur makro melibatkan dua atau lebih jaringan-jarinigan yang berinteraksi Pada uraian berikut ini dibahas tingkatan struktur mikro dan meso yang berhubungan dengan propagasi balik saja dan bagaimana proses belajar dilakukan untuk jaringan propagasi balik. 1. Struktur Mikro Suatu struktur dasar elemen JST adalah satu neuron yang dapat digambarkan dengan ‘menganalogikan satu sel saraf biologis seperti pada gambar 2.1 axon hllox rucleus Cell body Sel Biologi Yi Gambar 2.1. Analogi sel biologis dengan satu neuron tiruan. Model sel saraf (neuron) umumnya terdiri atas: ‘Masukan (x) berfungsi sebagai penerima sinyal, 2. Bobot koneksi (1) untuk menyimpan informasi 3. Bias (Wo) berfungsi mengatur daerah nilai ambang 4, Elemen pemroses ( © ) dan fungsi aktifesi (f) untuk memroses informasi 5. Keluaran (y,) sebagai keluaran yang akan menyampaikan hasil pemrosesan informasi ke sel berikutnya. Persamaan umum matematika satu neuron pada gambar 2.1, adalah: Persamaan penjumlahan tiap elemen s(x) 1s 5,02) = Yow, x, + HoX Y,@)= f(s) Jika 5) > 0 maka yy ka 5) < O maka y; = 0; y, adalah harga keluaran elemien pemroses w;= bobot masukan yang diberikan untuk menentukan tingkat aktifitas neuron x; = sejumlah n masukan yang diaplikasikan ke neuron Faktor yang paling menentukan penggunaan neuron adalah fungsi pindah yang diperoleh, Fungsi ini menentukan bagaimana suatu neuron menanggapi sinyal-sinyal masukan dan menghasilkan aktifasi neuron, Jika aktifasi ini kuat maka neuron akan ‘menghasilkan sinyal keluaran yang akan dihubungkan ke neuron lain. Struktur mikro jaringan dapat dilihat pada gambar 2.2 sebagai berikut: Aktifitas jaringan yang masuk dikalikan Aktifitas keluaran Aj dikalikan bobot koneksi dengan bobot koneksi individu w3, individu Ww, dan dikirim ke neuron lain WA; Wyn “ Keaktifin neuron j WajAz Gambar 2.2. Struktur mikro JST. 2.2, Struktur Meso Struktur meso mengatur penempatan neuron-neuron dan menetapkan perbedaan kelas termasuk jumtah lapisan, jumlah neuron tiap lapisan dan sambungan antar neuron agar dapat ditetapkan jenis arsitektur jaringan. Berdasarkan ketentuan ini dapat diidentifikasi 5 jenis struktur yang berbeda: 5 Lapisan banyak, digunakan pada jaringan umpan maju Lapisan tunggal, umumnya merupakan jaringan yang dihubungkan lateral. Lapisan tunggal, sebagai jaringan untuk vector matching. Bilayer, digunakan pada jaringan umpan maju/umpan balik Lapisan banyak, pada jaringan kooperatifkompetitif Arsitektur jaringan dengan tingkatan struktur tersebut digambarkan pada gambar 2.3, WA! Me 2} CG] Co) arngan amp ra (6)Jarngan untuk vector matching (b) Jaringan yang dihubungkan lateral (©) Jaringan umpan maju bilayer lapis tunggal (e) Jaringan koperatif’ kompetitif lapis banyak Gambar 2. 3. Jenis.jenis struktur meso JST Keterangan gambar 2.3 a. Semua sinyal dipropagasikan pada arah maju melalui lapisan-lapisan jaringan Jaringan umpan maju adalah jaringan yang dipilih untuk aplikasi klasifikasi pola. b. Karena jaringan terdiri satu lapisan saja, maka JST hanya dapat mengaktifasi satu pola pada satu saat. Hubungan lateral menyebabkan pola-pola berbeda muncul pada Japisan tunggal mengikuti siklus operasinya, ¢. Berbasis jaringan lapis tunggal, suatu pengukuran jarak vektor antara elemen pemroses digunakan untuk mengatur posisi relatif dalam ruang vektor. 4. Jaringan dua lapis yang melewatkan informasi maju dan balik selama pemrosesan. Untuk melakukan hal ini JST harus mempunyai hubungan umpan balik dan umpan ‘maju antar neuron sehingga JST akan mempunyai 2 set bobot interkoneksi. ¢, Suatu jaringan dengan kategori umpan balik/umpan maju yang mempunyai hubungan lateral, Arsitektur sistem yang mempunyai struktur menyerupai syaraf biologis mempunyai beberapa karakteristik kinerja sehingga jaringan dapat digunakan untuk memroses persoalan yang kompleks. 2.3. Struktur Makro Untuk menyelesaikan masalah yang rumit sering diperlukan jaringan yang ‘menggunakan dua atau lebih jaringan yang berinteraksi membentuk suatu sistem, Pertimbangan utama penggunaan struktur makro adalah untuk mengetahui dan membagi persoalan menjadi modul-modul sehingga suatu sistem dapat dibagi menjadi Komponen jaringan sehingga dapat memisahkan interaksi antar komponen. Gambar 24. menunjukkan suatu diagram blok sistem tingkat makro yang dapat dimodifikasi JARINGAN 7 A Jumlah jaringan Ukuran jaringan JARINGAN 2A |=] JARINGAN 2B JARINGAN 2N PV, Of 4 Macam arsitektur J Kondisi koneksi JARINGAN MAKRO Gambar 2.4. Diagram blok sistem JST pada tingkat makro. BAB IIL ARSITEKTUR JST 1, Arsitektur Dasar Seperti dijelaskanpada bab IJ, struktur jaringan umumnya terdiri dari beberapa kelompok neuron yang disebut lapisan (ayer). Lapisan-lapisan ini akan dihubungkan dengan aturan tertentu yang akan membentuk jaringan berikut: 1. Jaringan umpan maju (feedforward) 2. Jaringan backforward 1.1, Jaringan Umpan Maju Jaringan umpan maju membentuk dua atau lebih lapisan yang memiliki alur sinyal maju saja seperti ditunjukkan pada gambar 3.1 berikut. Pada struktur meso elemen mempunyai dua atau lebih lapisan dengan hubungan umpan maju Gambar 3.1, Bentuk hubungan umpan maju elemen pemroses Bentuk umum elemen pemroses dirancang menggunakan neuron seperti pada gambar 3.1. Elemen pemroses melakukan operasi penjumlahan semua vektor masukan X = fxj/ yang terdiri dari n komponen yang masing-masing komponen telah diberi bobot 1” > {vj} dan menghasilkan satu Keluaran y, Persamaan penjumlahan tiap elemen sy(X) dapat dinyatakan seperti berikut 31 ¥, OY) = £5, 8) ee ‘tq; = bobot yang menghubungkan unit pemroses j dengan unit pemroses i x) = harga keluaran dari unit masukan i Dari persamaan 3.1 pemroses akan melakukan pengujian apakah penjumlahan yang dilakukan berada pada daerah ambang dengan menggunakan persamaan berikut Jika sj > 0 maka yj ~ 1 sika sj $ 0 maka yy 1y = harga keluaran elemen pemroses j Gambar 3.2 Bentuk umum elemen pemroses. Fungsi aktifasi fls) adalah fungsi non linier seperti misalnya sigmoid, gigi gergaji, segitiga, sinusoidal dan sebagainya, Berbasis elemen pemroses akan dapat dibentuk suatu JST struktur dua atau lebih lapisan neuron, Gambar 3.3 menunjukkan contoh interkoneksi jaringan umpan maju 3 (tiga) lapis untuk pengenalan pola, Pada lapisan dalam: = bobot tetap yang ditentukan secara acak + tidak adaptif = mengirim sinyal ke output melalui bobot yang dapat diatur, sehingga adaptif = _terjadi proses komputasi dari masukan dan nitai ambang bbobot ditetapkan acak | t yang dapat dietur A kelas 1 A\ f lapis keluaran Japis masukan lapis dalam (pendeteksi karakterstik? Gambar 3.3. Pengenalan pola dengan jaringan umpan maju 3 lapis 1.2, Jaringan Backforward Pada jaringan jenis backforward, beberapa lapisan melewatkan informasi dengan arah ‘maju dan juga arah balik, sehingga jaringan semacam ini disebut juga sebagai jaringan lapis dua (bilayer). Hubungan maju dan balik pada clemen-elemen pemrosesnya menyebabkan jaringan akan mempunyai dua set bobot interkoneksi. Jaringan yang dikenal menggunakan bilayer ini adalah jaringan Adaptive Resonance Theory (ART) dan jenis jaringan Bidirectional Associative Memory (BAM), 3 2. Proses Belajar Sebelwn digunakan JST dilatih untuk mengenal fungsi pemetaan, Pelatihan ini merupakan proses belajar IST yang dilakukan dengan menyesuaikan bobot interkoneksi jaringan, Proses belajar JST diklasifikasikan menjadi dua: 1, Belajar dengan pengawasan (supervised learning) 2. Belajar tanpa pengawasan (unsupervised learning) 21. Proses belajar dengan pengawasan: Jaringan diberi target tertentu untuk memberikan tangeapan. Bobot interkoneksi dinisialisasi sebelum jaringan mengubah sendiri bobotnya untuk mencapai target. Proses belajar JST dengan pengawasan adalah proses belajar dengan cara memberikan latihan untuk mencapai suatu target keluaran yang ditentukan, JST diberi latihan ‘mengenali pola-pola tertentu yang akan dikenali. Dengan memberikan target keluaran, perubahan masukan akan diadaptasi oleh keluaran dengan mengubah bobot interkoneksinya mengikuti algoritma belajar yang ditentukan. Set pelatihan dipilih dari fungsi Keluaran maksimum setiap keadaan parameter yang diubah, Dengan ‘menginisialisasi bobot tiap sel, JST akan mencari_galat terkecil sehingga bentuk fungsi eluaran mendekati target yang diinginkan. Berdasarkan proses belajar yang dilakukan, beberapa hal yang perlu diperhatikan dalam ‘menyusun set pelatihan adalah: + Pemberian urutan pola yang akan diajarkan - Kriteria perhitungan galat + Kriteria proses belajar - _ Iumlah iterasi yang harus dilatui ~ _ Inisialisasi bobot dan parameter awal Pelatihan dilakukan dengan memberikan pasangan pola-pola masukan dan keluaran Untuk keperluan pengendalian, pasangan pola tidak mengikuti rumusan tertentu karena masukan yang acak harus dapat diadaptasi oleh JST sehingga keluaran tetap akan mengikuti target. Proses pelatihan dilakukan dengan memberikan pola yang menggunakan masukan acak dan bobot interkoneksi yang besar. Dengan pemberian bobot yang besar maka galat akan turun lebih cepat schingga proses adaptasi juga akan Jebih cepat. Salah satu proses belajar dengan pengawasan adalah proses belajar menggunakan algoritma propagasi balk. Proses belajar JST arsitektur jaringan umpan balik dituliskan dalam bentuk algoritma propegasi balik, Algoritma propagasi balik digunakan melatih jaringan lapis banyak dan dapat diturkan dengan menggunakan teknik pengaturan bobot untuk meminimumkan kuadrat galet, Gradien galat sesaat yang berlawanan arah terhadap bobot jaringan dengan elemen pemroses banyak adalah sebagai berikut: 2 ap = a2 | Mp ed \e 2 33 ed Wp Wk adalah vektor bobot dengan m komponen. €) adalah jumlah kuadrat galat pada masing-masing keluaran Ny Pola-pola pelatihan ditampilkan dalam urutan yang acak. Jika jaringan menghasilkan suatu esalahan pada proses pelatihan maka lapis pertama akan mulai beradaptasi, Jika adaptasi percobaan ini tidak memperbaiki tanggapan jaaringan, maka bobot tidak akan beradaptasi. Jika Wy adalah vektor m-komponen semua bobot dalam jaringan maka Penjumnlahan kuadrat valat sesaat cy adalah jumlah kuadrat galat pada tiap-tiap keluaran Jaringan Ny, beranti 34 Jika keluaran jaringan adalah y, dan y, maka jumleh galat kuadrat pada jaringan dua keluaran adalah: BF (d,- x +(d,-¥,P ee dengan indeks waktu k dihilangkan. Dengan menggunakan fungsi sigmoid sebagai fungsi aktifasi yang didefinisikan sebagai 1 = sigmoid(s,) 36 Harga kuadrat rata-rata (mean square) galat € didefinisikan sebagai ed, d, ~ sigmoid(s,) Turunan kuadrat galat yang dihubungkan dengan elemen pemroses ke j pada lapis 1 didefinisikan sebagai ae a ucueataiaat Pada lpisan 2 dan clemen pemroses ke j menjadi _ Lae? - 2as” Dengan mensubstitusikan persamaan 3.5 ke persamaan persamaan 3.8 akan diperoleh: alt=) E=FT] Sle = sigmoid 39 as 6 Suku kedua = 0, sehingga: Bila s(?” dan dy adalah variabel bebas: sigmoid ~(d, ~ sigmoid s (d, ~ sigmoidts! a 3.10 = +164, ~ sigmoid(s?”)] sigmoid (s'"!) Jika (d, — sigmoid(s") = maka 5; sigmoid(s)) 3.1 Dengan demikian tiap-tigp turunan kuadrat galat (6) lepisan terluar dihitung dari perkalian galat keluaran elemen yang diturunkan terhadap fungsi aktifasinya, Jika fungsi aktifasinya adalah fungsi tangenhiporbolik (non-tinier) maka: oe 0-079] 3.12 Dari definisi pada persamaan 3.7 adalah: gm, tae Maas dengan &” ditentukan oleh harga-harga s"” dan s\°) 1 é8? & de? as? “2S ar apa? ee Dengan menggunakan definisi persamaan 3.7 dan 3.8 dan disubstitusikan ke persamaan 3.13 akan diperoleh: ge anges eer eer acai wh sgm(s)) 3.14 +38 ans Swag) Perlu dicatat bahwa aay, sj és! persamaan 3.14 menjadi = hy sgm! (si) + 52 hw? sem (si) A » | sgn? (st) 3.18 Jika didefinisikan: a" A6eh dan disubstitusikan ke persamaan 3.15 akan diperoleh: 51 =." sgm'(s,") a (5{” merupakan persamaan turunan kuadrat galt elemen pemroses pada lapisan dalam 1 yang akan mempengaruhi perhitungan tiap turunan d,"*” terhadap tiap elemen lapisan sebelumnya, Secara sama fungsi turunan setiap elemen dalam jaringan.akan diperoleh bertahap. Pada belajar tanpa pengawasan jaringan tidak diberi target. sehingga JST mengatur bobot interkoneksi sendin Klasifikasi belajar JST dapat digambarkan dalam tabel 3.1 berikut. Tabel 3.1 Belajar tanpa pengawasan Paradigra | Wasaah yang] OnseT | Ponyepadana ] Tse lar dsdecahan aa KE |v data arpe | ava bin pegevesn | ale siscroni 36] Paster intra [Onna] Ya Feta Seek ‘narvnn peympanan “ARTI Klasifixesi pola Ondine va ‘Competitive |~ Dibatasi pada bmer | Komputer Saraf_ | “tomes. aes ‘BH | ——Pervaresas”—~] ~Gttina | —Tiasx | eban] ibatas pas nar Eiarana OFT | ra Oana Onan | Ya] ab Retains Ton + Elana OE somes tomget_| " pesympanan AN —Fergenien cts] One| Ve een | — Bea eters | — Sat ea rompaer__| aR | Pra ig Ye Fabia “| Ketetatasan onpat” | Korpte Sra? toatng i panympansn TARA} Spa kombaTTaT ve Haan | Kateatacantonpat | Silat | peovinpanen rompater iw ~~ Proses Monitor ‘Hebbian Tak ada dilaporkan “Mekank Elston ale Sasi eeaea Newel | Ta] Keser stem [omnes Ya——] abba | Ratesatasan tempat | Seas : | penymperan tomer Ua] Parosesan angel] “OTR Ya Febban | ~ Belger otters? nk : on | aa nL cane = Tabel 3.2. Belajar dengan pengawasan Parana | —Wiaaanyang —] Ontie? | Peryepacine | Tipe Baja] Pana Ta Gsomaton | ote | apis SS —[ “Wastes team | ontne “| "Ya" Karate oner | Bupa one — [Simi Kapa Fereepig | Peat Oftine| va] Roeser | Taka report | wesw peeeprn ‘aainal | Pea paratapisan | One| ~~ va —| Kora erat | Balgjaratane | — waka a Naina rose Be) Fargraian giah | Ottne | Va] Korakerarar | — Sagar attine | Eek oR VST ists vase ogee aata| One| Ya Rorear arr | Bata oases cer ‘EN | Satgrogenming —|-OWine | —Ye Hebbian | Lac of conto wa | "Nearaheomputer | sac apong ‘Bi | Opies Kota {Ohne [Ya] Hanan | Beta otto | EIT oVOST amesig e Daflar singkatan Akronim —_Definisi CPN Counterpropagation AG Additive Grossberg BM — Boltzman Machine SG Shunting Grossberg ARTI ‘Adaptive Resonance Theory Biner DH Hopfield Diskrit cH Hopfield Kontinu BAM Bidirectional Associative Memory Diskrit ABAM Bidirectional Associative Memory Adaptive CABAM Competitive ABAM LM Leaming Matrix LAM Linear Associative Memory OLAM Optimal Linear Associative Memory BSB Brain State ini a Box PERCEP —_Perceptton Adaline Adaptive Linear Element, Madaline Multiple Adaptive Linear Element BP Back Propagation AVQ Adaptive Vector Quantizer » BABIV ALGORITMA BELAJAR JST Mutu suatu JST ditunjukkan oleh kemampuan betajarnya. Yang dimaksud belajar JST adalah perubahan nilai bobot interkoneksi yang menghasilkan informasi yang dapat dipanggil Kembali, Beberapa prosedur yang ada untuk perubahan nilai bobot interkoneksi, Berikut akan diperkenalkan delapan cara belajar yang umum dikenal 1. Hubungan Hebbian Bentuk paling sederhana untuk mengatur nilai bobot interkoneksi JST diperoleh dari korelasi nilai aktifasi elemen pemroses. Pada pengaturan bobot berbasis korelasi dibuat hipotesa tentang perubahan bobot interkoneksi oleh Donald O. Hebb berdasarkan kemampuan neuron menghasilkan sinyal output. Jika neuron A aktif yang disebabkan oleh hubungan dengan neuron B, maka kemampuan interkoneksi sinaptik akan bertambah. Hubungan neuron dengan bobot dibedakan oleh Hebbian menjadi tiga: Nil ‘elemen pemroses dan bobot yang tak terbatas Bentuk belajar ini biasa mengacu pada proses belajar Hebbian yang sudah dikarakterisasi secara matematik sebagai korelasi pengaturan bobot: wet = wie + aby 41 n, j=1.2,3....p; % adalah nilai neuron ke-i dalam lapisan F, dari jaringan dua lapis; y; adalah nilai neuron ke-/ dalam lapisan F, ; bobot interkoneksi antara dua neuron adalah wy ; Secara umum neuron dapat mempunyai jangkauan nilairil, dan bobot tidak terbatas. = _Nilai neuron terbatas dan bobot tak terbatas Saat ini implementasi yang sangat terbatas pada persamaan 2,18 adalah pada jaringan Hopfield yang membatasi nilai neuron dan bobot pada biner {0.1} atau bipolar {-1, +1} Nilai neuron terbatas dan bobot terbatas Kadang-kadang nilai neuron dan bobot dibatasi, Sistem terdiri dari dua bentuk r whet 1 ayy Dl) 42 ‘menjelaskan hubungan rata-rata selama munculnya pasangan pola ke-k (4x. Bk) di mana Ag ~ (040 O42. in Js Ba = (Bay ao yp) dan k adalah jjumtah pola saat ini, k= J. 2, ...m. Informasi yang sama yang disimpan dalam persamaan 4.1 disimpan dalam persamaan 4.2. Bobot interkoncksi disederhanakan ke interval unit keadaan berikutnya. 1 ska us, By 43 r wi 1 Jka w 0 tainnva Persamaan menyatakan suatu nilai biner jika interkoneksi neuron pada tiap ujung, interkoneksi semua mempunyai nilai I selama proses pelatihan. Proses Belajar dengan Komponen Utama Beberapa JST mempunyai algoritma belajar yang dirancang untuk menghasilkan satu set bobot yang merupakan komponen utama pola data input. Proses belajar menggunakan Komponen Utama dilakukan oleh QJA, yang menghasilkan algoritma belajar Hebbian dengan umpan balik yang dengan sendirinya dibatasi oleh bobot yang akan mengekstraksi Komponen utama dari data input. Persamaan ja dituliskan sebagai berikut, > wim wits +b, (aa, - Bb, win) 44 di mana ay adalah Komponen Ke-i dari pola input 4c kek: / J. 2. nt hy adalah Komponen ke-j dari pola output A keyj:y 1.2... pok = 12. wm; dan a dan B adalah konstanta yang tidak nol u 2 Persamaan Oja telah dikembangkan oleh Sanger dan dituliskan daamn persamaan 45. wera ra (ab, by Dea) 45 a variabel serupa dengan persamaan 4.4 kecuali » tidak nol. Persamaan 4.4 dan 4.5 adalah persamaan yang serupa; perbedaannya pada persamaan 4,$ memasukkan informasi umpan balik dan menggunakan pengurangan Konstanta belajar, Proses Belajar dengan Diferential Hebbian Algoritma belajar terdini dari tiga bentuk Belajar dengan diferential Hebbian Dasar Proses belajar mengkorelasikan perubalan-perubahan nilsi aktifesi neuron dengan persamaan: w, (4 I=, (0) + Ax() + Ay,-1) 46 dimana Ax; (t) ~ x; (Y) - x, (t-1) adalah besamya perubahan pada neuron ke-i Fy pada saat 1, dan Ay, (t-1) = y, (t-1) - y; (t-2) adalah besarnya perubahan pada neuron ke-j F, pada saat 1-1) Belajar dengan Drive-Reinforcement Penggunaan persamaan 4.6 lebih umum yang memperlihatkan perubahan neuron F, melampaui akhir langkah waktu k dan memodulasikan tiap perubahan dengan nilai bobot yang berhubungan pada JST dua lapisan. : #0 +1)> 4, () + Ay, Ya UAW, (rm Ax(0- A) 47 et di mana afi-hy adalah suatu fangsi waktu yang menurun dan yang mengatur besamya perubahan, dan w, (1) adalah nilai hubungan dari x, ke yj pada saat 1 ste, (iy, 1, 2, .uk sebagai drive dan 4y, (1) sebazai remforcement a > — Kovariansi Korelasi Kovariansi korelasi nilai aktifasi neuron dalam JST dua tapisan menggunakan persamaan berikut.7 weer = wim 5 wa, —x0(b, -¥,)] 48 i mana term dalam kurung mewakili kovariansi, perbedaan antara nilairata-rata aktifasi neuron (x, dan y;) dan nilai pola input output /ay can bay O- yw 1 adalah konstanta belajar. Korelasi antara nilai x, teshadap variansi ; dituiskan dalam persemaan; wh = wh xy (by ecg 49 3. Competitive Learning Diperkenalkan oleh Grossberg dan Malsburg adalah suatu metode untuk menciptakan las secara otomatik untuk suatu set pola input. Cara belajar ini terdiri dari dua langkah, yairu > Langkeh ke-l Menentukan pemenang neuron Fy . Suatu pola masukan dilewatkan melalui hhubungan dari lapisan masukan F, pada lapisan output dengan cara feedforward dengan menggunakan dot product untuk memperbaharui persamaan yay 4.10 a i mana x, adalah neuron ke-i pada lapisan input F,.i= 1. n y, adalah neuron key pada lapisan output Fy. j=1.2.......p. wy adalah nilai bobot interkoneksi antara x, dan y, Jika pola masukan Ay ,k = 1, 2, ......m dan vektor acuan W, , dinormalisasi ke satun panjang Eucledian, maka 4 ox(» +H, Sve, 411 «di manna makin mendekati sama A, ke W, makin dekat dot product ke 1. Nilai dot product yy digunakan sebagai nilai awal untuk kompetisi interaktif dalam mendapatkan winner take all, Dengan menggunakan persamaan: | { Jka y, > y, unnuk semua j# k Ar 0 lainnya dimungkinkan untuk memperoleh neuron #, dengan nilai dot product yang paling tinggi, yang disebut neuron pemenang. Langkah ke-2 Atur nilai interkoneksi neuron pemenang F;. Persamaan yang otomatik mengatur vektor pemenang acuan adalah: wens wie + a(t)y, (ay -™,) oe di mana afi) bukan nol, penurunan fungsi waktu. Hasil operasi adalah perpindahan vektor acuan ke vektor input Min-Max Learning Sistem pengklasifikasi minimum-maksimum menggunakan suatu pasangan vektor untuk masing-masing klas. Klas j diwakili oleh neuron y, dan didefinisikan oleh vektor V, (vektor minimum) dan W, (vektor maksimum), Belajar dalam sistem neural min-max JST dilakukan menggunakan persamaan: vy" = min (a, vj") 414 untuk vektor minimum dan wie" = max (a, . wi") 418 uM untuk vektor maksimum, Titik maksimum dan minimum diperlakukan sebagai batas untuk suatu fungsi transfer ‘keanggotaan, yang menyediakan mekanisme untuk memudahkan pengaturan dan analisis klas yang dibentuk oleh JST, 5. Belajar dengan Koreksi Error Belajar dengan koreksi error mengatur bobot interkoneksi antara neuron sebanding dengan perbedaan antara nilai yang diharapkan dengan nilai yang dikomputasikan. Pada JST dua lapis, cara belajar menggunakan Koreksi error akan menghasilkan pemetaan input dan output linier. Pada JST lapis banyak, cara belajar menggunakan koreksi error dapat menghasilkan pemetaan input dan output non-tinier. > Belajar dengan Koreksi Error pada JST dua lapis (xs, bus be b= Ba (a1, Aki, aK, auiy= Ax Gambar 4.1. JST dua lapis, Dengan mengasumsikan bobot W diinisialisasi secara acak, pola input Ax yang dilewatkan melalui bobot interkoneksi W dihasitkan satu set keluaran F, dengan nilai elemen pemroses Y = (V1, ya .-.Yp). Perbandingan antara nitai keluaran Y dengan nilai pola Keluaran yang diinginkan (target) By disebut error. Error masing-masing F, dihitung dengan persamaan 4.16 5 aby -¥, Error digunakan untuk mengatur bobot interkoneksi dengan menggunakan persamaan poets when awl 4 or a,b, 47 adalah a konstanta belaja (learning rate). Dengan merealisasikan bahwa solusi terbaik dapat dicepai bila error untuk suatu pola yang diberikan pada kelueran neuron y; diminimumkan dapat dobangun suatu cost function berikut, $0, Apabila E = vy ae « pemetaan dari masukan ke keluaran sempurna untuk pola yang diberikan. Dengan memindahkan pada arah yang berlawanan gradient cost function terhadap bobot, dapat dicapai solusi optimal. Perubahan E terhadap bobot dapat dituliskan pada persamaan 4.19. 4.19 Belajar dengan koreksi error pada lapis banyak. ‘Ada bberapa hambatan untuk memperluas algoritma belajar dengan koreksi error dua lapis menjadi lapis banyak. Berapa besar error pada tiap lapis dalam yang bertanggung jawab pada error lapis luar? Berikut akan dijelaskan bagaimana menghitung error pada JST tiga lapis. Gambar 4.2. IST lapis banyak Error setiap neuron dalam lapisan luar Fz diperoleh dengan persamaan cost function berikut. 1 eat Su, -yy 420 ; x —) Keluaran dari suatu neuron Fz, z; , dihitung dengan menggunakan persamaan z= Dy, % 421 dan tiap neuron lapis dalam Fy , y; dihitung dengan menggunakan persamaan: HELD a I= LO): nD au%y Fungsi lapis dalam adalah sebagai berikut. fy = 423 Ise" Dengan menggunakan prinsip yang sama dengan yang sudah dijelaskan di atas, Bobot interkoneksi antara Fy dan Fz 424 a. B dan 7 adalah konstanta berilai positif. BABV ARSITEKTUR JST Beberapa macam arsitektur JST yang umum dipergunakan adalah: Jaringan umpan maju lapis banyak menggunakan algoritma belajar aturan delta Jaringan umpan maju lapis banyak menggunakan algoritma belajar dengan optimasi Jaringan assosiatif dengan hubungan lateral Jaringan penyepadanan vektor Jaringan umpan maju/umpan balik heteroasosiatif Jasingan kompetitif Jaringan hybrid Jaringan umpan maju lapis banyak dengan algoritma belajar aturan delta Yang termasuk dalam jaringan ini adalah Perceptron, Adaline dan Madaline dan jaringan propagasi balik LL. Jaringan Pereeptron Pada jaringan perceptron tiap neuron mengkomputasikan jumlah bobot dari input dan melewatkan penjumlahan ini ke dalam fungsi threshold nonslinier. Algoritma belajar perceptron digunakan untuk menetapkan klasifikasi antara masukan yang terpisah linier. t VR OO oO ee jee eee (b) Fungsi transfer Gambar 5.1. Struktur rangkaian perceptron Jika S; > Omakaf =1; Jika S; $Omakaf =0 G, = nilai keluaran unit pemroses j 1.2, Jaringan ADALINE dan MADALINE Adaline singkatan dari Adaptive Linear Neuron dengan menggunakan threshold yang melakukan sumasilinier dari input. Parameter bobot disesuaikan seiring waktu, Adaline serupa dengan filter adaptif yang saat ini banyak digunakan sebagai adapiive noise reduction pada telekomunikasi, Beberapa Adaline dianggap sebagai masukan untuk Madaline. Struktur Adaline. Gambar 5.2. Penyesuaian bobot pada ADALINE Unit Adaline bertindak sebagai divais sum (penjumlah), melakukan penjumlahan bobot pada input: Penyesuaian bobot menggunakan u-LMS dapat dihitung dari persamaan berikut. Wa = We wv) Gradien_V,_ sesaat yang dihitung berdasarkan kuadrat error sesaat. 4 33 ard 34 38 Wey =W, + ye NX, 56 H adalah Konstanta belajar wir adalah bobot bart wy adalah bobot fama ‘Sistem Madaline mempunyai satu lapisan Adaline yang dihubungkan dengan satu unit Madaline. Jika lebih dari setengah keluaran adaline a + 1, maka unit keluaran Madaline +1, 13. Jaringan Propagasi Balik (JPB) Pengertian propagasi balik mengacu pada metoda pelatihan JST yang menggunakan pengaturan bobot pada jaringan serupa dengan jasingan wmpan maju, Selama operasinya semua informasi mengalis dengan arah maju. Aplikasi jaringan multi elemen yang ‘menggunakan teknologi jaringan propagasi balik akan mengatur bobot jaringannya pada arah berlawanan dengan perubahan galat (error) sesaat: Sifat utama suatu jaringan propagasi balik adalah dapat mengenali ciri utama pelatihan yang diberikan pada masukan. Jaringan dapat dirancang dan dilatih untuk mengenali bermacam-macam pemetaan Karena simpul lapisan dalam dapat dilatih untuk menangeapi ciri-ciri utama yang ditemukan pada masukan. Jaringan dirancang dan dilatih menangani bermacem persoalan pemetaan sederhana sampai yang kompleks. Agar dapat menanggapi ciri utamanya jaringan diberi latihan bermacam-macam contoh yang berbeda, Misalnya jaringan dilatih belajar mengenal perbedaan antara garis lurus, kurva cembung atau cekung, Jaringan propagasi balik dapat berhasil diaplikasikan jika Japisan dalam dilatih mengenali cir-ciri set pelatihan dengan benar. IPB terdiri dari tiga atau lebih lapisan elemen pemroses dengan minimum dua lapisan. Gambar 5.3 menunjukkan JPB dengan empat lapisan dengan tiap elemen pemroses dihubungkan pada tiap unit dalam lapisan sebelum dan sesudahnya. Gambar 5.3. JPB empat lapis Unitunit tidak dihubungkan dengan unit lain dalam lapisen yang sama, Persamaan untuk penyesuaian bobot dapat dilakukan menggunakan persamaan-persamaan berikutSetiap masukan (4) pada neuron ke dikalikan masing-masing bobot interkoneksi (1¥,). (5) adalah jumlah hasil perkalian semua masukan dengan masing- masing bobot interkoneksi. Eh % 37 J+ indeks yang menyatakan sel saraf keberapa pada lapisan tertentu. i indeks sel saraf pada lapisan sebelumnya, yang menjadi masukan untuk sel saraf key. IW, bobot interkoneksi dari neuron ke-/ ke neuron ke. 4 4% + masukan untuk neuron ke-i. ‘n- : jumlah neuron pada lapisan tersebut Hasil tersebut dimasukkan ke suatu fungsi aktifasi, sehingga diperoleh harga keluaran neuron. Sebagai fungsi aktifasi dipilih fungsi sigmoid Xi = LS) 58 Algoritma propagasi balik diperfukan untuk meminimumkan error pada setiap neuron dan jaringan yang terbentuk adalah JST propagasi balik gambar 5.3 adalah sebagai berikut. Pengaturan bobot JST propagasi balik yang terdiri banyak neuron, dihitung pada arah berlawanan dengan gradien error sesaat (59] dengan menggunakan persamaan 5.9 eh aa 2 | mm, ech ie om a2 59 W,,¢ W, adalah vektor bobot m-komponen jaringan. Jumlah kuadrat error sesaat ¢ } adalah jumlah kuadrat error masing-masing N, keluaran jaringan. id 5.10 st Bobot jaringan dihitung menggunakan analogi perhitungan Adaline dengan vektor bobot 74 dan vektor masukan ¥ serta satu keluaran s:-X/, Gradien sesaattiap neuron adalah: 5.1 5.12 4 Karena WY; dan X; bebas, maka: és, _ ow) X, i 5.13 ov, OM, 5.14 5.15 - 25, X, 5.16 Dengan mensubstitusikan gradien sesaat persamaan pada 5.16 ke delam persamaan 5.2, diperoleh persamaan penyesuaian bobot 5.17. Wy = WU WJM + 2H, Xy 5.17 ‘eo Persamaan 5.17 dapat diganti dengan persamaan 5.18, 5.19 dan 5.20 Wea 5.18 W,=W,.+ AW, 5.19 AW, = 2y (1-0) 5, X, +940, 5.20 ‘7 disebut sebagai konstanta momentum mempunyai nilai batas 0.57 S_ untuk semua Output, =} clemen pemroses ouput lain 0 yang lain Gambar 5.8. Elemen pemroses pada lapisan kompetitif. Sekali sum incoming diketahui untuk tiap elemen pemroses dalam lapisan kedua, maka persaingan diantara elemen pemroses mulai, Pemenang adalah efemen pemroses yang mempunyai sum bobot terbesar dalam lapisan kedua. Elemen pemroses pemenang diberi nilai aktifasi baru 1,0 dan clemen pemroses lain 0,0. Dengan persamaan matematik keadaan ini dituliskan sebagai Ontpus, = ft HPS, > 8. satah semua, 4 j ell 0 yang lain S, adalah sum bobot dan a, adalah nilai aktifasi elemen pemroses j setelah selesai kompetisi 23, Jaringan Kohonen Jaringan Kohonen adalah suatu jaringan dua lapis yang mengorganisasikan pemetaan dari suatu masukan acak. Hasil pemetaan menunjukkan hubungan yang alami antara pola-pola yang diberikan ke dalam jaringan, Struktur dasar pemetaan Kohonen adalah sebagai berikut Lapisan Kompetitf Grid mx m WM XH | Lapisan Input Unit Unit Unit aa a (een 80) \Vektor input Gambar 5.9, Struktur dasar jaringan Kohonen Tiap interkoneksi dalam jaringan Kehonen mempunyai nilai bobot yang berasosias. Operasi jaringan Kohonen serupa dengan jaringan belajar kompetitif pada butir 2.2. DAFTAR PUSTAKA Kohonen, T. (1987), Adaptive, Associative, and Self Organizing Function in Neuro Computing, /EEE Applied Optics Magazine, vol. 26 no. 23. Lanny Pandjaitan, Adi Gunawan (2 Juli 1999), Aplikasi Program Identifikasi Plant Dinamik pada Boiler PLTU, Proceeding Seminar Perkembangan Elekirotekmk, Unita ima Jaya, Jakarta Simon Haykin (1994), Neural Network: A Comprehensive Foundation, Macmillan College Publishing Company. Inc. ‘Trenamen, Nnets (1999), Multilayer feedforward, October 27. Widrow, B., Michael, A. Lehr (September 1990), 30 years of Adaptive Neural Networks, Perceptron, MADALINE and Backpropagation, Proceeding IEEE, vol 8 Widrow, B., RG. Winder and RA Baxter (1988), Layered Neural Nets for Pattern Recognition, [EEE Transactions on Acoustics, Speech and Signal Processing, 3

Das könnte Ihnen auch gefallen