_________ 
Logo FDIB
__________ 
  FDIB Scientific E-Zine @ 4-2001  
      
Mengenal Artificial Neural Networks**)
Bambang Heru Iswanto*)

Makalah disampaikan pada pertemuan bulanan ke-5 Formasi-Dresden 
13 Agustus 2000 di Herrsbäckerei 38, Dresden.
 



Pernahkah anda bayangkan, ketika anda berjumpa dengan sahabat lama kita waktu masih SMP, setelah sekian tahun lamanya tidak bertemu, tapi masih mampu mengenali kita? ``Eh... kamu kan AA tambah bageur budak teh. Kumaha damang?'' begitulah biasanya ketika jumpa,
langsung menjabat tangan kita, walaupun telah banyak perubahan pada diri kita. Demikian juga ketika anak kita bisa menunjukkan mana meja, mana kursi padahal kita tidak pernah menjelaskan padanya definisi meja, definisi kursi dsb. Meskipun kursi itu anda jungkir- balikkan anak kita akan tetap mengenali bahwa yang itu kursi, bukan meja. Anak kita juga bisa mengingat nama ibunya, nama bapaknya, dsb. Dia mampu demikian karena proses belajar telah dialaminya. Tapi di mana informasi itu semua disimpan? Di bagian mana? Apakah ada semacam hardisk di dalam otak kita? Mengapa anak itu bisa belajar? Bagaimana proses belajarnya? Mekanisme apa yang terjadi pada otak anak itu sehingga mampu berperilaku begitu? Tentu itu semua terjadi karena ada suatu mekanisme tertentu di dalam otak kita. Tapi mekanisme seperti apa? Itu semua tidak mudah untuk dijawab. Tetapi seandainya kita mendapatkan kejelasan soal ini, bukan hal yang mustahil kita bisa membangun sistem yang mampu meniru kerja otak kita sehingga kita akan bisa menciptakan sistem yang inteligen, yang cerdas, sistem yang tidak kaku, sistem yang mempu belajar, sistem yang mampu mengambil keputusan, sistem yang mampu beradaptasi dengan lingkungannya! 
  
Riset tentang sistem cerdas ini ada dalam lingkup riset kecerdasan buatan (artificial intellgience). Banyak paradigma yang digunakan dalam bidang riset ini, salah satunya adalah artificial neural network (ANN), atau sering disebut neural networks saja, suatu metoda yang awalnya mencoba meniru cara kerja otak manusia. 
  
Saat ini ANN sudah sangat populer dan telah diterapkan di berbagai bidang baik di bidang teknik seperti signal processing, robotika, dsb. maupun dalam bidang analisa data non-teknik seperti di bidang ekonomi: perbankan, asuransi, maupun dalam capital market. Hal ini dimungkinkan karena sifat dan kemampuannya yang bermanfaat, seperti non-linieritas, input-output mapping, adaptivitas, fault-tolerance, VLSI implementable, dan analoginya dengan neurobiologi sehingga bisa menjadi tool riset untuk interpretasi fenomena neurobiologi. 
  
Berikut anda saya ajak untuk kilas balik, perjalanan riset neural network yang sudah berlangsung cukup lama sekitar 36 tahun, yang jika dibandingkan dengan disiplin lain yang sudah mapan tentu saja belum ada-apanya. Namun demikian penerapannya telah merambah di
berbagai bidang.  
  
Secara historis konsep awal dalam komputasi neural diinspirasi oleh studi tentang jaringan neurobiologi. Pada waktu itu riset tentang jaringan neurobiologi bertujuan untuk memodelkan jaringan neuron-neuron dalam otak. Suatu kemajuan riset yang sangat berarti dalam bidang ini
dipublikasikan oleh McCulloch dan Pitts di Journal of Mathematical Biophysics pada tahun 1943.  McCulloch adalah seorang psikhiatris/neuroanatomis dan Pitts adalah seorang matematikawan yang bergabung setahun sebelum paper ini dipublikasikan. 
  
Paper yang menggambarkan logical calculus dari neural networks ini dibaca luas pada saat itu dan menggugah von Neumann untuk mengimplementasikannya dalam element-element switch-delay bagi EDVAC (Electronic Discrete Variable Automatic Computer) yang
kemudian dikembangkan menjadi ENIAC (Electronic Numerical Integrator and Computer). 
  
Setelah buku Cyberbetics (1948) yang menjelaskan konsep penting tentang teori kontrol, komunikasi, dan statistical signal processing dari Wiener dipublikasikan, perkembangan penting berikutnya dari ANN adalah pada tahun 1949 dengan dipublikasikannya buku ``The
Organization of Behavior'' dari Hebb, yang secara eksplisit menjelaskan aturan belajar secara psikologis (psichological learning rule) untuk modifikasi sinaptik. Aturan belajar ini sangat penting untuk membangun algoritma belajar ANN. 
  
Tahun 1958 kemudian muncul suatu pendekatan baru untuk masalah pengenalan pola yang diperkenalkan oleh Rosenblatt pada pekerjaannya tentang perceptron. Disusul dua tahun kemudian pembuktiannya tentang teorema konvergensi dari perceptron yang berdampak luar biasa bagi perkembangan ANN. 
  
Hampir selama tahun 1960-an orang menganggap bahwa perceptron dapat melakukan segalanya. Sampai kemudian muncul buku dari Minsky & Pappert (1969) yang secara matematik mendemonsatrasikan limitasi fundamental dari perceptron. Untuk mengatasi masalah ini kemudian diusulkan multilayer perseptron model. Usulan ini ternyata menimbulkan suatu problem yang pelik yang dikenal dengan istilah credit assignment problem. Sampai selama 10 tahun masalah ini tak terpecahkan, dan baru pada tahun 1980an solusi masalah mendasar ini
mencapai titik terang. 
  
Selama masa stagnasi ini ada sebagian peneliti yang terus melakukan riset. Beberapa aktivitas riset dalam tahun 1970an ini, misalnya adalah self-organizing map yang menggunakan aturan belajar kompetisi (competitive learning). Simulasi computasi self-organizing pertama kali
didemonstrasikan oleh von der Malsburg (1973). Tiga tahun kemudian Willshow dan von der Malsburg mempublikasikan perumusan self-organizing map yang dimotivasi oleh pemetaan terorder secara topologi dalam otak. 
  
Kembali ke soal titik terang penyelesaian masalah perceptron tadi. Ada beberapa front yang bisa kita ikuti. Pertama adalah pekerjaan Grossberg (1980) yang melahirkan konsep adaptive resonance yang kemudian melahirkan model ART (adaptive resonance theory). Front kedua adalah pekerjaan Hopfield (1982), fisikawan yang mencoba memperkenalkan ide fungsi energi, yang sudah kental dalam bidang fisika, untuk memformulasikan cara baru dalam komputasi neural. Cara baru ini dibentuk dengan recurrent networks dengan koneksi-koneksi sinaptik
yang simetrik. Model Hopfield mampu menjelaskan isomorfism antara suatu recurrent networks dengan model Ising yang kita kenal dalam fisika statistik. Model ini dikenal dengan nama model Hopfield. Meskipun jaringan ini mungkin bukan model yang realistik dari sistem
neurobiologi, tapi prinsip penyimpanan informasi dalam jaringan dapat dijelaskan dengan baik melalui proses stabilisasi secara dinamik. Front berikutnya adalah paper dari Teuvo Kohonen (1982) tentang self-organizing maps yang kemudian menjadi terkenal dengan SOM. 
  
Suatu solusi yang berkaitan dengan multilayer perceptron adalah paper karya Rumelhart, Hinton, dan William (1986) yang mengajukan back-propagation algorithm untuk melatih multilayer perceptron. Model lain yang berkaitan dengan MLP adalah model radial basis function (RBF) yang diajukan Broomhead dan Lowe pada tahun 1988. 
  
Saat ini neural networks telah berkembang sangat pesat, baik dalam metodologi maupun dalam aplikasi. Pendekatan yang digunakan pun telah merambah ke statistik. Dengan begitu kita bisa memandang persoalan neural network dari banyak perspektif, neurobiologi, fisika, maupun statistik. Munculnya metoda-metoda baru atau varian-varian dari metoda yang telah ada menjadikan kita tidak mudah lagi untuk mengelompokkannya sebagai neural netwoks. Hal ini karena hubungan antara neural networks dengan neuro-system aslinya kebanyakan lemah dan hanya bisa dikenali dalam konteks abstraksi yang tinggi. Meskipun demikian masih ada ciri-ciri yang bisa kita amati misalnya adalah: digunakannya sejumlah unit perhitungan yang identik, ada koneksi antara unit-unit perhitungan yang seringkali terboboti, parameter-parameter dari suatu metoda diadaptasikan berdasarkan serangkaian proses terhadap data pelatihan, dan harga output masing-masing unit dihitung secara non-linear terhadap harga input.  (Dari berbagai sumber) 
  
__________________________________
*) PhD Student di 
Neuroinformatics Group, Informatics Faculty 
Dresden University of Technology, Germany
Telp : +49 (351) 463 8240
Fax: +49 (351) 463 8364 
 
 

.

 
KEMBALI- --- --