Apa itu jaringan neural?

Pemandangan udara San Francisco yang terang

Apa itu jaringan neural?

Neural networks adalah program atau model machine learning yang membuat keputusan dengan cara yang mirip dengan otak manusia, dengan menggunakan proses yang meniru cara neuron biologis bekerja sama untuk mengidentifikasi fenomena, mempertimbangkan pilihan, dan sampai pada kesimpulan.

Setiap jaringan neural terdiri dari lapisan node, atau neuron buatan, lapisan input, satu atau lebih lapisan tersembunyi, dan lapisan output. Tiap node saling terhubung satu sama lain serta memiliki bobot dan ambang batas yang terkait. Jika output dari setiap node individu berada di atas nilai ambang batas yang ditentukan, node itu diaktifkan, data dikirim ke lapisan jaringan berikutnya. Jika tidak, tidak ada data yang diteruskan ke lapisan jaringan berikutnya.

Neural networks mengandalkan data pelatihan untuk mempelajari dan meningkatkan akurasinya dari waktu ke waktu. Setelah mereka disesuaikan untuk akurasi, mereka adalah alat yang ampuh dalam ilmu komputer dan kecerdasan buatan, memungkinkan kita untuk mengklasifikasikan dan mengelompokkan data dengan kecepatan tinggi. Tugas dalam pengenalan suara atau pengenalan gambar dapat memakan waktu beberapa menit dibandingkan berjam-jam jika dibandingkan dengan identifikasi manual oleh pakar manusia. Salah satu contoh paling terkenal dari neural networks adalah algoritma pencarian Google.

Neural networks kadang disebut jaringan neural buatan (ANN) atau neural networks simulasi (SNN). Itu semua adalah bagian dari machine learning, dan di jantung model pembelajaran mendalam.

Tren AI terbaru, dipersembahkan oleh para pakar

Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.

Terima kasih! Anda telah berlangganan.

Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.

Bagaimana cara kerja jaringan neural?

Pikirkan setiap node individu sebagai model regresi linier nya sendiri, terdiri dari data input, bobot, bias (atau ambang batas), dan hasil. Rumusnya akan terlihat seperti ini:

∑wixi + bias = w1x1 + w2x2 + w3x3 + bias

output = f(x) = 1 if ∑w1x1 + b>= 0; 0 if ∑w1x1 + b < 0

Setelah lapisan input ditentukan, bobot ditetapkan. Bobot ini membantu menentukan pentingnya variabel tertentu, dengan bobot yang lebih besar berkontribusi lebih signifikan terhadap hasil dibandingkan dengan input lainnya. Semua input kemudian dikalikan dengan bobotnya masing-masing dan kemudian dijumlahkan. Setelah itu, hasil dilewatkan melalui fungsi aktivasi, yang menentukan hasil. Jika nilai hasil tersebut melebihi ambang batas yang diberikan, maka akan "menembak" atau mengaktifkan node, meneruskan data ke lapisan berikutnya dalam jaringan. Hal ini mengakibatkan hasil dari satu node menjadi input dari node berikutnya. Proses meneruskan data dari satu lapisan ke lapisan berikutnya mendefinisikan jaringan neural ini sebagai jaringan feedforward.

Mari kita uraikan seperti apa satu node tunggal menggunakan nilai biner. Kita dapat menerapkan konsep ini pada contoh yang lebih nyata, seperti apakah Anda harus berselancar (Ya: 1, Tidak: 0). Keputusan untuk pergi atau tidak pergi adalah hasil prediksi kita, atau y-hat. Mari kita asumsikan bahwa ada tiga faktor yang mempengaruhi pengambilan keputusan Anda:

  1. Apakah ombaknya bagus? (Ya: 1, Tidak: 0)
  2. Apakah line-up kosong? (Ya: 1, Tidak: 0)
  3. Apakah ada serangan hiu baru-baru ini? (Ya: 0, Tidak: 1)

Kemudian, mari kita asumsikan yang berikut, memberi kita input berikut:

  • X1 = 1, karena ombak besar
  • X2 = 0, karena tidak ada kerumunan
  • X3 = 1, karena belum ada serangan hiu baru-baru ini

Sekarang, kita perlu menetapkan beberapa bobot untuk menentukan pentingnya. Bobot yang lebih besar menandakan bahwa variabel tertentu lebih penting untuk keputusan atau hasil.

  • W1 = 5, karena gelombang besar tidak sering muncul
  • W2 = 2, karena Anda terbiasa dengan keramaian
  • W3 = 4, karena Anda takut pada hiu

Akhirnya, kita juga akan mengasumsikan nilai ambang 3, yang akan diterjemahkan ke nilai bias 3. Dengan semua input yang berbeda, kita dapat mulai memasukkan nilai ke dalam rumus untuk mendapatkan hasil yang diinginkan.

Y-hat = (1*5) + (0*2) + (1*4) – 3 = 6

Jika kita menggunakan fungsi aktivasi dari awal bagian ini, kita dapat menentukan bahwa hasil dari node ini adalah 1, karena 6 lebih besar dari 0. Dalam contoh ini, Anda akan berselancar, namun jika kita menyesuaikan bobot atau ambang batasnya, kita dapat memperoleh hasil yang berbeda dari model tersebut. Saat kita mengamati satu keputusan, seperti contoh di atas, kita dapat melihat bagaimana jaringan neural dapat membuat keputusan yang semakin kompleks tergantung pada hasil dari keputusan atau lapisan sebelumnya.

Pada contoh di atas, kita menggunakan perceptron untuk mengilustrasikan beberapa matematika yang berperan di sini, tetapi jaringan neural memanfaatkan neuron sigmoid, yang dibedakan dengan nilai antara 0 dan 1. Karena jaringan neural berperilaku mirip dengan pohon keputusan, mengalirkan data dari satu node ke node lainnya, dengan nilai x antara 0 dan 1 akan mengurangi dampak dari setiap perubahan variabel tunggal pada hasil node tertentu, dan selanjutnya, hasil dari jaringan neural.

Saat kami mulai memikirkan contoh penggunaan yang lebih praktis untuk jaringan neural, seperti pengenalan atau klasifikasi gambar, kami akan memanfaatkan pembelajaran yang diawasi, atau kumpulan data berlabel, untuk melatih algoritme. Saat melatih model, kami ingin mengevaluasi keakuratannya menggunakan fungsi biaya (atau kerugian). Hal ini juga biasa disebut dengan mean squared error (MSE). Dalam persamaan di bawah ini,

  • i mewakili indeks sampel,
  • y-hat adalah hasil yang diprediksi,
  • y adalah nilai sebenarnya, dan
  • m adalah jumlah sampel.

𝐶𝑜𝑠𝑡 𝐹𝑢𝑛𝑐𝑡𝑖𝑜𝑛= 𝑀𝑆𝐸=1/2𝑚 ∑129_(𝑖=1)^𝑚▒(𝑦 ̂^((𝑖) )−𝑦^((𝑖) ) )^2

Pada akhirnya, tujuannya adalah untuk meminimalkan fungsi biaya kami untuk memastikan kebenaran kesesuaian untuk setiap pengamatan yang diberikan. Ketika model menyesuaikan bobot dan biasnya, ia menggunakan fungsi biaya dan pembelajaran penguatan untuk mencapai titik konvergensi, atau minimum lokal. Proses di mana algoritma menyesuaikan bobotnya adalah melalui penurunan gradien, memungkinkan model untuk menentukan arah yang harus diambil untuk mengurangi kesalahan (atau meminimalkan fungsi biaya). Dengan setiap contoh pelatihan, parameter model menyesuaikan untuk menyatu secara bertahap di nilai minimal.

Lihat artikel IBM Developer ini untuk penjelasan lebih mendalam tentang konsep kuantitatif yang terlibat dalam neural networks.

Sebagian besar jaringan neural mendalam bersifat feedforward, artinya mereka mengalir dalam satu arah saja, dari input ke hasil. Namun, Anda juga dapat melatih model Anda melalui propagasi balik; yaitu, bergerak ke arah yang berlawanan dari hasil ke input. Propagasi balik memungkinkan kita untuk menghitung dan mengaitkan kesalahan yang terkait dengan setiap neuron, sehingga kita dapat menyesuaikan dan mencocokkan parameter model dengan tepat.

jenis neural networks

Jaringan neural dapat diklasifikasikan ke dalam berbagai jenis, yang digunakan untuk tujuan yang berbeda. Meskipun ini bukan daftar jenis yang komprehensif, di bawah ini akan mewakili jenis jaringan neural yang paling umum yang akan Anda temui untuk contoh penggunaannya yang umum:

Perceptron adalah jaringan neural tertua, yang dibuat oleh Frank Rosenblatt pada tahun 1958.

Neural networks feedforward, atau multi-layer perceptron (MLP), adalah hal yang menjadi fokus utama kami dalam artikel ini. Ini terdiri atas lapisan input, lapisan tersembunyi atau lapisan, dan lapisan hasil. Meskipun neural networks ini juga sering disebut sebagai MLP, penting untuk dicatat bahwa neural networks ini sebenarnya terdiri dari neuron sigmoid, bukan perceptron, karena sebagian besar masalah di dunia nyata bersifat nonlinier. Data biasanya dimasukkan ke dalam model ini untuk melatih mereka, dan mereka adalah dasar untuk visi komputer, pemrosesan bahasa alami, dan neural networks lainnya.

Convolutional neural networks (CNN) mirip dengan jaringan feedforward, tetapi biasanya digunakan untuk pengenalan gambar, pengenalan pola, dan/atau visi komputer. Jaringan ini memanfaatkan prinsip-prinsip dari aljabar linier, khususnya perkalian matriks, untuk mengidentifikasi pola dalam sebuah gambar.

Recurrent neural networks (RNN) diidentifikasi oleh loop masukannya. Algoritma pembelajaran ini terutama dimanfaatkan ketika menggunakan data deret waktu untuk membuat prediksi tentang hasil di masa depan, seperti prediksi pasar saham atau prakiraan penjualan.

Jaringan neural vs. pembelajaran mendalam

Pembelajaran Mendalam dan jaringan neural cenderung digunakan secara bergantian dalam percakapan, yang dapat membingungkan. Sebagai hasilnya, perlu dicatat bahwa "mendalam" dalam pembelajaran mendalam hanya mengacu pada kedalaman lapisan dalam jaringan neural. Jaringan neural yang terdiri dari lebih dari tiga lapisan, yang akan mencakup input dan hasil, dapat dianggap sebagai algoritme pembelajaran mendalam. Jaringan neural yang hanya memiliki dua atau tiga lapisan hanyalah jaringan neural dasar.

Untuk mempelajari lebih lanjut tentang perbedaan antara jaringan neural dan bentuk kecerdasan buatan lainnya, seperti machine learning, silakan baca postingan blog “AI vs Machine Learning vs Pembelajaran Mendalam vs Neural Networks: Apa Perbedaannya?

Sejarah jaringan neural

Sejarah jaringan neural lebih panjang dari yang dipikirkan kebanyakan orang. Sementara gagasan "mesin yang berpikir" dapat ditelusuri hingga ke Yunani Kuno, kami akan fokus pada peristiwa-peristiwa penting yang mengarah pada evolusi pemikiran di sekitar jaringan neural, yang telah surut dan mengalir dalam popularitas selama bertahun-tahun:

1943: Warren S. McCulloch dan Walter Pitts menerbitkan “Kalkulus logis dari ide-ide yang melekat dalam aktivitas saraf (tautan berada di luar ibm.com)” Penelitian ini berupaya memahami bagaimana otak manusia dapat menghasilkan pola kompleks melalui sel-sel otak atau neuron yang terhubung. Salah satu ide utama yang dihasilkan dari kerja ini adalah perbandingan antara neuron dengan ambang biner dengan logika Boolean (yaitu, pernyataan 0/1 atau benar/salah).

1958: Frank Rosenblatt berjasa atas pengembangan perceptron, yang didokumentasikan dalam penelitiannya, "The Perceptron: Sebuah Model Probabilistik untuk Penyimpanan dan Organisasi Informasi di Otak" (tautan berada di luar ibm.com). Dia membawa pekerjaan McCulloch dan Pitt selangkah lebih jauh dengan memperkenalkan bobot ke persamaan. Dengan memanfaatkan IBM 704, Rosenblatt mampu membuat komputer mempelajari cara membedakan kartu yang ditandai di sebelah kiri dan kartu yang ditandai di sebelah kanan.

1974: Meskipun banyak peneliti yang berkontribusi pada ide propagasi balik, Paul Werbos adalah orang pertama di Amerika Serikat yang mencatat penerapan propragasi balik dalam neural networks dalam tesis PhD-nya (tautan berada di luar ibm.com).

1989: Yann LeCun menerbitkan sebuah makalah (tautan berada di luar ibm.com) yang mengilustrasikan bagaimana penggunaan batasan dalam propagasi balik dan integrasinya ke dalam arsitektur neural networks tiruan dapat digunakan untuk melatih algoritma. Penelitian ini berhasil memanfaatkan neural networks untuk mengenali digit kode pos yang ditulis tangan yang disediakan oleh U.S. Postal Service.

Gabungan Para Pakar | 28 Agustus, episode 70

Decoding AI: Rangkuman Berita Mingguan

Bergabunglah dengan panel insinyur, peneliti, pemimpin produk, dan sosok kelas dunia lainnya selagi mereka mengupas tuntas tentang AI untuk menghadirkan berita dan insight terbaru seputar AI.

Solusi terkait
IBM watsonx.ai

Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.

Temukan watsonx.ai
Solusi kecerdasan buatan (AI)

Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.

Jelajahi solusi AI
Konsultasi dan layanan AI

Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.

Jelajahi layanan AI
Ambil langkah selanjutnya

Dapatkan akses satu atap ke kemampuan yang mencakup siklus hidup pengembangan AI. Hasilkan solusi AI yang kuat dengan antarmuka ramah pengguna, alur kerja yang efisien, serta akses ke API dan SDK berstandar industri.

Jelajahi watsonx.ai Pesan demo langsung