- Rangkaian saraf dalam (DNN) ialah sistem pembelajaran mesin yang diperbuat daripada lapisan nod bersambung yang mempelajari corak dalam data untuk membuat ramalan.
- DNN boleh melaraskan sambungan dalaman mereka berdasarkan kesilapan lalu, meningkatkan ketepatannya dari semasa ke semasa melalui perambatan belakang.
- Kemajuan dalam kuasa pengkomputeran dan akses kepada set data yang besar telah menjadikan DNN praktikal untuk tugas yang melibatkan data tidak berstruktur seperti teks, imej dan audio.
- DNN berfungsi sebagai "kotak hitam" yang selalunya tidak jelas cara mereka membuat keputusan.
Apakah rangkaian saraf yang mendalam?
Rangkaian saraf dalam (DNN) ialah sejenis model pembelajaran mesin yang meniru cara otak manusia memproses maklumat. Tidak seperti algoritma tradisional yang mengikut peraturan yang dipratentukan, DNN boleh mempelajari corak daripada data dan membuat ramalan berdasarkan pengalaman terdahulu — sama seperti kami.
DNN ialah asas pembelajaran mendalam, menjanakan aplikasi seperti ejen AI , pengecaman imej, pembantu suara , chatbot AI .
Pasaran AI global—termasuk aplikasi yang dikuasakan oleh rangkaian saraf dalam — akan melepasi $500 bilion menjelang 2027.
Apakah seni bina rangkaian saraf?
"Dalam" dalam DNN merujuk kepada mempunyai berbilang lapisan tersembunyi, membolehkan rangkaian mengenali corak yang kompleks.
Rangkaian saraf terdiri daripada berbilang lapisan nod yang menerima input daripada lapisan lain dan menghasilkan output sehingga keputusan akhir dicapai.
Rangkaian saraf terdiri daripada lapisan nod (neuron). Setiap nod mengambil input, memprosesnya, dan menghantarnya ke lapisan seterusnya.
- Lapisan input : Lapisan pertama yang mengambil data mentah (cth, imej, teks).
- Lapisan tersembunyi : Lapisan antara input dan output yang mengubah data dan mengesan corak.
- Lapisan keluaran : Menghasilkan ramalan akhir.
Rangkaian saraf boleh mempunyai sebarang bilangan lapisan tersembunyi: lebih banyak lapisan nod berada dalam rangkaian, lebih tinggi kerumitannya. Rangkaian saraf tradisional biasanya terdiri daripada 2 atau 3 lapisan tersembunyi, manakala rangkaian pembelajaran mendalam boleh mempunyai sehingga 150 lapisan tersembunyi.
Bagaimanakah rangkaian saraf berbeza daripada rangkaian saraf dalam?

Ringkasnya: Rangkaian saraf yang melampaui data input dan boleh belajar daripada pengalaman sebelumnya menjadi rangkaian saraf yang mendalam.
Rangkaian saraf mengikut peraturan yang diprogramkan untuk membuat keputusan berdasarkan data input. Contohnya, dalam permainan catur, rangkaian saraf boleh mencadangkan pergerakan berdasarkan taktik dan strategi pratetap, tetapi ia terhad kepada apa yang telah disediakan oleh pengaturcara.
Tetapi rangkaian saraf yang mendalam pergi lebih jauh dengan belajar daripada pengalaman. Daripada bergantung semata-mata pada peraturan pratetap, DNN boleh melaraskan keputusannya berdasarkan corak yang ia kenali dalam set data yang besar.
Contoh
Bayangkan menulis program untuk mengenali anjing dalam foto. Rangkaian saraf tradisional memerlukan peraturan yang jelas untuk mengenal pasti ciri seperti bulu atau ekor. Sebaliknya, DNN akan belajar daripada beribu-ribu imej berlabel dan meningkatkan ketepatannya dari semasa ke semasa — mengendalikan walaupun kes yang sukar tanpa pengaturcaraan tambahan.
Bagaimanakah rangkaian saraf dalam berfungsi?
Pertama, setiap neuron dalam lapisan input menerima sekeping data mentah, seperti piksel daripada imej atau perkataan daripada ayat, dan memberikan pemberat kepada input ini, menunjukkan betapa relevannya ia dengan tugasan.
Berat rendah (kurang daripada 0.5) bermakna kurang berkemungkinan maklumat itu berkaitan. Input berwajaran ini disalurkan melalui lapisan tersembunyi, di mana neuron melaraskan maklumat dengan lebih lanjut. Ini berterusan merentasi berbilang lapisan sehingga lapisan output menyampaikan ramalan akhir.
Bagaimanakah rangkaian saraf dalam mengetahui sama ada ia betul?
Rangkaian saraf yang mendalam mengetahui sama ada ia betul dengan membandingkan ramalannya dengan data berlabel semasa latihan. Untuk setiap input, rangkaian menyemak sama ada ramalannya sepadan dengan hasil sebenar. Jika ia salah, rangkaian mengira ralat menggunakan fungsi kehilangan, yang mengukur sejauh mana ramalan itu.
Rangkaian kemudian menggunakan perambatan balik untuk melaraskan berat neuron yang menyumbang kepada ralat. Proses ini berulang dengan setiap lelaran.
Apakah jenis rangkaian saraf yang berbeza?
Bagaimanakah rangkaian saraf dalam bertambah baik dari semasa ke semasa?
Rangkaian saraf yang mendalam bertambah baik dari semasa ke semasa dengan belajar daripada kesilapannya. Apabila ia membuat ramalan — seperti mengenal pasti isu pelanggan atau mengesyorkan produk — ia menyemak sama ada ia betul. Jika tidak, sistem melaraskan dirinya untuk menambah baik pada masa akan datang.
Contohnya, dalam sokongan pelanggan, DNN mungkin meramalkan cara menyelesaikan tiket. Jika ramalan itu salah, ia belajar daripada kesilapan itu dan menjadi lebih baik dalam menyelesaikan tiket yang serupa pada masa hadapan. Dalam jualan, DNN boleh mempelajari petunjuk mana yang menukar yang terbaik dengan menganalisis tawaran masa lalu, menambah baik pengesyorannya dari semasa ke semasa.
Jadi dengan setiap interaksi, DNN menjadi lebih tepat dan boleh dipercayai.
Adakah rangkaian saraf dalam berfikir secara berbeza daripada manusia?
Tetapi model pembelajaran mendalam sering berfungsi sebagai 'kotak hitam,' bermakna manusia tidak dapat mentafsir dengan mudah cara mereka mencapai keputusan mereka. Seperti yang diterangkan oleh penyelidik AI Cynthia Rudin dari Universiti Duke, kebolehtafsiran adalah penting untuk penggunaan beretika sistem AI, terutamanya dalam persekitaran yang berisiko tinggi.
Penyelidik telah cuba menggambarkan cara rangkaian memproses imej, tetapi untuk tugas yang lebih kompleks—seperti ramalan bahasa atau kewangan—logiknya tetap tersembunyi. Walaupun algoritma ini terasa baru, banyak yang dibangunkan beberapa dekad yang lalu. Kemajuan dalam data dan kuasa pengkomputeran adalah yang menjadikannya praktikal hari ini.
Mengapa rangkaian saraf dalam semakin popular?
1. Penambahbaikan dalam kuasa pemprosesan
Salah satu sebab utama lonjakan dalam DNN ialah kuasa pemprosesan lebih cepat dan lebih murah. Kuasa pengkomputeran telah membuat semua perbezaan dalam mencapai penumpuan pantas. "Peningkatan perkakasan khusus seperti Unit Pemprosesan Grafik (GPU) dan Unit Pemprosesan Tensor (TPU) telah menjadikannya layak untuk melatih rangkaian dengan berbilion parameter."
2. Meningkatkan ketersediaan set data
Satu lagi faktor utama ialah ketersediaan set data yang besar, yang perlu dipelajari oleh rangkaian saraf dalam dengan berkesan. Memandangkan perniagaan menjana lebih banyak data, DNN boleh menemui corak kompleks yang tidak dapat dikendalikan oleh model tradisional.
3. Penambahbaikan dalam pemprosesan data tidak berstruktur
Keupayaan mereka untuk memproses data tidak berstruktur seperti teks, imej dan audio juga telah membuka aplikasi baharu dalam bidang seperti chatbots, sistem pengesyoran dan analitik ramalan.
Bolehkah rangkaian saraf berfungsi dengan data yang tidak berstruktur?
Ya, rangkaian saraf boleh berfungsi dengan data tidak berstruktur, dan ini adalah salah satu kekuatan terbesar mereka.
Rangkaian saraf tiruan yang berfungsi dengan data tidak berstruktur dipanggil pembelajaran tanpa pengawasan . Ini adalah kaedah pembelajaran mesin dan lebih serupa dengan cara manusia belajar.
Algoritma pembelajaran mesin tradisional bergelut untuk memproses data tidak berstruktur kerana ia memerlukan kejuruteraan ciri — pemilihan manual dan pengekstrakan ciri yang berkaitan. Sebaliknya, rangkaian saraf secara automatik boleh mempelajari corak dalam data mentah tanpa campur tangan manual yang meluas.
Bagaimanakah rangkaian saraf dalam menggunakan latihan untuk belajar?
Rangkaian saraf yang mendalam belajar dengan membuat ramalan dan membandingkannya dengan keputusan yang betul. Contohnya, semasa memproses foto, ia meramalkan sama ada imej mengandungi anjing dan menjejaki kekerapan ia mendapat jawapan yang betul.
Rangkaian mengira ketepatannya dengan menyemak peratusan ramalan yang betul dan menggunakan maklum balas ini untuk menambah baik. Ia melaraskan berat neuronnya dan menjalankan proses semula. Jika ketepatan bertambah baik, ia mengekalkan pemberat baharu; jika tidak, ia mencuba pelarasan yang berbeza.
Kitaran ini berulang merentasi banyak lelaran sehingga rangkaian dapat mengecam corak secara konsisten dan membuat ramalan yang tepat. Apabila ia mencapai tahap ini, rangkaian dikatakan telah bertumpu dan berjaya dilatih.
Jimat masa pengekodan dengan hasil yang lebih baik
Rangkaian saraf dinamakan begitu kerana terdapat persamaan antara pendekatan pengaturcaraan ini dan cara otak berfungsi.
Sama seperti otak, algoritma jaring saraf menggunakan rangkaian neuron atau nod. Dan seperti otak, neuron ini adalah fungsi diskret (atau mesin kecil jika anda suka) yang mengambil input dan menghasilkan output. Nod ini disusun dalam lapisan di mana output neuron dalam satu lapisan menjadi input kepada neuron dalam lapisan seterusnya sehingga neuron pada lapisan luar rangkaian menghasilkan hasil akhir.
Oleh itu, terdapat lapisan neuron dengan setiap neuron individu yang menerima input yang sangat terhad dan menghasilkan output yang sangat terhad seperti di dalam otak. Lapisan pertama (atau lapisan input) neuron mengambil input dan lapisan terakhir neuron (atau lapisan output) dalam rangkaian mengeluarkan hasilnya.
Adakah tepat untuk memanggil algoritma jenis ini sebagai "rangkaian saraf"?
Memanggil algoritma ini sebagai 'rangkaian saraf dalam' telah terbukti sebagai penjenamaan yang berkesan, walaupun ia mungkin menetapkan jangkaan yang terlalu tinggi. Walaupun berkuasa, model ini masih jauh lebih mudah daripada kerumitan otak manusia. Walau bagaimanapun, penyelidik terus meneroka seni bina saraf yang bertujuan untuk kecerdasan umum seperti manusia.
Walau bagaimanapun, terdapat orang yang cuba merekayasa semula otak, menggunakan rangkaian saraf yang sangat kompleks, dengan harapan bahawa dengan melakukan ini mereka akan dapat meniru kecerdasan umum seperti manusia dalam pembangunan bot. Jadi bagaimanakah jaring saraf dan teknik pembelajaran mesin membantu kami dengan masalah pengecaman anjing kami?
Nah, bukannya menentukan atribut seperti anjing secara manual, algoritma rangkaian saraf yang mendalam dapat mengenal pasti atribut penting dan menangani semua kes khas tanpa pengaturcaraan.
Soalan lazim
1. Berapa lamakah masa yang diambil untuk melatih rangkaian saraf dalam?
Ia benar-benar bergantung pada saiz data anda dan kerumitan model anda. Ia boleh mengambil masa dari beberapa minit hingga beberapa hari. Model yang lebih besar dengan banyak lapisan (dan lebih banyak data) cenderung memerlukan lebih banyak masa dan kuasa pengkomputeran.
2. Bolehkah saya melatih DNN pada komputer peribadi saya?
Sudah tentu, selagi model itu tidak terlalu besar. Untuk set data yang lebih kecil dan rangkaian yang lebih ringkas, komputer riba anda boleh mengendalikannya tetapi untuk apa-apa tugas berat, GPU atau penyelesaian berasaskan awan membuat perbezaan yang besar.
3. Apakah perbezaan antara DNN yang digunakan dalam penglihatan komputer dan yang digunakan dalam pemprosesan bahasa semula jadi?
DNN untuk penglihatan komputer sering menggunakan lapisan konvolusi untuk menganalisis imej, manakala model NLP bergantung pada seni bina seperti transformer atau RNN untuk mengendalikan struktur dan makna teks. Idea pembelajaran mendalam yang sama, hanya alat yang berbeza untuk jenis data yang berbeza.
4. Bagaimanakah anda memilih bilangan lapisan tersembunyi dalam DNN?
Ia adalah sedikit percubaan dan kesilapan. Lebih banyak lapisan boleh menangkap corak yang lebih kompleks, tetapi terlalu banyak boleh menyebabkan terlalu pasang atau masa latihan yang lebih lama. Mulakan secara kecil-kecilan, kerap menguji dan menala semasa anda pergi.
5. Apakah kejayaan besar seterusnya dijangka dalam penyelidikan rangkaian saraf dalam?
Orang ramai sibuk tentang model yang lebih cekap (seperti rangkaian yang jarang), kebolehtafsiran yang lebih baik (jadi kita tahu sebab model membuat keputusan), dan sistem yang diilhamkan oleh otak yang mungkin membawa kita lebih dekat dengan AI seperti manusia sebenar.