Gambaran keseluruhan kaedah ensemble dalam pembelajaran mesin
Bayangkan anda membeli-belah dalam talian dan anda mendapati dua kedai menjual produk yang sama dengan rating yang sama. Walau bagaimanapun, yang pertama dinilai oleh hanya seorang dan yang kedua dinilai oleh 100 orang. Penilaian yang manakah lebih anda percayai? Produk manakah yang akan anda pilih untuk dibeli pada akhirnya? Jawapan bagi kebanyakan orang adalah mudah. Pendapat 100 orang sudah tentu lebih dipercayai daripada pendapat hanya satu. Ini dipanggil "kebijaksanaan orang ramai" dan itulah sebabnya pendekatan ensemble berfungsi.
Kaedah ensemble
Biasanya, kami hanya mencipta pelajar (pembelajar = model latihan) daripada data latihan (iaitu, kita hanya mencipta pelajar (pembelajar) = model latihan) daripada data latihan) untuk melatih model pembelajaran mesin). Kaedah ensemble adalah untuk membiarkan beberapa pelajar menyelesaikan masalah yang sama dan kemudian menggabungkannya bersama-sama. Pelajar ini dipanggil pelajar asas dan boleh mempunyai sebarang algoritma asas, seperti rangkaian saraf, mesin vektor sokongan, pepohon keputusan, dsb. Jika semua pelajar asas ini terdiri daripada algoritma yang sama maka mereka dipanggil pelajar asas homogen, manakala jika mereka terdiri daripada algoritma yang berbeza maka mereka dipanggil pelajar asas heterogen. Berbanding dengan pelajar asas tunggal, ensemble mempunyai keupayaan generalisasi yang lebih baik, menghasilkan keputusan yang lebih baik.
Apabila kaedah ensemble terdiri daripada pelajar lemah. Oleh itu, pelajar asas kadang-kadang dipanggil pelajar lemah. Manakala model ensemble atau pelajar kuat (yang merupakan gabungan pelajar lemah ini) mempunyai bias/variance yang lebih rendah dan mencapai prestasi yang lebih baik. Keupayaan pendekatan bersepadu ini untuk mengubah pelajar yang lemah kepada pelajar yang kuat telah menjadi popular kerana pelajar yang lemah lebih mudah didapati dalam amalan.
Dalam beberapa tahun kebelakangan ini, kaedah bersepadu telah memenangi pelbagai pertandingan dalam talian secara berterusan. Selain pertandingan dalam talian, kaedah ensemble juga digunakan dalam aplikasi kehidupan sebenar seperti teknologi penglihatan komputer seperti pengesanan objek, pengecaman dan pengesanan.
Jenis utama kaedah ensembel
Bagaimanakah pelajar lemah dijana?
Mengikut kaedah penjanaan pelajar asas, kaedah pengamiran boleh dibahagikan kepada dua kategori besar iaitu kaedah pengamiran berurutan dan kaedah pengamiran selari. Seperti namanya, dalam kaedah ensemble Sequential, pelajar asas dijana secara berurutan dan kemudian digabungkan untuk membuat ramalan, seperti algoritma Boosting seperti AdaBoost. Dalam kaedah ensemble Selari, pelajar asas dijana secara selari dan kemudian digabungkan untuk ramalan, seperti algoritma pembungkusan seperti hutan rawak dan susun. Rajah berikut menunjukkan seni bina ringkas yang menerangkan pendekatan selari dan berurutan.
Mengikut kaedah penjanaan pelajar asas yang berbeza, kaedah integrasi boleh dibahagikan kepada dua kategori utama: kaedah integrasi berjujukan dan kaedah integrasi selari. Seperti namanya, dalam kaedah ensemble berjujukan, pelajar asas dijana mengikut tertib dan kemudian digabungkan untuk membuat ramalan, seperti algoritma Boosting seperti AdaBoost. Dalam kaedah ensembel selari, pelajar asas dijana secara selari dan kemudian digabungkan bersama untuk ramalan, seperti algoritma beg seperti Random Forest dan Stacking. Rajah di bawah menunjukkan seni bina ringkas yang menerangkan kedua-dua pendekatan selari dan berurutan.
Kaedah Penyepaduan Selari dan Berurutan
Kaedah pembelajaran berurutan menggunakan kebergantungan antara pelajar lemah untuk meningkatkan prestasi keseluruhan dalam cara yang semakin berkurangan, supaya pelajar Kemudian memberi lebih perhatian kepada kesilapan bekas pelajar. Secara kasarnya (untuk masalah regresi), pengurangan dalam ralat model ensemble yang diperoleh dengan kaedah penggalak dicapai terutamanya dengan mengurangkan berat sebelah tinggi pelajar lemah, walaupun pengurangan dalam varians kadangkala diperhatikan. Sebaliknya, kaedah ensemble selari mengurangkan kesilapan dengan menggabungkan pelajar lemah bebas, iaitu, ia mengeksploitasi kebebasan antara pelajar lemah. Pengurangan ralat ini adalah disebabkan oleh pengurangan dalam varians model pembelajaran mesin. Oleh itu, kita boleh merumuskan bahawa rangsangan terutamanya mengurangkan ralat dengan mengurangkan berat sebelah model pembelajaran mesin, manakala beg mengurangkan ralat dengan mengurangkan varians model pembelajaran mesin. Ini penting kerana kaedah ensembel yang dipilih bergantung kepada sama ada pelajar yang lemah mempunyai varians yang tinggi atau bias yang tinggi.
Bagaimana untuk menggabungkan pelajar yang lemah?
Selepas menjana apa yang dipanggil pelajar asas ini, kami tidak memilih yang terbaik daripada pelajar ini, tetapi menggabungkan mereka bersama-sama untuk generalisasi yang lebih baik, cara kami melakukan ini adalah secara ensemble memainkan peranan penting dalam kaedah.
Purata: Apabila output ialah nombor, cara paling biasa untuk menggabungkan pelajar asas ialah purata. Purata boleh menjadi purata mudah atau purata wajaran. Untuk masalah regresi, purata mudah ialah jumlah ralat semua model asas dibahagikan dengan jumlah bilangan pelajar. Output gabungan purata berwajaran dicapai dengan memberikan pemberat yang berbeza kepada setiap pelajar asas. Untuk masalah regresi, kami mendarabkan ralat setiap pelajar asas dengan berat yang diberikan dan kemudian menjumlahkan.
Pengundian: Untuk keluaran nominal, pengundian ialah cara paling biasa untuk menggabungkan pelajar asas. Pengundian boleh terdiri daripada jenis yang berbeza seperti undian majoriti, undian majoriti, undian wajaran dan undian lembut. Untuk masalah klasifikasi, undian majoriti besar memberikan setiap pelajar satu undi, dan mereka mengundi untuk label kelas. Mana-mana label kelas yang mendapat lebih daripada 50% undian adalah hasil ramalan ensembel itu. Walau bagaimanapun, jika tiada label kelas mendapat lebih daripada 50% undian, pilihan penolakan diberikan, yang bermaksud bahawa ensembel gabungan tidak boleh membuat sebarang ramalan. Dalam undian majoriti relatif, label kelas dengan undian terbanyak ialah hasil ramalan dan lebih daripada 50% undian tidak diperlukan untuk label kelas. Bermakna, jika kita mempunyai tiga label keluaran, dan ketiga-tiganya mendapat hasil kurang daripada 50%, seperti 40% 30% 30%, maka mendapat 40% daripada label kelas adalah hasil ramalan model ensemble. . Pengundian wajaran, seperti purata wajaran, memberikan wajaran kepada pengelas berdasarkan kepentingannya dan kekuatan pelajar tertentu. Undian lembut digunakan untuk keluaran kelas dengan kebarangkalian (nilai antara 0 dan 1) dan bukannya label (perduaan atau lain-lain). Undian lembut dibahagikan lagi kepada undian lembut mudah (purata mudah kebarangkalian) dan undian lembut wajaran (wajaran diberikan kepada pelajar, dan kebarangkalian didarab dengan wajaran ini dan ditambah).
Pembelajaran: Kaedah gabungan lain ialah gabungan melalui pembelajaran, yang digunakan oleh kaedah ensembel susun. Dalam pendekatan ini, pelajar berasingan yang dipanggil meta-pembelajar dilatih pada set data baharu untuk menggabungkan pelajar asas/lemah lain yang dijana daripada set data pembelajaran mesin asal.
Sila ambil perhatian bahawa sama ada meningkatkan, membungkus atau menyusun, ketiga-tiga kaedah ensembel boleh dijana menggunakan pelajar lemah homogen atau heterogen. Pendekatan yang paling biasa ialah menggunakan pelajar lemah homogen untuk Membonceng dan Mendorong, dan pelajar lemah heterogen untuk Menyusun. Rajah di bawah memberikan klasifikasi yang baik bagi tiga kaedah ensemble utama.
Kelaskan jenis utama kaedah ensembel
Kepelbagaian ensemble
Kepelbagaian ensemble merujuk kepada perbezaan antara pelajar asas Seberapa besar ia , yang mempunyai implikasi penting untuk menjana model ensemble yang baik. Secara teorinya telah dibuktikan bahawa, melalui kaedah gabungan yang berbeza, pelajar asas yang bebas sepenuhnya (pelbagai) boleh meminimumkan kesilapan, manakala pelajar yang berkaitan sepenuhnya (sangat) tidak membawa sebarang peningkatan. Ini adalah masalah yang mencabar dalam kehidupan sebenar, kerana kami melatih semua pelajar yang lemah untuk menyelesaikan masalah yang sama dengan menggunakan set data yang sama, menghasilkan korelasi yang tinggi. Di samping itu, kita perlu memastikan bahawa pelajar yang lemah bukanlah model yang benar-benar buruk, kerana ini mungkin menyebabkan prestasi ensemble merosot. Sebaliknya, menggabungkan pelajar asas yang kuat dan tepat mungkin tidak berkesan seperti menggabungkan beberapa pelajar yang lemah dengan beberapa pelajar yang kuat. Oleh itu, keseimbangan perlu dicapai antara ketepatan pelajar asas dan perbezaan antara pelajar asas.
Bagaimana untuk mencapai kepelbagaian integrasi?
1. Pemprosesan Data
Kami boleh membahagikan set data kami kepada subset untuk pelajar asas. Jika set data pembelajaran mesin adalah besar, kami hanya boleh membahagi set data kepada bahagian yang sama dan memasukkannya ke dalam model pembelajaran mesin. Jika set data kecil, kami boleh menggunakan pensampelan rawak dengan penggantian untuk menjana set data baharu daripada set data asal. Kaedah bagging menggunakan teknik bootstrap untuk menjana set data baharu, yang pada asasnya adalah pensampelan rawak dengan penggantian. Dengan bootstrap kami dapat mencipta beberapa kerawak kerana semua set data yang dijana mesti mempunyai beberapa nilai yang berbeza. Walau bagaimanapun, ambil perhatian bahawa kebanyakan nilai (kira-kira 67% mengikut teori) masih akan diulang, jadi set data tidak akan bebas sepenuhnya.
2. Ciri input
Semua set data mengandungi ciri yang memberikan maklumat tentang data. Daripada menggunakan semua ciri dalam satu model, kami boleh membuat subset ciri dan menjana set data yang berbeza dan memasukkannya ke dalam model. Kaedah ini diguna pakai oleh teknik hutan rawak dan berkesan apabila terdapat sejumlah besar ciri berlebihan dalam data. Keberkesanan berkurangan apabila terdapat sedikit ciri dalam set data.
3. Parameter pembelajaran
Teknik ini menjana rawak dalam pelajar asas dengan menggunakan tetapan parameter yang berbeza pada algoritma pembelajaran asas, iaitu, penalaan hiperparameter. Sebagai contoh, dengan menukar istilah penyusunan semula, pemberat awal yang berbeza boleh diberikan kepada rangkaian saraf individu.
Pemangkasan Integrasi
Akhir sekali, teknologi pemangkasan penyepaduan boleh membantu mencapai prestasi penyepaduan yang lebih baik dalam beberapa kes. Pemangkasan Ensemble bermakna kami hanya menggabungkan subset pelajar dan bukannya menggabungkan semua pelajar lemah. Di samping itu, penyepaduan yang lebih kecil boleh menjimatkan sumber storan dan pengkomputeran, dengan itu meningkatkan kecekapan.
Akhir sekali
Artikel ini hanyalah gambaran keseluruhan kaedah ensembel pembelajaran mesin. Saya berharap semua orang dapat menjalankan penyelidikan yang lebih mendalam, dan yang lebih penting, dapat mengaplikasikan penyelidikan itu dalam kehidupan sebenar.
Atas ialah kandungan terperinci Gambaran keseluruhan kaedah ensemble dalam pembelajaran mesin. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undress AI Tool
Gambar buka pakaian secara percuma

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Dalam bidang pembelajaran mesin dan sains data, kebolehtafsiran model sentiasa menjadi tumpuan penyelidik dan pengamal. Dengan aplikasi meluas model yang kompleks seperti kaedah pembelajaran mendalam dan ensemble, memahami proses membuat keputusan model menjadi sangat penting. AI|XAI yang boleh dijelaskan membantu membina kepercayaan dan keyakinan dalam model pembelajaran mesin dengan meningkatkan ketelusan model. Meningkatkan ketelusan model boleh dicapai melalui kaedah seperti penggunaan meluas pelbagai model yang kompleks, serta proses membuat keputusan yang digunakan untuk menerangkan model. Kaedah ini termasuk analisis kepentingan ciri, anggaran selang ramalan model, algoritma kebolehtafsiran tempatan, dsb. Analisis kepentingan ciri boleh menerangkan proses membuat keputusan model dengan menilai tahap pengaruh model ke atas ciri input. Anggaran selang ramalan model

Pembelajaran mesin ialah cabang penting kecerdasan buatan yang memberikan komputer keupayaan untuk belajar daripada data dan meningkatkan keupayaan mereka tanpa diprogramkan secara eksplisit. Pembelajaran mesin mempunyai pelbagai aplikasi dalam pelbagai bidang, daripada pengecaman imej dan pemprosesan bahasa semula jadi kepada sistem pengesyoran dan pengesanan penipuan, dan ia mengubah cara hidup kita. Terdapat banyak kaedah dan teori yang berbeza dalam bidang pembelajaran mesin, antaranya lima kaedah yang paling berpengaruh dipanggil "Lima Sekolah Pembelajaran Mesin". Lima sekolah utama ialah sekolah simbolik, sekolah sambungan, sekolah evolusi, sekolah Bayesian dan sekolah analogi. 1. Simbolisme, juga dikenali sebagai simbolisme, menekankan penggunaan simbol untuk penaakulan logik dan ekspresi pengetahuan. Aliran pemikiran ini percaya bahawa pembelajaran adalah proses penolakan terbalik, melalui sedia ada

Cabaran biasa yang dihadapi oleh algoritma pembelajaran mesin dalam C++ termasuk pengurusan memori, multi-threading, pengoptimuman prestasi dan kebolehselenggaraan. Penyelesaian termasuk menggunakan penunjuk pintar, perpustakaan benang moden, arahan SIMD dan perpustakaan pihak ketiga, serta mengikuti garis panduan gaya pengekodan dan menggunakan alat automasi. Kes praktikal menunjukkan cara menggunakan perpustakaan Eigen untuk melaksanakan algoritma regresi linear, mengurus memori dengan berkesan dan menggunakan operasi matriks berprestasi tinggi.

Penterjemah |. Disemak oleh Li Rui |. Chonglou Model kecerdasan buatan (AI) dan pembelajaran mesin (ML) semakin kompleks hari ini, dan output yang dihasilkan oleh model ini adalah kotak hitam – tidak dapat dijelaskan kepada pihak berkepentingan. AI Boleh Dijelaskan (XAI) bertujuan untuk menyelesaikan masalah ini dengan membolehkan pihak berkepentingan memahami cara model ini berfungsi, memastikan mereka memahami cara model ini sebenarnya membuat keputusan, dan memastikan ketelusan dalam sistem AI, Amanah dan akauntabiliti untuk menyelesaikan masalah ini. Artikel ini meneroka pelbagai teknik kecerdasan buatan (XAI) yang boleh dijelaskan untuk menggambarkan prinsip asasnya. Beberapa sebab mengapa AI boleh dijelaskan adalah penting Kepercayaan dan ketelusan: Untuk sistem AI diterima secara meluas dan dipercayai, pengguna perlu memahami cara keputusan dibuat

MetaFAIR bekerjasama dengan Harvard untuk menyediakan rangka kerja penyelidikan baharu untuk mengoptimumkan bias data yang dijana apabila pembelajaran mesin berskala besar dilakukan. Adalah diketahui bahawa latihan model bahasa besar sering mengambil masa berbulan-bulan dan menggunakan ratusan atau bahkan ribuan GPU. Mengambil model LLaMA270B sebagai contoh, latihannya memerlukan sejumlah 1,720,320 jam GPU. Melatih model besar memberikan cabaran sistemik yang unik disebabkan oleh skala dan kerumitan beban kerja ini. Baru-baru ini, banyak institusi telah melaporkan ketidakstabilan dalam proses latihan apabila melatih model AI generatif SOTA Mereka biasanya muncul dalam bentuk lonjakan kerugian Contohnya, model PaLM Google mengalami sehingga 20 lonjakan kerugian semasa proses latihan. Bias berangka adalah punca ketidaktepatan latihan ini,

Minggu lalu, di tengah gelombang peletakan jawatan dalaman dan kritikan luar, OpenAI dibelenggu oleh masalah dalaman dan luaran: - Pelanggaran kakak balu itu mencetuskan perbincangan hangat global - Pekerja menandatangani "fasal tuan" didedahkan satu demi satu - Netizen menyenaraikan " Ultraman " tujuh dosa maut" ” Pembasmi khabar angin: Menurut maklumat dan dokumen bocor yang diperolehi oleh Vox, kepimpinan kanan OpenAI, termasuk Altman, sangat mengetahui peruntukan pemulihan ekuiti ini dan menandatanganinya. Di samping itu, terdapat isu serius dan mendesak yang dihadapi oleh OpenAI - keselamatan AI. Pemergian lima pekerja berkaitan keselamatan baru-baru ini, termasuk dua pekerjanya yang paling terkemuka, dan pembubaran pasukan "Penjajaran Super" sekali lagi meletakkan isu keselamatan OpenAI dalam perhatian. Majalah Fortune melaporkan bahawa OpenA

Model 70B, 1000 token boleh dijana dalam beberapa saat, yang diterjemahkan kepada hampir 4000 aksara! Para penyelidik memperhalusi Llama3 dan memperkenalkan algoritma pecutan Berbanding dengan versi asli, kelajuannya adalah 13 kali lebih pantas! Bukan sahaja ia pantas, prestasinya pada tugas menulis semula kod malah mengatasi GPT-4o. Pencapaian ini datang dari mana-mana, pasukan di belakang Kursor artifak pengaturcaraan AI yang popular, dan OpenAI turut mengambil bahagian dalam pelaburan. Anda mesti tahu bahawa pada Groq, rangka kerja pecutan inferens pantas yang terkenal, kelajuan inferens 70BLlama3 hanyalah lebih daripada 300 token sesaat. Dengan kelajuan Kursor, boleh dikatakan bahawa ia mencapai penyuntingan fail kod lengkap hampir serta-merta. Sesetengah orang memanggilnya lelaki yang baik, jika anda meletakkan Curs

Dalam C++, pelaksanaan algoritma pembelajaran mesin termasuk: Regresi linear: digunakan untuk meramalkan pembolehubah berterusan Langkah-langkah termasuk memuatkan data, mengira berat dan berat sebelah, mengemas kini parameter dan ramalan. Regresi logistik: digunakan untuk meramalkan pembolehubah diskret Proses ini serupa dengan regresi linear, tetapi menggunakan fungsi sigmoid untuk ramalan. Mesin Vektor Sokongan: Algoritma klasifikasi dan regresi yang berkuasa yang melibatkan pengkomputeran vektor sokongan dan label ramalan.
