Transformers ialah model yang menggunakan mekanisme perhatian kendiri, yang menggunakan seni bina pengekod-penyahkod untuk mencapai hasil. Beberapa model berasaskan seni bina Transformer biasa termasuk BERT dan RoBERTa.
Seni bina Transformer direka khas untuk menangani masalah urutan-ke-jujukan dalam tugas pemprosesan bahasa semula jadi. Berbanding dengan RNN tradisional, LSTM dan seni bina lain, kelebihan utama Transformer terletak pada mekanisme perhatian kendirinya yang unik. Mekanisme ini membolehkan Transformer menangkap kebergantungan dan korelasi jarak jauh dengan tepat antara token dalam ayat input dan sangat mengurangkan masa pengkomputeran. Melalui mekanisme perhatian kendiri, Transformer boleh menyesuaikan setiap kedudukan dalam urutan input untuk menangkap maklumat kontekstual dengan lebih baik pada kedudukan berbeza. Mekanisme ini menjadikan Transformer lebih berkesan dalam mengendalikan kebergantungan jarak jauh, menghasilkan prestasi cemerlang dalam banyak tugas pemprosesan bahasa semula jadi.
Seni bina ini berdasarkan pengekod-penyahkod dan terdiri daripada berbilang lapisan pengekod dan penyahkod. Setiap pengekod mengandungi berbilang sub-lapisan, termasuk lapisan perhatian diri berbilang kepala dan rangkaian neural suapan ke hadapan yang disambungkan sepenuhnya pada kedudukan. Begitu juga, setiap penyahkod juga mempunyai dua sub-lapisan yang sama, dengan penambahan sub-lapisan ketiga yang dipanggil lapisan perhatian penyahkod-pengekod, yang digunakan pada output timbunan pengekod.
Terdapat lapisan normalisasi di belakang setiap sub-lapisan, dan terdapat baki sambungan di sekeliling setiap rangkaian neural suapan. Sambungan baki ini menyediakan laluan percuma untuk kecerunan dan aliran data, membantu mengelakkan masalah kecerunan yang hilang apabila melatih rangkaian saraf dalam.
Vektor perhatian pengekod dihantar ke rangkaian saraf suapan hadapan, yang menukarnya menjadi perwakilan vektor dan menghantarnya ke lapisan perhatian seterusnya. Tugas penyahkod adalah untuk mengubah vektor perhatian pengekod kepada data output. Semasa fasa latihan, penyahkod boleh menggunakan vektor perhatian dan hasil jangkaan yang dijana oleh pengekod.
Penyahkod menggunakan tokenisasi yang sama, pembenaman perkataan dan mekanisme perhatian untuk memproses hasil yang diharapkan dan menjana vektor perhatian. Vektor perhatian ini kemudiannya berinteraksi dengan lapisan perhatian dalam modul pengekod untuk mewujudkan perkaitan antara nilai input dan output. Vektor perhatian penyahkod diproses oleh lapisan suapan hadapan dan kemudian dipetakan ke dalam vektor besar saiz data sasaran.
Atas ialah kandungan terperinci Pengenalan kepada aplikasi model Transformer. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!