Jadual Kandungan
Jadual Kandungan
Apa itu Phi-4-Mini?
Gambaran Keseluruhan Senibina
Ciri -ciri utama
Apa itu O1-Mini?
Perbandingan Model: Phi-4-Mini vs O1-Mini
Penilaian prestasi pemikiran
PHI-4-MINI dan O1-MINI vs model yang lebih besar
Perbandingan penanda aras
Phi-4-Mini vs O1-Mini: Keupayaan Penalaran dan Pengekodan
Tugas 1: Menganalisis hubungan pesanan bangunan
Input ke O1-Mini
Respons oleh O1-Mini
Input ke phi 4-mini
Respons oleh Phi 4-Mini
Analisis perbandingan
Tugas 2: Penalaran logik dalam matematik
Tugas 3: Mencari substring terpanjang
Analisis perbandingan keseluruhan
Kesimpulan
Soalan yang sering ditanya
Rumah Peranti teknologi AI Phi-4-Mini vs O1-Mini: Mana yang lebih baik SLM?

Phi-4-Mini vs O1-Mini: Mana yang lebih baik SLM?

Mar 21, 2025 am 10:06 AM

Evolusi model AI telah mencapai ketinggian baru, terutamanya dalam model bahasa kecil (SLM), di mana kecekapan dan prestasi adalah kunci. Antara pesaing terkini, Phi-4-Mini dan O1-Mini menonjol sebagai model maju dan cekap. Dalam artikel ini, kami akan melakukan perbandingan PHI-4 mini vs O1-Mini untuk menyemak pengalaman pengguna, kelajuan, dan prestasi mereka pada aplikasi STEM dan tugas pengekodan. Kami akan menilai kekuatan mereka dalam pengaturcaraan, debugging, dan kecekapan keseluruhan untuk melihat model mana yang lebih baik. Pada akhirnya, anda akan mempunyai perspektif yang jelas mengenai model yang sejajar dengan keperluan anda.

Jadual Kandungan

  • Apa itu Phi-4-Mini?
  • Apa itu O1-Mini?
  • Perbandingan Model: Phi-4-Mini vs O1-Mini
  • Penilaian prestasi pemikiran
    • PHI-4-MINI dan O1-MINI vs model yang lebih besar
  • Phi-4-Mini vs O1-Mini: Keupayaan Penalaran dan Pengekodan
    • Tugas 1: Menganalisis hubungan pesanan bangunan
    • Tugas 2: Penalaran logik dalam matematik
    • Tugas 3: Mencari substring terpanjang
    • Analisis perbandingan keseluruhan
  • Kesimpulan
  • Soalan yang sering ditanya

Apa itu Phi-4-Mini?

PHI-4-Mini adalah SLM canggih yang direka untuk tugas penalaran dan pengekodan berprestasi tinggi. Ia menyerang keseimbangan antara kecekapan dan ketepatan, menjadikannya pesaing yang kuat dalam aplikasi yang didorong oleh AI. Model ini direka untuk penjanaan teks ketepatan tinggi dan tugas penalaran yang kompleks semasa menjadi komputasi yang cekap, menjadikannya sesuai untuk persekitaran pengkomputeran kelebihan

Gambaran Keseluruhan Senibina

PHI-4-Mini adalah model pengubah decoder sahaja dengan 3.8 bilion parameter dan tetingkap konteks token 128k. Ia menyokong saiz perbendaharaan kata sebanyak 200,064 token dan menggabungkan Perhatian Pertanyaan Berkelompok (GQA) untuk mengoptimumkan kecekapan sumber sambil mengekalkan prestasi tinggi.

Perhatian Pertanyaan Berkelompok (GQA) adalah mekanisme perhatian yang cekap yang mengimbangi kelajuan perhatian pelbagai pertanyaan (MQA) dengan kualiti perhatian multi-kepala (MHA) dengan mengumpulkan kepala pertanyaan dan berkongsi kepala kunci/nilai, meningkatkan kelajuan kesimpulan untuk model bahasa

Ciri -ciri utama

  • Embeddings Input-Output Berkongsi: Mengurangkan overhead memori dengan menggunakan semula embeddings untuk kedua-dua input dan output.
  • Data Latihan: Dilatih pada 5 trilion token, termasuk bahan pendidikan berkualiti tinggi, contoh pengekodan, dan data sintetik yang disesuaikan untuk penalaran.
  • Prestasi: Excels dalam pemikiran, matematik, pengekodan, dan pengajaran-berikut, dengan keupayaan untuk mengintegrasikan API luaran melalui panggilan fungsi.

Juga baca: phi-4 vs gpt-4o-mini face-off

Apa itu O1-Mini?

O1-Mini adalah SLM yang ringan dan cekap kos yang bertujuan untuk mengimbangi kemampuan dan prestasi. Ia mengutamakan pemprosesan yang cekap sambil mengekalkan tahap ketepatan yang munasabah untuk aplikasi AI umum.

Gambaran Keseluruhan Senibina

O1-Mini mengikuti seni bina pengubah standard, dengan parameter yang lebih sedikit daripada Phi-4-mini (saiz tepat tidak didedahkan). Ia juga menyokong tetingkap konteks token 128K tetapi memberi tumpuan kepada pemprosesan kos efektif dan bukannya pengoptimuman seni bina seperti GQA.

Juga Baca: Openai's O1-Preview vs O1-Mini: Langkah ke hadapan ke AGI

Perbandingan Model: Phi-4-Mini vs O1-Mini

PHI-4-Mini adalah model yang kuat yang direka untuk tugas-tugas seperti penalaran, matematik, dan pengekodan, manakala O1-Mini mengikuti reka bentuk yang lebih mudah memberi tumpuan kepada pengekodan kos efektif. Jadual di bawah menyoroti perbezaan utama mereka:

Ciri Phi-4-Mini O1-Mini
Jenis Senibina Padat, pengubah decoder sahaja Transformer Standard (Butiran Terhad)
Parameter 3.8 bilion Tidak ditentukan (umumnya lebih kecil)
Tetingkap konteks Token 128k Token 128k
Mekanisme perhatian Perhatian pertanyaan dikumpulkan (GQA) Tidak terperinci secara jelas
Embeddings dikongsi Ya Tidak ditentukan
Jumlah data latihan 5 trilion token Tidak ditentukan
Fokus prestasi Ketepatan tinggi dalam penalaran, matematik, pengekodan Kos efektif untuk tugas pengekodan
Kesesuaian penyebaran Persekitaran pengkomputeran tepi Penggunaan umum tetapi kurang mantap

PHI-4-Mini menonjol dengan ciri-ciri canggih seperti GQA dan embeddings bersama, menjadikannya lebih unggul dalam penalaran, pengekodan, dan integrasi API. Sebaliknya, O1-Mini adalah alternatif yang lebih ringan dan kos efektif yang dioptimumkan untuk pengekodan, walaupun ia tidak mempunyai perbaikan seni bina yang dilihat dalam Phi-4-mini. Memilih antara kedua -dua bergantung kepada sama ada keutamaan adalah ketepatan yang tinggi dan kuasa pemikiran atau kemampuan dan kecekapan dalam tugas tertentu.

Penilaian prestasi pemikiran

Bahagian ini melihat bagaimana model PHI-4-Mini dan O3-mini melakukan penalaran berbanding dengan model yang lebih besar. Ia memberi tumpuan kepada seberapa baik mereka menyelesaikan masalah yang rumit dan membuat kesimpulan logik, menonjolkan perbezaan ketepatan, kecekapan, dan kejelasan antara model yang lebih kecil dan lebih besar.

PHI-4-MINI dan O1-MINI vs model yang lebih besar

Keupayaan penalaran Phi-4-Mini dan O1-Mini yang dipertingkatkan dengan alasan yang dinilai di pelbagai tanda aras, termasuk AIME 2024, Math-500, dan GPQA Diamond. Penanda aras ini menilai pemikiran matematik lanjutan dan kemahiran menyelesaikan masalah umum, menyediakan asas untuk perbandingan terhadap beberapa model yang lebih besar dari Deepseek, Bespoke, dan Openthinker.

Model Aime MATH-500 GPQA Diamond
O1-Mini* 63.6 90.0 60.0
DeepSeek-R1-Distill-Qwen-7b 53.3 91.4 49.5
DeepSeek-R1-Distill-Llama-8b 43.3 86.9 47.3
Bespoke-Stratos-7b* 20.0 82.0 37.8
Openthinker-7b* 31.3 83.0 42.4
Llama-3-2-3b-Instruct 6.7 44.4 25.3
Phi-4-Mini 10.0 71.8 36.9
Phi-4-Mini (Penalaran Dilatih) (3.8b) 50.0 90.4 49.0
Sumber: Huggingface

Walaupun hanya mempunyai parameter 3.8 bilion, PHI-4-Mini yang terlatih dengan alasan menunjukkan prestasi yang kukuh, melampaui model yang lebih besar seperti:

  • DeepSeek-R1-Distill-Llama-8b (parameter 8b)
  • Bespoke-Stratos-7b (parameter 7b)
  • Openthinker-7b (parameter 7b)

Di samping itu, ia mencapai prestasi yang setanding dengan DeepSeek-R1-Distill-Qwen-7b, model 7B yang lebih besar, seterusnya menonjolkan kecekapannya. Walau bagaimanapun, O1-Mini, walaupun saiz parameter yang tidak didedahkan, membawa beberapa tanda aras, menjadikannya pesaing yang kuat dalam tugas penalaran AI.

Perbandingan penanda aras

Prestasi kedua -dua model, seperti yang ditunjukkan dalam imej yang disediakan, menyoroti daya saing mereka terhadap model yang lebih besar:

  • Penanda aras aime:
    • Skor O1-Mini 63.6, yang tertinggi di antara semua model.
    • Skor PHI-4-Mini (Penalaran Dilatih) 50.0, peningkatan lima kali ganda ke atas versi asasnya (10.0).
  • Penanda aras matematik-500:
    • Phi-4-Mini (90.4) sedikit mengatasi O1-Mini (90.0), menjadikannya sangat berkesan untuk tugas-tugas penalaran matematik yang kompleks.
  • GPQA Diamond:
    • O1-Mini membawa dengan 60.0, mempamerkan keupayaan penyelesaian masalah umum yang unggul.
    • PHI-4-Mini (49.0) mengatasi beberapa model 7B dan 8B, membuktikan kecekapannya dalam tugas penalaran.

Keputusan ini menunjukkan bahawa O1-Mini menguasai penyelesaian dan penalaran masalah umum, manakala Phi-4-mini (alasan yang terlatih) unggul dalam tanda aras matematik walaupun saiznya yang lebih kecil (parameter 3.8B). Kedua -dua model ini menunjukkan kecekapan yang luar biasa, mencabar dan mengalahkan model yang lebih besar di seluruh tanda aras AI utama.

Phi-4-Mini vs O1-Mini: Keupayaan Penalaran dan Pengekodan

Sekarang kita akan membandingkan keupayaan penalaran dan pengaturcaraan Phi-4-Mini dan O1-Mini. Untuk itu, kami akan memberikan arahan yang sama kepada kedua -dua model dan menilai respons mereka dan kami akan menggunakan API untuk memuatkan model. Berikut adalah tugas yang akan kita cuba dalam perbandingan ini:

  1. Menganalisis hubungan pesanan bangunan
  2. Penalaran logik dalam matematik
  3. Mencari substring terpanjang

Tugas 1: Menganalisis hubungan pesanan bangunan

Tugas ini memerlukan model untuk menyimpulkan kedudukan relatif bangunan berdasarkan kekangan yang diberikan dan mengenal pasti bangunan pertengahan.

Prompt: "Terdapat lima bangunan yang dipanggil V, W, X, Y dan Z berturut -turut (tidak semestinya dalam perintah itu). V adalah di sebelah barat W. Z adalah di sebelah timur X dan barat V, W adalah di sebelah barat Y. yang merupakan bangunan di tengah?
Pilihan:
A) v
B) w
C) x
D) y "

Input ke O1-Mini

 dari OpenAI Oped Openai
masa import
import tiktoken
dari paparan import ipython.display, Markdown
dengan terbuka ("path_to_api_key") sebagai fail:
   api_key = file.read (). Strip ()


tugas1_start_time = time.time ()
pelanggan = openai (API_KEY = API_KEY)
Mesej = [
   {
       "Peranan": "Pengguna",
       "Kandungan": "" "
   Terdapat lima bangunan yang dipanggil V, W, X, Y dan Z berturut -turut (tidak semestinya dalam perintah itu).
   V adalah di sebelah barat W. Z adalah di sebelah timur X dan barat V, W adalah di sebelah barat Y.
   Bangunan mana di tengah?
   Pilihan:
   A) v
   B) w
   C) x
   D) y
"" "
   }
]
penyelesaian = client.chat.completions.create (
   Model = "O1-Mini-2024-09-12",
   mesej = mesej
)
Task1_end_time = time.time ()
# Hasil cetak
Cetak (Penyelesaian.Choices [0] .message)
Cetak ("---------------- = Jumlah masa yang diambil untuk tugas 1: -----------------", Task1_end_time-Task1_Start_Time)
# Hasil paparan
dari ipython.display import markdown
paparan (markdown (completion.choices [0] .message.content))
Salin selepas log masuk

Respons oleh O1-Mini

Phi-4-Mini vs O1-Mini: Mana yang lebih baik SLM?

Input ke phi 4-mini

 dari saluran paip import transformer
masa import
dari paparan import ipython.display, Markdown


Dari Transformers Import Automelforcausallm, Bitsandbytesconfig
Quantization_config = bitsandbytesconfig (load_in_8bit = true)


# Memuatkan model secara langsung
Dari Transformers mengimport autotokenizer, automelforcausallm
tokenizer = autotokenizer.from_pretrained ("microsoft/phi-4-mini-instruct", aman_remote_code = true)
Model = automelforcausallm.from_pretrained ("microsoft/phi-4-mini-instruct", aman 


tugas1_start_time = time.time ()
Mesej = [
   {"Peranan": "Sistem", "Kandungan": "Anda seorang pakar dalam menyelesaikan pertanyaan penalaran berangka dan umum."},
   {"Peranan": "Pengguna", "Kandungan": "" "Terdapat lima bangunan yang dipanggil V, W, X, Y dan Z berturut -turut (tidak semestinya dalam perintah itu).
   V Adakah di sebelah barat W. Z adalah di sebelah timur X dan barat V, W adalah di sebelah barat Y.Which adalah bangunan di tengah? Pilihan:
A) v
B) w
C) x
D) y "" "},
]


paip = saluran paip (
   "generasi teks",
   model = model,
   tokenizer = tokenizer,
)
generasi_args = {
   "max_new_tokens": 1024,
   "Return_full_text": palsu,
   "suhu": 0.0,
   "do_sample": palsu,
}
output = paip (mesej, ** generasi_args) #,
Task1_end_time = time.time ()
Cetak ("---------------- = Jumlah masa yang diambil untuk tugas 1: -----------------", Task1_end_time-Task1_Start_Time)
paparan (markdown ((output [0] ['Generated_text'])))
paip = saluran paip ("generasi teks", model = "microsoft/phi-4-mini-instruct", amanah_remote_code = true)
paip (mesej)
Salin selepas log masuk

Respons oleh Phi 4-Mini

Phi-4-Mini vs O1-Mini: Mana yang lebih baik SLM?

Analisis perbandingan

O1-Mini lebih baik daripada PHI-4-Mini dalam kedua-dua kelajuan dan ketepatan untuk tugas ini. O1-Mini dengan cepat memaparkan jawapan yang betul ("V") dengan hanya beberapa langkah, manakala Phi-4-Mini mengambil masa yang lebih lama kerana ia melalui setiap langkah terperinci demi langkah. Walaupun dengan segala usaha itu, Phi-4-Mini masih mendapat jawapan yang salah ("Z"), yang bukanlah salah satu pilihan. Ini menunjukkan bahawa Phi-4-Mini berjuang dengan masalah logik yang mudah, manakala O1-Mini mengendalikannya dengan cepat dan betul. Pemikiran terperinci Phi-4-Mini mungkin berguna untuk masalah yang lebih sukar, tetapi dalam kes ini, ia hanya menyebabkan kelewatan dan kesilapan.

Tugas 2: Penalaran logik dalam matematik

Tugas ini memerlukan model untuk mengenali corak dalam urutan nombor tertentu dan mengenal pasti nombor yang hilang.

Prompt: "Pilih nombor dari antara pilihan yang diberikan yang boleh menggantikan tanda tanya (?) Dalam siri berikut: 16, 33, 100, 401 ,?
Pilihan: a) 1235
B) 804
C) 1588
D) 2006 ″

Input ke O1-Mini

 tugas2_start_time = time.time ()

pelanggan = openai (API_KEY = API_KEY)

Mesej = [
   {
       "Peranan": "Pengguna",
       "Kandungan": "" "Pilih nombor dari antara pilihan yang diberikan yang boleh menggantikan tanda tanya (?) Dalam siri berikut.16, 33, 100, 401 ,?
       A) 1235
       B) 804
       C) 1588
       D) 2006 "" "
   }
]


# Gunakan pengekodan yang serasi (CL100K_BASE adalah pilihan terbaik untuk model OpenAI baru)
pengekodan = tiktoken.get_encoding ("cl100k_base")


# Kirakan jumlah token
input_tokens = jumlah (len (encoding.encode (msg ["kandungan"])) untuk msg dalam mesej)
penyelesaian = client.chat.completions.create (
   Model = "O1-Mini-2024-09-12",
   mesej = mesej
)
output_tokens = len (encoding.encode (completion.choices [0] .message.content))


Task2_end_time = time.time ()
# Hasil cetak
Cetak (Penyelesaian.Choices [0] .message)
Cetak ("---------------- = Jumlah masa yang diambil untuk tugas 2: -----------------", Task2_end_time-Task2_Start_Time)
# Hasil paparan
dari ipython.display import markdown
paparan (markdown (completion.choices [0] .message.content))
Salin selepas log masuk

Respons oleh O1-Mini

Phi-4-Mini vs O1-Mini: Mana yang lebih baik SLM?

Input ke phi 4-mini

 tugas2_start_time = time.time ()
Mesej = [
   {"Peranan": "Sistem", "Kandungan": "Anda seorang pakar dalam menyelesaikan pertanyaan penalaran berangka dan umum."},
   {"peranan": "pengguna", "kandungan": "" "Pilih nombor dari antara pilihan yang diberikan
   Itu boleh menggantikan tanda tanya (?) Dalam siri berikut.16, 33, 100, 401 ,?
A) 1235
B) 804
C) 1588
D) 2006 "" "},
]
paip = saluran paip (
   "generasi teks",
   model = model,
   tokenizer = tokenizer,
)
generasi_args = {
   "max_new_tokens": 1024,
   "Return_full_text": palsu,
   "suhu": 0.0,
   "do_sample": palsu,
}
output = paip (mesej, ** generasi_args) #,
Task2_end_time = time.time ()
Cetak ("---------------- = Jumlah masa yang diambil untuk tugas 2: -----------------", Task2_end_time-Task2_Start_Time)
paparan (markdown ((output [0] ['Generated_text'])))
Salin selepas log masuk

Respons oleh Phi 4-Mini

Phi-4-Mini vs O1-Mini: Mana yang lebih baik SLM?

Analisis perbandingan

O1-Mini dilakukan lebih baik daripada PHI-4-Mini dalam kedua-dua kelajuan dan ketepatan untuk tugas corak nombor ini. O1-Mini dengan cepat mengiktiraf corak dan betul memilih 2006 dalam hanya 10.77 saat. Sebaliknya, Phi-4-Mini mengambil masa yang lebih lama (50.25 saat) dan masih mendapat jawapan yang salah (120). Sementara itu, O1-Mini mengikuti pendekatan yang jelas dan langsung, menyelesaikan masalah dengan betul dan cekap. Ini menunjukkan bahawa O1-Mini lebih baik untuk mengesan corak nombor dengan cepat, sementara Phi-4-Mini cenderung mengatasi masalah mudah, yang membawa kepada kesilapan dan kelewatan.

Tugas 3: Mencari substring terpanjang

Masalah ini meminta anda untuk mencari panjang substring terpanjang dalam rentetan yang diberikan yang tidak mengandungi aksara yang berulang. Sebagai contoh, dalam rentetan "ABCABCBB", substring terpanjang tanpa mengulangi aksara akan menjadi "ABC", dan panjangnya adalah 3.

Prompt: "Memandangkan rentetan, cari panjang substring terpanjang tanpa mengulangi aksara.
Tulis fungsi LongOfLongestSubstring (s: str) -> int yang mengembalikan panjang substring terpanjang tanpa mengulangi aksara. "

Input ke O1-Mini

 tugas3_start_time = time.time ()
pelanggan = openai (API_KEY = API_KEY)
Mesej = [
   {
       "Peranan": "Pengguna",
       "Kandungan": "" "
Memandangkan rentetan s, cari panjang substring terpanjang tanpa mengulangi aksara.


Tulis fungsi LongOfLongestSubstring (s: str) -> int yang mengembalikan panjang substring terpanjang tanpa mengulangi aksara.
"" "
   }
]
# Gunakan pengekodan yang serasi (CL100K_BASE adalah pilihan terbaik untuk model OpenAI baru)
pengekodan = tiktoken.get_encoding ("cl100k_base")
# Kirakan jumlah token
input_tokens = jumlah (len (encoding.encode (msg ["kandungan"])) untuk msg dalam mesej)
penyelesaian = client.chat.completions.create (
   Model = "O1-Mini-2024-09-12",
   mesej = mesej
)
output_tokens = len (encoding.encode (completion.choices [0] .message.content))
tugas3_end_time = time.time ()
# Hasil cetak
Cetak (Penyelesaian.Choices [0] .message)
Cetak ("---------------- = Jumlah masa yang diambil untuk tugas 3: -----------------", Task3_end_time-Task3_Start_Time)
# Hasil paparan
dari ipython.display import markdown
paparan (markdown (completion.choices [0] .message.content))
Salin selepas log masuk

Respons oleh O1-Mini

 def longoflongestsubstring (s: str) -> int:
   "" "
   Mengembalikan panjang substring terpanjang tanpa mengulangi aksara dalam rentetan s.


   Parameter:
   S (str): Rentetan input.


   Pulangan:
   INT: Panjang substring terpanjang tanpa mengulangi aksara.
   "" "
   # Kamus untuk menyimpan kedudukan terakhir setiap watak.
   char_map = {}
   # Inisialisasi penunjuk kiri tetingkap.
   kiri = 0
   # Inisialisasi panjang maksimum.
   max_length = 0


   # Keluarkan rentetan dengan penunjuk yang betul.
   Untuk hak, char dalam menghitung (s):
       # Jika watak itu terdapat di char_map dan kedudukan terakhirnya adalah> = penunjuk kiri,
       # Gerakkan penunjuk kiri ke satu kedudukan kanan kejadian terakhirnya untuk mengelakkan pendua.
       jika char di char_map dan char_map [char]> = kiri:
           kiri = char_map [char] 1


       # Kemas kini/masukkan indeks terkini watak.
       char_map [char] = kanan


       # Kirakan panjang tetingkap semasa dan kemas kini max_length jika perlu.
       current_window_length = kanan - kiri 1
       jika current_window_length> max_length:
           max_length = current_window_length


       # Penyataan debug untuk mengesan keadaan dalaman (boleh dikeluarkan dalam pengeluaran)
       # cetak (f "aksara semasa: {char}, kiri: {kiri}, kanan: {kanan}, tetingkap semasa: '{s [kiri: kanan 1]}', panjang maksimum: {max_length}")


   kembali max_length


# Contoh Penggunaan:
jika __name__ == "__main__":
   test_strings = [
       "Abcabcbb",
       "BBBBB",
       "pwwkew",
       ",
       "A",
       "DVDF"
   ]
   untuk s dalam test_strings:
       cetak (f "substring terpanjang tanpa mengulangi aksara dalam '{s}' adalah panjang {LongOfLongestSubstring (s)}.")
Salin selepas log masuk

Output

Phi-4-Mini vs O1-Mini: Mana yang lebih baik SLM?

Input ke phi 4-mini

 dari saluran paip import transformer
Mesej = [
   {"peranan": "pengguna",
    "Kandungan": "" "Diberi rentetan, cari panjang substring terpanjang tanpa mengulangi aksara.
Tulis fungsi LongOfLongestSubstring (s: str) -> int yang mengembalikan panjang substring terpanjang tanpa mengulangi aksara. "" "},
]
paip = saluran paip ("generasi teks", model = "microsoft/phi-4-mini-instruct", amanah_remote_code = true)
paip (mesej)
Salin selepas log masuk

Respons oleh Phi 4-Mini

 def longoflongestsubstring (s: str) -> int:
   char_index_map = {}
   kiri = 0
   max_length = 0
   untuk julat kanan (len (s)):
       jika s [kanan] di char_index_map dan char_index_map [s [right]]> = kiri:
           kiri = char_index_map [s [kanan]] 1
       char_index_map [s [right]] = right
       max_length = max (max_length, kanan - kiri 1)


   kembali max_length
Cetak ("Substring terpanjang tanpa mengulangi aksara dalam 'Abcabcbb' adalah panjang", LongOfLongestSubstring ("Abcabcbb")))
Cetak ("Substring terpanjang tanpa mengulangi aksara dalam 'BBBBB' adalah panjang", LongOfLongestSubstring ("BBBBB")))
Salin selepas log masuk

Output

Phi-4-Mini vs O1-Mini: Mana yang lebih baik SLM?

Analisis perbandingan

Kedua-dua O1-Mini dan PHI-4-Mini menggunakan kaedah tetingkap gelongsor dengan betul, tetapi kod O1-Mini lebih teratur dan lebih mudah difahami. Ia termasuk penjelasan yang jelas, komen, kes ujian, dan nama pembolehubah yang mudah dibaca. Penyelesaian Phi-4-Mini adalah lebih pendek tetapi tidak mempunyai penjelasan dan struktur, menjadikannya lebih sukar untuk diikuti dalam projek yang lebih besar. O1-Mini juga lebih cepat dan menghasilkan penyelesaian yang lebih bersih, lebih mudah dibaca, sementara Phi-4-Mini memberi tumpuan lebih kepada mengekalkan kod ringkas.

Analisis perbandingan keseluruhan

Inilah analisis perbandingan keseluruhan untuk semua 3 tugas:

Aspek Tugas 1 (Perintah Bangunan) Tugas 2 (Penyelesaian Siri Nombor) Tugas 3 (substring tidak berulang terpanjang)
Ketepatan O1-Mini adalah betul, manakala Phi-4-Mini memberikan jawapan yang salah ("Z," yang bukan pilihan). O1-Mini dengan betul mengenal pasti 2006, manakala Phi-4-Mini mendapat jawapan yang salah (120). Kedua -duanya melaksanakan pendekatan tetingkap gelongsor yang betul.
Kelajuan tindak balas O1-Mini jauh lebih cepat. O1-Mini lebih cepat (10.77s vs 50.25s). O1-Mini bertindak balas sedikit lebih cepat.
Pendekatan O1-Mini menggunakan potongan logik yang cepat, manakala Phi-4-Mini mengambil langkah-langkah yang tidak perlu dan masih membuat kesilapan. O1-Mini mengikuti kaedah pengiktirafan corak berstruktur dan cekap, manakala PHI-4-Mini mengatasi proses dan mendapat hasil yang salah. O1-Mini menyediakan penyelesaian berstruktur dan didokumentasikan dengan baik, manakala Phi-4-Mini menggunakan pendekatan ringkas tetapi kurang dibaca.
Amalan pengekodan Tidak berkenaan. Tidak berkenaan. O1-Mini termasuk docstrings, komen, dan kes ujian, menjadikannya lebih mudah difahami dan diselenggara. PHI-4-Mini memberi tumpuan kepada keringkasan tetapi tidak mempunyai dokumentasi.
Kes penggunaan terbaik O1-Mini lebih dipercayai untuk tugas-tugas penalaran logik, manakala pendekatan langkah demi langkah Phi-4-Mini mungkin berfungsi lebih baik untuk masalah yang kompleks. O1-mini cemerlang dalam pengiktirafan corak bilangan dengan kelajuan dan ketepatan, manakala overanalysis Phi-4-mini boleh menyebabkan kesilapan. O1-Mini lebih baik untuk kod berstruktur, yang boleh dipelihara, manakala Phi-4-Mini lebih baik untuk pelaksanaan ringkas dan ringkas.

Kesimpulan

Secara keseluruhannya, O1-Mini cemerlang dalam penalaran berstruktur, ketepatan, dan pengekodan amalan terbaik, menjadikannya lebih sesuai untuk kod pemecahan masalah dan dikekalkan yang kompleks. Walaupun Phi-4-Mini lebih cepat, pendekatan penerokaannya kadang-kadang membawa kepada ketidakcekapan atau kesimpulan yang salah, terutama dalam tugas-tugas pemikiran. Dalam pengekodan, O1-Mini menyediakan penyelesaian yang didokumentasikan dengan baik dan boleh dibaca, sedangkan Phi-4-Mini mengutamakan keringkasan dengan kos kejelasan. Jika kelajuan adalah kebimbangan utama, Phi-4-Mini adalah pilihan yang kukuh, tetapi untuk ketepatan, kejelasan, dan penyelesaian masalah berstruktur, O1-Mini menonjol sebagai pilihan yang lebih baik.

Soalan yang sering ditanya

Q1. Model mana yang lebih tepat secara keseluruhan?

A. O1-Mini menunjukkan ketepatan yang lebih baik dalam tugas penalaran logik, sementara Phi-4-mini kadang-kadang mengambil pendekatan penerokaan yang membawa kepada kesilapan.

S2. Model mana yang lebih cepat dalam masa tindak balas?

A. Phi-4-Mini secara amnya memberikan respons yang lebih cepat, tetapi kadang-kadang mengambil langkah tambahan sebelum mencapai penyelesaian yang betul.

Q3. Model mana yang lebih baik untuk penyelesaian masalah berstruktur?

A. O1-Mini mengikuti pendekatan yang lebih berstruktur dan logik, menjadikannya lebih sesuai untuk tugas yang memerlukan penalaran yang jelas dan penyelesaian sistematik.

Q4. Model mana yang lebih baik untuk tugas pengiktirafan berangka dan corak?

A. Kedua-dua model dengan betul mengenal pasti nombor yang hilang dalam siri ini, tetapi Phi-4-Mini lebih cepat, manakala O1-Mini lebih teratur dalam pendekatannya.

S5. Model mana yang mengikuti amalan pengekodan yang lebih baik?

A. O1-Mini menyediakan kod berstruktur, didokumenkan, dan boleh dibaca dengan baik, manakala PHI-4-Mini memberi tumpuan kepada keringkasan tetapi tidak mempunyai penjelasan terperinci dan kes ujian.

S6. Bilakah saya harus menggunakan o1-mini melalui phi-4-mini?

A. Gunakan O1-Mini apabila penalaran, ketepatan, dan kejelasan pengekodan berstruktur adalah penting, seperti dalam penyelesaian masalah dan pembangunan perisian yang kompleks.

Atas ialah kandungan terperinci Phi-4-Mini vs O1-Mini: Mana yang lebih baik SLM?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Tag artikel panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Apakah Protokol Konteks Model (MCP)? Apakah Protokol Konteks Model (MCP)? Mar 03, 2025 pm 07:09 PM

Apakah Protokol Konteks Model (MCP)?

Editor Kod Agentik Windsurf AI: Ciri -ciri, Persediaan, dan Kes Gunakan Editor Kod Agentik Windsurf AI: Ciri -ciri, Persediaan, dan Kes Gunakan Feb 28, 2025 pm 04:31 PM

Editor Kod Agentik Windsurf AI: Ciri -ciri, Persediaan, dan Kes Gunakan

Asfafasfasfasfasf Asfafasfasfasfasf Feb 28, 2025 pm 02:37 PM

Asfafasfasfasfasf

garpu garpu Feb 28, 2025 pm 02:39 PM

garpu

Membina ejen penglihatan tempatan menggunakan omniparser v2 dan omnitool Membina ejen penglihatan tempatan menggunakan omniparser v2 dan omnitool Mar 03, 2025 pm 07:08 PM

Membina ejen penglihatan tempatan menggunakan omniparser v2 dan omnitool

Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo Feb 28, 2025 am 10:37 AM

Bagaimana kerja LLM: Pembelajaran Penguatkuasaan, RLHF, DeepSeek R1, Openai O1, AlphaGo

Ejen replit: panduan dengan contoh praktikal Ejen replit: panduan dengan contoh praktikal Mar 04, 2025 am 10:52 AM

Ejen replit: panduan dengan contoh praktikal

Imagen 3: Panduan dengan Contoh di API Gemini Imagen 3: Panduan dengan Contoh di API Gemini Feb 28, 2025 pm 04:26 PM

Imagen 3: Panduan dengan Contoh di API Gemini

See all articles