


Mengapa AI Halllucinating lebih kerap, dan bagaimana kita boleh menghentikannya?
Jul 08, 2025 am 01:44 AMKecerdasan buatan yang lebih maju (AI) menjadi, semakin cenderung "halusinasi" dan memberikan maklumat palsu atau tidak tepat.
Menurut penyelidikan oleh OpenAI, model penalaran yang paling baru dan berkuasa-O3 dan O4-mini-kadar halusinasi sebanyak 33% dan 48%, apabila diuji menggunakan penanda aras PersonqA. Ini lebih daripada dua kali ganda kadar yang dilihat dalam model O1 yang lebih tua. Walaupun O3 menawarkan tindak balas yang lebih tepat berbanding dengan versi terdahulu, ia juga menunjukkan kecenderungan yang lebih tinggi terhadap halusinasi yang salah.
Trend ini menimbulkan kebimbangan mengenai ketepatan dan kebolehpercayaan model bahasa besar (LLM), seperti AI Chatbots, kata Eleanor Watson , ahli IEEE dan jurutera etika AI di Universiti Singularity.
"Apabila sistem menghasilkan fakta, petikan, atau peristiwa yang dibuat seperti maklumat-dengan keseragaman dan koheren yang sama digunakan untuk kandungan faktual, ia boleh mengelirukan pengguna dengan cara yang halus tetapi penting," kata Watson kepada Sains Live.
Berkaitan: Model AI Canggih dari Openai dan DeepSeek Pengalaman 'Runtuh Lengkap' Apabila berhadapan dengan masalah yang terlalu kompleks, penemuan kajian
Pakar menekankan bahawa isu halusinasi ini menyoroti kepentingan menilai dan memantau output dengan teliti yang dihasilkan oleh LLM dan model pemikiran.
Adakah AIS impian domba elektrik?
Ciri utama model penalaran adalah keupayaannya untuk menangani tugas -tugas yang kompleks dengan memecahkannya ke bahagian yang lebih kecil dan membangunkan strategi untuk menyelesaikan setiap orang. Tidak seperti model yang bergantung semata-mata pada kebarangkalian statistik untuk menghasilkan jawapan, model penalaran mencipta strategi penyelesaian masalah yang serupa dengan pemikiran manusia.
Untuk mendaftar untuk Sains Live Science Daily Order untuk AI untuk menjana penyelesaian yang kreatif dan berpotensi novel, ia mesti terlibat dalam beberapa tahap halusinasi -sebagainya, ia akan terhad kepada data yang telah dipelajari yang telah dipelajari.
"Adalah penting untuk memahami bahawa halusinasi bukanlah kecacatan tetapi ciri AI," kata Sohrob Kazerounian , penyelidik AI di Vectra AI, dalam temu bual dengan Sains Live. "Sebagai rakan sekerja yang pernah meletakkannya, 'segala -galanya yang dihasilkan adalah halusinasi, hanya beberapa halusinasi yang berlaku.' Jika AI hanya menghasilkan salinan tepat tentang apa yang telah dilihat semasa latihan, AI akan menjadi tidak lebih daripada enjin carian besar -besaran. "
"Ini bermakna hanya menulis kod yang telah ditulis sebelum ini, hanya menemui molekul yang sifatnya sudah diketahui, dan hanya menjawab soalan -soalan kerja rumah yang telah ditanya.
Secara berkesan, LLMS dan sistem AI yang mereka kuasa untuk halusinasi untuk menghasilkan kandungan asal dan bukan sekadar mengulangi pengetahuan yang ada. Secara konseptual, ini sama dengan bagaimana manusia bermimpi atau membayangkan senario untuk mencetuskan idea -idea baru.
Berfikir terlalu banyak di luar kotak
Walau bagaimanapun, halusinasi AI menjadi bermasalah apabila matlamatnya adalah untuk menyampaikan maklumat yang tepat dan betul, terutamanya jika pengguna menerima output tanpa pengesahan.
"Ini terutamanya mengenai bidang di mana ketepatan fakta adalah kritikal, seperti ubat, undang -undang, atau kewangan," jelas Watson. "Walaupun model yang lebih maju dapat mengurangkan kesilapan faktual yang jelas, bentuk halusinasi yang lebih halus terus berlangsung.
Lebih -lebih lagi, cabaran ini seolah -olah berkembang apabila teknologi AI berlangsung. "Apabila model bertambah baik, kesilapan sering menjadi kurang jelas namun lebih sukar untuk dikesan," kata Watson. "Kandungan yang direka kini tertanam dalam naratif yang meyakinkan dan rantaian penalaran logik. Ini mewujudkan bahaya yang unik: pengguna mungkin tidak menyedari terdapat kesilapan dan boleh merawat output sebagai muktamad.
Kazerounian menyokong pandangan ini. "Walaupun optimis yang meluas bahawa halusinasi AI akan berkurangan dari masa ke masa, bukti menunjukkan bahawa model penalaran yang lebih baru sebenarnya boleh halusinasi lebih kerap daripada yang lebih mudah -dan tidak ada konsensus mengapa ini berlaku," katanya.
Keadaan ini semakin rumit oleh kesukaran untuk memahami bagaimana LLM tiba pada kesimpulan mereka, menarik selari dengan bagaimana kita masih tidak memahami sepenuhnya bagaimana fungsi otak manusia.
Dalam esei baru -baru ini, Dario Amodei , Ketua Pegawai Eksekutif AI Company Anthropic, menunjukkan kekurangan ketelusan mengenai bagaimana AIS menjana respons. "Apabila AI generatif meringkaskan dokumen kewangan, kami tidak mempunyai pemahaman yang konkrit tentang mengapa ia membuat pilihan perkataan tertentu atau mengapa ia kadang -kadang salah walaupun biasanya betul," tulisnya.
Kazerounian menegaskan bahawa akibat dari AI menghasilkan maklumat palsu sudah sangat nyata. "Tidak ada kaedah yang boleh dipercayai untuk memastikan LLM dengan betul menjawab soalan mengenai mana -mana dataset yang diberikan," katanya. "Contoh-contoh rujukan yang tidak wujud, chatbots perkhidmatan pelanggan yang mencipta dasar syarikat, dan ketidaktepatan yang lain kini sangat membimbangkan."
Menghancurkan impian
Kedua -dua Kazerounian dan Watson memberitahu Sains Live bahawa menghapuskan halusinasi AI sepenuhnya mungkin sukar. Walau bagaimanapun, mungkin ada cara untuk mengurangkan kesannya.
Watson mencadangkan bahawa "penjanaan semula pengambilan semula," yang mengikat output model kepada sumber pengetahuan luaran yang disahkan, dapat membantu kandungan AI-dihasilkan dalam data faktual.
"Strategi lain melibatkan penstrukturan proses penalaran model. Dengan mendorongnya untuk mengesahkan outputnya sendiri, membandingkan pandangan yang berbeza, atau mengikuti langkah -langkah logik, kerangka penalaran perancah meminimumkan spekulasi yang tidak terkawal dan meningkatkan konsistensi," jelas Watson. Beliau menambah bahawa ini boleh disokong oleh kaedah latihan yang direka untuk menggalakkan model untuk mengutamakan ketepatan, bersama dengan pembelajaran tetulang dari penilai manusia atau AI untuk mempromosikan tindak balas yang lebih disiplin dan berasaskan fakta.
Atas ialah kandungan terperinci Mengapa AI Halllucinating lebih kerap, dan bagaimana kita boleh menghentikannya?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undress AI Tool
Gambar buka pakaian secara percuma

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Kebimbangan utama dengan teknologi besar yang bereksperimen dengan kecerdasan buatan (AI) bukanlah ia mungkin menguasai kemanusiaan. Isu sebenar terletak pada ketidaktepatan model bahasa besar (LLMS) yang berterusan seperti chatgpt AI, Gemini Google, dan

Kecerdasan buatan yang lebih maju (AI) menjadi, semakin cenderung "halusinasi" dan memberikan maklumat palsu atau tidak tepat. Menurut penyelidikan oleh Openai, model penalaran yang paling baru dan berkuasa-O3 dan O4-mini-Exhibited H

Agensi Jenayah Kebangsaan UK (NCA) telah menahan empat individu yang disyaki terlibat dalam serangan siber yang menyasarkan Marks dan Spencer (M & S), Co-op, dan Harrods.

Model penalaran kecerdasan buatan (AI) tidak begitu mampu seperti yang muncul. Pada hakikatnya, prestasi mereka rosak sepenuhnya apabila tugas menjadi terlalu rumit, menurut penyelidik di Apple. Model -model yang rumit seperti Claude Anthropic, terbuka

Kriptografi pasca kuantiti telah menjadi keutamaan bagi pemimpin keselamatan siber, namun penyelidikan baru-baru ini menunjukkan bahawa sesetengah organisasi tidak merawat ancaman dengan keseriusan yang diperlukan. Komputer Quantum akhirnya dapat menyelesaikan t

Serangan ransomware membawa mereka kos pemulihan purata sebanyak $ 4.5 juta, menurut satu tinjauan baru -baru ini, yang juga mendapati sejumlah besar perniagaan telah terjejas oleh malware pada tahun lalu.

Red Hat telah memperkenalkan platform layan diri baru yang direka untuk memberikan akses yang lebih mudah kepada program pemajunya. Inisiatif Linux Red Hat Enterprise untuk Pemaju Perniagaan bertujuan untuk membantu pasukan pembangunan dalam membina, menguji, dan menggunakannya

Melabur dalam laman web baru atau platform digital adalah penting untuk sebarang perniagaan. Sama ada anda melancarkan permulaan, membina semula tapak warisan, atau memperluaskan jangkauan anda dengan kedai e -dagang baru, pasukan yang anda pilih untuk membawa visi anda ke kehidupan boleh membuat atau
