Halusinasi AI tersebut sangat bermasalah, khususnya dalam hal penalaran multi-langkah. Jika ada satu kesalahan saja, maka hal itu sudah cukup untuk menggagalkan solusi yang jauh lebih besar.
Perusahaan yang didukung oleh Microsoft tersebut mengatakan bahwa mengurangi halusinasi merupakan langkah penting untuk membangun kecerdasan buatan (AI) yang bisa memahami atau mempelajari tugas-tugas intelektual seperti manusia.
"Kami telah melatih model untuk mencapai state-of-the-art baru dalam pemecahan masalah matematika dengan memberi penghargaan pada setiap langkah penalaran yang benar, alih-alih hanya memberi penghargaan pada jawaban akhir yang benar," jelas perusahaan tersebut dalam penelitian yang diterbitkan pada minggu ini.
Sederhananya, OpenAI ingin melatih model AI untuk menghargai diri mereka sendiri, tentang setiap langkah penalaran yang benar, dan bukan hanya untuk jawaban yang benar. (WHY)