Cegah Jawaban Asal-asalan, ChatGPT akan Disempurnakan
Perkembangan teknologi kian bergelora.
IDXChannel - Perkembangan teknologi kian bergelora. Sejumlah perusahaan besar seperti Google dan Microsoft terus meningkatkan tanggapan chatbot mereka dengan latihan menggunakan large language models (LLM) yang kuat.
Melihat perkembangan tersebut, OpenAI yang berada di balik kesuksesan ChatGPT juga tidak mau kalah. Mereka mengumumkan bahwa mereka sudah mengembangkan latihan untuk mendeteksi 'halusinasi'.
Lantas apa itu Halusinasi AI? Singkatnya, halusinasi AI terjadi saat chatbot bertenaga AI seperti ChatGPT atau Google Bard mengarang informasi dan menampilkannya sebagai fakta.
Belum lama ini, ChatGPT mengutip kasus 'palsu' pada pengajuan pengadilan federal New York. Sementara itu, Bard sempat memberikan informasi yang salah terkait teleskop James Webb.
"Bahkan model tercanggih cenderung menghasilkan kebohongan. Mereka menunjukkan kecenderungan untuk menciptakan fakta di saat-saat ketidakpastian," jelas peneliti OpenAI seperti yang dikutip dari gadgetsnow, Kamis (1/6/2023)
Halusinasi AI tersebut sangat bermasalah, khususnya dalam hal penalaran multi-langkah. Jika ada satu kesalahan saja, maka hal itu sudah cukup untuk menggagalkan solusi yang jauh lebih besar.
Perusahaan yang didukung oleh Microsoft tersebut mengatakan bahwa mengurangi halusinasi merupakan langkah penting untuk membangun kecerdasan buatan (AI) yang bisa memahami atau mempelajari tugas-tugas intelektual seperti manusia.
"Kami telah melatih model untuk mencapai state-of-the-art baru dalam pemecahan masalah matematika dengan memberi penghargaan pada setiap langkah penalaran yang benar, alih-alih hanya memberi penghargaan pada jawaban akhir yang benar," jelas perusahaan tersebut dalam penelitian yang diterbitkan pada minggu ini.
Sederhananya, OpenAI ingin melatih model AI untuk menghargai diri mereka sendiri, tentang setiap langkah penalaran yang benar, dan bukan hanya untuk jawaban yang benar. (WHY)