IDXChannel - Seorang ahli saraf sekaligus asisten profesor di Universitas Osaka, Jepang, Yu Takagi tampak tidak bisa meyakini apa yang dilihatnya.
Sembari duduk menyendiri di mejanya pada Sabtu sore bulan September, ia pun mengamati dengan takjub betapa canggihnya kecerdasan buatan mampu menerjemahkan aktivitas otak subjek guna menciptakan gambar yang sesuai dengan apa yang ia lihat di layar.
Dilansir dari Al Jazeera, menurutnya "Saya masih ingat ketika saya melihat gambar pertama [yang dihasilkan oleh AI]." Lalu ia menambahkan "Saya pergi ke kamar mandi dan melihat diri saya di cermin dan melihat wajah saya, dan berpikir, 'Oke, itu normal. Mungkin saya tidak menjadi gila'".
Alhasil, Takagi bersama dengan timnya memanfaatkan Stable Diffusion (SD), suatu model AI deep learning yang dikembangkan di Jerman pada tahun lalu, untuk menganalisis pemindaian otak dari subjek uji coba hingga 10.000 gambar saat berada di dalam mesin MRI.
Usai Takagi beserta rekan peneliti Shinji Nishimoto merancang model sederhana guna “menerjemahkan” aktivitas otak ke dalam format untuk dibaca, maka model AI tersebut dapat menghasilkan gambar yang sangat akurat dan menyerupai gambar aslinya.