"Secara implementasi, maka setiap organisasi yang menerapkan AI system, itu harus kita pastikan bahwasanya AI system ini minimal sudah diuji agar tidak mengeluarkan bias atau halusinasi. Karena itu adalah dua risiko utama di AI, yaitu masalah halusinasi dan bias. Jadi perlu diingat, dua ini yang paling utama," kata dia.
Eryk juga memperkenalkan konsep AI Red Teaming, yaitu proses pengujian ketahanan dan keamanan sistem AI sebelum digunakan secara luas. Konsep ini bertujuan untuk memastikan teknologi yang dikembangkan benar-benar aman dan tidak membahayakan pengguna atau sistem yang lebih luas.
"AI safety, itu adalah hal yang ingin dicapai oleh kita semua. Bahwasanya bagaimana menggunakan AI secara aman. Artinya penggunaan AI dan juga siber ini kan berkaitan dengan teknologi, dan kemudian bagaimana tingkat keamanan sendiri untuk melindungi data-data pribadi ataupun privasi dari seluruh anggota yang bergabung," ujar dia.
(Dhera Arizona)