"Dapat dikatakan bahwa gangguan media sosial adalah pertemuan pertama kami dengan AI yang benar-benar bodoh - karena sistem rekomendasi benar-benar hanya model pembelajaran mesin sederhana," jelas CEO dan co-founder platform ilmu data Anaconda, Peter Wang. "Dan kami benar-benar gagal dalam pertemuan itu."
Kemudian ia menambahkan kalau kesalahan-kesalahan tersebut akan terus berlanjut, lantaran model pembelajaran bahasa yang dilatih mengandalkan informasi yang salah maka dapat menghasilkan kumpulan data cacat pada model berikutnya. Akibatnya, menimbulkan efek "kanibalisme model", ketika model mendatang menjadi lebih kuat sehingga menghasilkan output yang bias dari model sebelumnya.
Menurut para ahli, Misinformasi atau ketidakakuratan yang sederhana dan disinformasi alias informasi palsu disebarkan secara jahat dengan maksud untuk menyesatkan, keduanya diperkuat oleh kecerdasan buatan. Sejumlah besar model bahasa semacam ChatGPT cenderung rentan terhadap fenomena "halusinasi", yakni pengulangan informasi buatan atau informasi palsu. Dalam sebuah studi dari pengawas kredibilitas jurnalisme, NewsGuard, menunjukkan lusinan situs "berita" online ditulis semuanya oleh AI, bahkan kebanyakan terdapat ketidakakuratan.
Lalu Menurut Gordon Crovitz dan Steven Brill, co-CEO NewsGuard, sistem semacam itu dapat digunakan oleh aktor-aktor jahat untuk menyebarkan informasi yang salah dalam skala besar. Situasi tersebut sangatlah mengkhawatirkan khususnya pada berbagai peristiwa berita berisiko tinggi, layaknya memanipulasi informasi yang disengaja dalam perang Rusia-Ukraina.
"Anda memiliki aktor-aktor jahat yang dapat menghasilkan narasi palsu dan kemudian menggunakan sistem sebagai pengganda kekuatan untuk menyebarluaskannya dalam skala besar," tutur Crovitz. "Ada orang yang mengatakan bahwa bahaya AI terlalu dibesar-besarkan, tetapi dalam dunia informasi berita, hal ini memiliki dampak yang mengejutkan."
Beberapa contoh belakangan ini mengarah pada hal ringan, semisal gambar Paus yang dibuat oleh AI viral dengan mengenakan "jaket yang sudah dicopot", maupun pemalsuan disertai konsekuensi yang potensial lebih mengerikan, yakni video yang dibuat oleh AI mengenai presiden Ukraina, Volodymyr Zelenskiy, mengumumkan pengunduran dirinya pada bulan April 2022.
"Misinformasi adalah bahaya [AI] individual yang memiliki potensi paling besar dan risiko paling tinggi dalam hal potensi bahaya berskala lebih besar," tutur Rebecca Finlay, dari Kemitraan tentang AI. "Pertanyaan yang muncul adalah: bagaimana kita menciptakan ekosistem di mana kita dapat memahami apa yang benar? Bagaimana kita mengautentikasi apa yang kita lihat secara online?"
Meski sebagian besar ahli berpendapat misinformasi sebagai masalah yang paling mendesak dan meluas, namun masih terjadi perdebatan terkait sejauh mana teknologi tersebut berdampak negatif terhadap pemikiran atau perilaku penggunanya.
Hal tersebut terjadi secara tragis, ketika seorang pria di Belgia meninggal akibat bunuh diri setelah chatbot diduga menyuruhnya bunuh diri. Selain itu, insiden lain yang mengejutkan dilaporkan menimpa seorang pengguna yang meminta chatbot agar meninggalkan pasangannya, bahkan ada pula yang dilaporkan menyarankan pengguna gangguan makan untuk menurunkan berat badan.
Menurut Newman, berdasarkan desainnya, chatbot cenderung menciptakan lebih banyak kepercayaan dikarenakan berbicara dengan penggunanya layaknya percakapan.
"Model bahasa yang besar sangat mampu membujuk atau memanipulasi orang untuk sedikit mengubah keyakinan atau perilaku mereka," katanya. "Kita perlu melihat dampak kognitif yang terjadi di dunia yang sudah sangat terpolarisasi dan terisolasi, di mana kesepian dan kesehatan mental adalah masalah besar."
Namun, kekhawatirannya bukanlah chatbot AI mendapatkan kesadaran dan mengambil alih penggunanya, melainkan bahasa pemrograman mereka dapat memanipulasi orang sehingga menyebabkan bahaya yang tidak seharusnya terjadi. Terutama pada sistem bahasa yang bekerja melalui model keuntungan iklan, terang Newman, mengingat mereka berusaha memanipulasi perilaku pengguna supaya tetap menggunakan platform tersebut selama mungkin.
"Ada banyak kasus di mana pengguna menyebabkan kerusakan bukan karena mereka menginginkannya, tetapi karena itu adalah konsekuensi yang tidak disengaja dari sistem yang gagal mengikuti protokol keamanan," sebutnya.