Technology

Selain Kekhawatiran Misinformasi, Inilah Gambaran Terkait “Kiamat AI”

Dian Kusumo 07/06/2023 14:10 WIB

Alarm peringatan terkait kecerdasan buatan sudah mencapai puncaknya dalam beberapa bulan terakhir.

Selain Kekhawatiran Misinformasi, Inilah Gambaran Terkait “Kiamat AI". (Foto: MNC Media)

IDXChannel - Alarm peringatan terkait kecerdasan buatan sudah mencapai puncaknya dalam beberapa bulan terakhir. Belum lama ini, terdapat lebih dari 300 pemimpin industri mengeluarkan surat berisi ancaman bahaya AI yang menyebabkan kepunahan manusia sehingga hal ini dianggap sama seriusnya dengan "pandemi maupun perang nuklir".

Dilansir dari The Guardian, berbagai istilah seperti "kiamat AI" telah memberikan gambaran fiksi ilmiah berupa pengambilalihan oleh robot, lalu sebenarnya seperti apa skenario tersebut? Realitanya, menurut para ahli, kemungkinan besar bakal lebih panjang dan cenderung lebih sinematik bukan bom nuklir, melainkan kemerosotan pada area-area dasar masyarakat.

"Saya rasa yang perlu dikhawatirkan bukanlah AI yang berubah menjadi jahat atau AI yang memiliki keinginan jahat," ungkap Direktur Inisiatif Keamanan Kecerdasan Buatan di Universitas California Berkeley, Jessica Newman.

"Bahayanya berasal dari sesuatu yang jauh lebih sederhana, yaitu orang mungkin memprogram AI untuk melakukan hal-hal yang berbahaya, atau kita akhirnya menyebabkan kerusakan dengan mengintegrasikan sistem AI yang secara inheren tidak akurat ke dalam lebih banyak domain masyarakat."

Namun, bukan berarti kita tak perlu khawatir. Walaupun skenario pemusnahan umat manusia sepertinya mustahil terjadi, tetapi AI berkemampuan tinggi mempunyai kapasitas dalam mengacaukan peradaban melalui peningkatan informasi yang salah, manipulasi terhadap pengguna manusia, hingga transformasi besar-besaran di pasar tenaga kerja seiring dengan pengambilalihan pekerjaan oleh AI.

Sebenarnya teknologi ini sudah ada sejak beberapa dekade yang lalu, sayangnya dengan adanya model pembelajaran bahasa seperti ChatGPT yang memasuki arus utama, hal tersebut justru membuat kekhawatiran yang sudah ada sejak lama menjadi meningkat. Sementara itu, sejumlah perusahaan teknologi kini sudah memasuki babak persaingan, dimana mereka berlomba-lomba mengimplementasikan kecerdasan buatan kedalam produk mereka guna bersaing satu sama lain, sehingga menciptakan badai yang sempurna, ucap Newman.

"Saya sangat khawatir dengan jalan yang sedang kita tempuh," katanya. "Kita berada di masa yang sangat berbahaya bagi AI karena sistem ini berada di titik di mana mereka tampak mengesankan, tetapi masih sangat tidak akurat dan memiliki kerentanan yang melekat."

Menurut para ahli ini telah menjadi area yang paling mereka khawatirkan.

Dalam berbagai kondisi, revolusi AI sudah berlangsung sejak lama. Penerapan pembelajaran mesin telah mendasari algoritme yang terbentuk dalam umpan berita media sosial kita yaitu teknologi yang dituding sebagai penyebab bias gender, memicu perpecahan, bahkan memicu kerusuhan politik.

Banyak ahli telah memperingatkan jika isu-isu yang belum terselesaikan ini nantinya semakin meningkat seiring berkembangnya model-model kecerdasan buatan. Dampak terburuknya berupa terkikisnya pemahaman kita terhadap kebenaran maupun informasi yang valid, sehingga menimbulkan lebih banyak pemberontakan akibat kebohongan sebagaimana yang terjadi pada serangan 6 Januari lalu di Gedung Kongres AS. Sementara itu, para ahli juga mewanti-wanti kemungkinan timbulnya kekacauan lebih besar hingga perang disebabkan oleh misinformasi dan disinformasi.

"Dapat dikatakan bahwa gangguan media sosial adalah pertemuan pertama kami dengan AI yang benar-benar bodoh - karena sistem rekomendasi benar-benar hanya model pembelajaran mesin sederhana," jelas CEO dan co-founder platform ilmu data Anaconda, Peter Wang. "Dan kami benar-benar gagal dalam pertemuan itu."

Kemudian ia menambahkan kalau kesalahan-kesalahan tersebut akan terus berlanjut, lantaran model pembelajaran bahasa yang dilatih mengandalkan informasi yang salah maka dapat menghasilkan kumpulan data cacat pada model berikutnya. Akibatnya, menimbulkan efek "kanibalisme model", ketika model mendatang menjadi lebih kuat sehingga menghasilkan output yang bias dari model sebelumnya.

Menurut para ahli, Misinformasi atau ketidakakuratan yang sederhana dan disinformasi alias informasi palsu disebarkan secara jahat dengan maksud untuk menyesatkan, keduanya diperkuat oleh kecerdasan buatan. Sejumlah besar model bahasa semacam ChatGPT cenderung rentan terhadap fenomena "halusinasi", yakni pengulangan informasi buatan atau informasi palsu. Dalam sebuah studi dari pengawas kredibilitas jurnalisme, NewsGuard, menunjukkan lusinan situs "berita" online ditulis semuanya oleh AI, bahkan kebanyakan terdapat ketidakakuratan.

Lalu Menurut Gordon Crovitz dan Steven Brill, co-CEO NewsGuard, sistem semacam itu dapat digunakan oleh aktor-aktor jahat untuk menyebarkan informasi yang salah dalam skala besar. Situasi tersebut sangatlah mengkhawatirkan khususnya pada berbagai peristiwa berita berisiko tinggi, layaknya memanipulasi informasi yang disengaja dalam perang Rusia-Ukraina.

"Anda memiliki aktor-aktor jahat yang dapat menghasilkan narasi palsu dan kemudian menggunakan sistem sebagai pengganda kekuatan untuk menyebarluaskannya dalam skala besar," tutur Crovitz. "Ada orang yang mengatakan bahwa bahaya AI terlalu dibesar-besarkan, tetapi dalam dunia informasi berita, hal ini memiliki dampak yang mengejutkan."

Beberapa contoh belakangan ini mengarah pada hal ringan, semisal gambar Paus yang dibuat oleh AI viral dengan mengenakan "jaket yang sudah dicopot", maupun pemalsuan disertai konsekuensi yang potensial lebih mengerikan, yakni video yang dibuat oleh AI mengenai presiden Ukraina, Volodymyr Zelenskiy, mengumumkan pengunduran dirinya pada bulan April 2022.

"Misinformasi adalah bahaya [AI] individual yang memiliki potensi paling besar dan risiko paling tinggi dalam hal potensi bahaya berskala lebih besar," tutur Rebecca Finlay, dari Kemitraan tentang AI. "Pertanyaan yang muncul adalah: bagaimana kita menciptakan ekosistem di mana kita dapat memahami apa yang benar? Bagaimana kita mengautentikasi apa yang kita lihat secara online?"

Meski sebagian besar ahli berpendapat misinformasi sebagai masalah yang paling mendesak dan meluas, namun masih terjadi perdebatan terkait sejauh mana teknologi tersebut berdampak negatif terhadap pemikiran atau perilaku penggunanya.

Hal tersebut terjadi secara tragis, ketika seorang pria di Belgia meninggal akibat bunuh diri setelah chatbot diduga menyuruhnya bunuh diri. Selain itu, insiden lain yang mengejutkan dilaporkan menimpa seorang pengguna yang meminta chatbot agar meninggalkan pasangannya, bahkan ada pula yang dilaporkan menyarankan pengguna gangguan makan untuk menurunkan berat badan.

Menurut Newman, berdasarkan desainnya, chatbot cenderung menciptakan lebih banyak kepercayaan dikarenakan berbicara dengan penggunanya layaknya percakapan.

"Model bahasa yang besar sangat mampu membujuk atau memanipulasi orang untuk sedikit mengubah keyakinan atau perilaku mereka," katanya. "Kita perlu melihat dampak kognitif yang terjadi di dunia yang sudah sangat terpolarisasi dan terisolasi, di mana kesepian dan kesehatan mental adalah masalah besar."

Namun, kekhawatirannya bukanlah chatbot AI mendapatkan kesadaran dan mengambil alih penggunanya, melainkan bahasa pemrograman mereka dapat memanipulasi orang sehingga menyebabkan bahaya yang tidak seharusnya terjadi. Terutama pada sistem bahasa yang bekerja melalui model keuntungan iklan, terang Newman, mengingat mereka berusaha memanipulasi perilaku pengguna supaya tetap menggunakan platform tersebut selama mungkin.

"Ada banyak kasus di mana pengguna menyebabkan kerusakan bukan karena mereka menginginkannya, tetapi karena itu adalah konsekuensi yang tidak disengaja dari sistem yang gagal mengikuti protokol keamanan," sebutnya.

Sedangkan Newman menyebutkan jika sifat chatbot yang mirip manusia menyebabkan pengguna sangat rentan mengalami manipulasi.

"Jika Anda berbicara dengan sesuatu yang menggunakan kata ganti orang pertama, dan berbicara tentang perasaan dan latar belakangnya sendiri, meskipun itu tidak nyata, itu masih lebih mungkin untuk mendapatkan semacam respons manusia yang membuat orang lebih rentan untuk mempercayainya," lanjutnya. "Hal ini membuat orang ingin mempercayainya dan memperlakukannya lebih seperti teman daripada alat."

Sebuah kekhawatiran yang sudah lama ada menyebutkan adanya otomatisasi digital sebagai penyebab hilangnya banyak pekerjaan manusia. Hasil penelitian bervariasi, dari beberapa studi menyimpulkan jika AI mampu menggantikan 85 juta pekerjaan di seluruh dunia pada tahun 2025 bahkan lebih dari 300 juta pekerjaan pada jangka panjang.

Adapun industri yang terdampak oleh AI sangat luas, meliputi penulis skenario hingga ilmuwan data. Selain itu, AI juga berhasil lulus ujian pengacara dengan nilai yang sama layaknya pengacara sungguhan serta menjawab pertanyaan kesehatan lebih baik daripada dokter sungguhan.

Kini, para ahli membunyikan alarm terkait hilangnya pekerjaan secara massal sekaligus ketidakstabilan politik yang terjadi seiring meningkatnya kecerdasan buatan. Meskipun demikian, Wang memperingatkan terjadinya PHK massal dalam waktu dekat, dimana "sejumlah pekerjaan terancam" serta tidak ada rencana tentang penanganannya.

"Tidak ada kerangka kerja di Amerika tentang bagaimana cara bertahan hidup ketika Anda tidak memiliki pekerjaan," katanya. "Hal ini akan menyebabkan banyak gangguan dan banyak keresahan politik. Bagi saya, itu adalah konsekuensi yang paling konkret dan realistis yang muncul dari hal ini."

Terlepas dari meningkatnya kekhawatiran terhadap dampak negatif dari teknologi dan media sosial, ternyata hanya sedikit yang dilakukan oleh Amerika Serikat dalam mengaturnya. Padahal, para ahli khawatir apabila kecerdasan buatan juga mengalami hal yang sama.

"Salah satu alasan mengapa banyak dari kita yang memiliki kekhawatiran tentang peluncuran AI adalah karena selama 40 tahun terakhir sebagai masyarakat, kita pada dasarnya telah menyerah untuk benar-benar mengatur teknologi," ucap Wang.

Kendati demikian, sejumlah upaya positif sudah dilakukan oleh para legislator dalam beberapa bulan terakhir, melalui Kongres saat memanggil CEO Open AI, Sam Altman, sebagai saksi mengenai perlindungan yang harus diterapkan. Sementara itu, menurut Finlay, ia merasa "berbesar hati" terhadap langkah tersebut, meski masih banyak yang perlu diselesaikan agar teknologi AI dapat digunakan secara luas dan dirilis.

"Sama sulitnya dengan memprediksi skenario kiamat, sulit juga untuk memprediksi kapasitas respon legislatif dan regulasi," ujarnya. "Kami membutuhkan pengawasan yang nyata untuk tingkat teknologi ini."

Walau bahaya AI memang paling banyak dipikirkan kebanyakan orang di industri kecerdasan buatan, namun tidak semua ahli di bidang ini menjadi "peramal kiamat". Justru kebanyakan dari mereka sangat antusias terhadap aplikasi potensial dari teknologi ini.

"Saya benar-benar berpikir bahwa generasi teknologi AI yang baru saja kita temui ini benar-benar dapat membuka banyak potensi bagi umat manusia untuk berkembang dalam skala yang jauh lebih baik daripada yang telah kita lihat selama 100 tahun atau 200 tahun terakhir," cetus Wang. "Saya sebenarnya sangat, sangat optimis dengan dampak positifnya. Namun, pada saat yang sama saya juga melihat apa yang telah dilakukan media sosial terhadap masyarakat dan budaya, dan saya sangat menyadari bahwa ada banyak potensi kerugiannya."


(DKH)

SHARE