Technology

Tak Buru-Buru Buat Aturan AI, Kominfo: Bisa Berdampak Buruk

Tangguh Yudha/MPI 05/02/2024 11:33 WIB

Kominfo menyebut pengaturan artificial intelligence (AI) yang terlalu terburu-buru bisa memberikan dampak buruk.

Tak Buru-Buru Buat Aturan AI, Kominfo: Bisa Berdampak Buruk. (Foto: Tangguh/MNC Media)

IDXChannel - Kementerian Komunikasi dan Informatika (Kominfo) menyebut pengaturan artificial intelligence (AI) yang terlalu terburu-buru bisa memberikan dampak buruk.

Hal itu disampaikan dalam seminar bertajuk "Menuju Etika dan Regulasi AI di Indonesia”, pada Senin (5/2/2024).

Menurut Dr. I Nyoman Adhiarna, M. Eng, Sekretaris Ditjen Aptika Kominfo, terlalu cepat mengatur AI justru akan meminimalisir manfaat yang bisa didapat dari AI. Selain itu juga berpotensi "salah atur" lantaran peraturan yang dibuat cenderung belum dikaji secara matang.

"Mengatur AI ini kalau terlalu cepat diatur belum tentu bagus karena manfaat dari AI belum tentu kita bisa nikmati. Dan kita sendiri belum tentu tahu bagaimana mengaturnya," kata Nyoman dalam paparannya.

Meski demikian, Nyoman menyampaikan terlalu lambat membuat aturan AI juga bisa memberikan dampak yang tidak baik. Ia menilai terlambat membuat aturan AI akan membuat efek buruk yang dapat dihasilkan oleh AI semakin meluas.

"Karena itu kenapa Kominfo menyusun surat edaran mengenai etika penggunaan dan pemanfaatan AI. Surat edaran bisa menjadi panduan bagi pelaku usaha aktivitas pemrograman berbasis kecerdasan artifisial pada PSE lingkup publik dan privat," jelasnya.

Untuk diketahui, Surat Edaran Menteri Komunikasi dan Informatika Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial ditandatangani tanggal 19 Desember 2023. Di dalamnya memuat tiga kebijakan yaitu nilai etika, pelaksanaan nilai etika, dan tanggung jawab dalam pemanfaatan dan pengembangan kecerdasan artifisial.

Kebijakan tentang tanggung jawab dalam pemanfaatan dan pengembangan AI, Kominfo menyatakan PSE lingkup publik dan privat mewujudkan tanggung jawab pengembangan dan pemanfaatannya melalui tiga cara.

Pertama, memastikan AI tidak diselenggarakan sebagai penentu kebijakan dan/atau pengambil keputusan yang menyangkut kemanusiaan.

Kedua, memberikan informasi yang berkaitan dengan pengembangan teknologi berbasis kecerdasan artifisial oleh pengembang untuk mencegah dampak negatif dan kerugian dari teknologi yang dihasilkan.

Ketiga, memperhatikan manajemen risiko dan manajemen krisis dalam pengembangan AI.

(FRI)

SHARE