Keamanan DeepSeek
Kepala Eksekutif Oxford Information Labs, Emily Taylor, mengatakan setiap orang perlu mewaspadai risiko keamanan data. Sebab, menurut dia, model AI apa pun yang tersedia secara terbuka melalui web atau aplikasi seperti DeepSeek mengumupulkan data dari permintaan dan pertanyaan yang diajukan. Data serta informasi itu tersedia bagi pembuat aplikasi AI, begitu pula dengan jawabannya.
"Jadi, siapa pun yang bekerja di area rahasia atau keamanan nasional perlu mewaspadai risiko tersebut," ujarnya kepada BBC.
Dr Richard Whittle dari Universitas Salford mengatakan dia memiliki berbagai kekhawatiran tentang data dan privasi di aplikasi tersebut. Hal itu juga berlaku bagi aplikasi chatbox AI buatan AS.
"Konsumen harus selalu waspada, terutama dalam hal sensasi dan ketakutan kehilangan aplikasi baru yang sangat populer," katanya.
Badan pengatur data Inggris, Kantor Komisioner Informasi, telah mendesak masyarakat untuk menyadari hak-hak mereka terkait informasi yang digunakan untuk melatih model AI.
Ketika ditanya oleh BBC News apakah mereka memiliki kekhawatiran yang sama dengan pemerintah Australia, mereka mengatakan dalam sebuah pernyataan: “Pengembang dan penyebar AI Generatif perlu memastikan orang-orang memiliki informasi yang bermakna, ringkas, dan mudah diakses tentang penggunaan data pribadi mereka dan memiliki proses yang jelas dan efektif untuk memungkinkan orang menjalankan hak informasi mereka.
“Kami akan terus bekerja sama dengan para pemangku kepentingan untuk mendorong langkah-langkah transparansi yang efektif, tanpa ragu mengambil tindakan ketika ekspektasi regulasi kami diabaikan,” tulis lembaga tersebut.
(Febrina Ratna Iskana)