JAKARTA - Pemerintah India pada Rabu 22 Oktober mengusulkan aturan baru yang mewajibkan perusahaan kecerdasan buatan (AI) dan media sosial untuk secara jelas memberi label pada konten yang dihasilkan oleh AI. Langkah ini diambil guna menekan penyebaran deepfake dan disinformasi, mengikuti kebijakan serupa yang lebih dulu diterapkan Uni Eropa dan China.
Dengan hampir satu miliar pengguna internet dan keberagaman etnis serta agama yang tinggi, India menghadapi risiko besar dari penyebaran berita palsu yang bisa memicu konflik sosial. Kekhawatiran meningkat setelah sejumlah video deepfake beredar menjelang pemilu, membuat pejabat pemerintah siaga penuh.
Menurut rancangan aturan yang dirilis Kementerian Teknologi Informasi India, setiap konten visual hasil AI harus diberi label yang mencakup setidaknya 10% dari luas tampilan visual atau 10% durasi awal untuk konten audio. Ketentuan ini menambah tanggung jawab bagi perusahaan besar seperti OpenAI, Meta, X (Twitter), dan Google.
Platform media sosial juga diwajibkan meminta pernyataan pengguna apakah unggahan mereka mengandung konten buatan AI, serta menerapkan langkah teknis yang wajar untuk memastikan sistem pengecekan berjalan efektif. Pemerintah menegaskan, aturan ini akan “menjamin pelabelan yang jelas, metadata yang dapat ditelusuri, serta transparansi untuk seluruh konten AI yang tampil di ruang publik.”
Pemerintah membuka masukan publik dan industri hingga 6 November mendatang sebelum aturan ...