TELAH ditemukan invensi untuk melindungi karya berhak cipta dari pelanggaran platform AI Generatif. Pengembangan alat ini tak terlepas dari maraknya kasus pencipta dan pengembang AI.
Alat itu bernama “Nightshade” yang dirancang untuk mencegah penggunaan karya cipta tanpa izin dengan cara mengacaukan model AI.
Platform yang dikembangkan oleh ilmuwan komputer di Universitas Chicago yang dipimpin Profesor Ben Zhao ini, bekerja dengan meracuni data pelatihan AI (data poisoning). Mengubah piksel secara tak kasat mata yang berakibat AI dalam pelatihannya salah mengenali gambar.
Invensi ini tak urung memantik perhatian World Economic Forum yang menurunkan laporan berjudul “What is Nightshade – the new tool allowing artists to ‘poison’ AI models?” (14/11/2023).
Pengembangan alat ini, sebagai respons atas dugaan banyaknya perusahaan AI melatih model AI dengan menggunakan konten berhak cipta tanpa izin.
Profesor Ben Zhao sebagai pentolan proyek ini berharap alat ini dapat menghilangkan praktik pelanggaran hak cipta dan melindungi seniman.
Saat ini, sejumlah seniman dan label rekaman menggugat perusahaan AI, termasuk OpenAI. Tuduhannya adalah pelanggaran hak cipta dalam pelatihan model AI mereka.
Penggunaan platform Nightshade berpotensi mendorong kompensasi atau royalti untuk karya berhak cipta yang digunakan sebagai bahan pelatihan AI.
Menurut World Economic Forum, AI generatif telah menjadi teknologi yang berkembang paling pesat, menempati posisi kedua dalam daftar 10 teknologi baru teratas dunia 2023.
Namun, untuk mencapai potensi penuhnya, WE Forum menekankan bahwa AI generatif harus dikembangkan dengan memenuhi standar etika dan profesional secara terpercaya.
Baca juga:
Model AI dituduh kerap mengunduh konten daring tanpa persetujuan penciptanya. Transparansi teknologi ini ternyata bukan hal mudah. Daftar opt-out yang ada pun tidak ditegakkan secara efektif.
Laporan yang dirilis Universitas Chicago “What Is Nightshade?" (2024) menyebut, mereka telah merancang dan menerapkan Nightshade, alat yang mengubah gambar apa pun menjadi sampel data yang tidak sesuai untuk pelatihan model AI.
Tim telah merancang dan menerapkan Nightshade untuk mengubah gambar menjadi sampel racun. Model yang dilatih tanpa izin pun akan melihat perilaku tidak terduga yang menyimpang dari target yang diharapkan.
Misalnya, instruksi yang meminta gambar sapi terbang di luar angkasa, mungkin malah menjadi gambar tas tangan yang melayang di luar angkasa.
Jika digunakan secara bertanggung jawab, Nightshade dapat membantu mencegah pelatihan model AI yang melanggar hak cipta.
Baca juga: Regulatory Sandbox: Pendukung Startup Menghasilkan AI Tepercaya