Para ilmuwan menemukan cara untuk membodohi detektor Deepfake yang canggih

Para ilmuwan menemukan cara untuk membodohi detektor Deepfake yang canggih

 

Para ilmuwan menemukan cara untuk membodohi detektor Deepfake yang canggih
Para ilmuwan menemukan cara untuk membodohi detektor Deepfake yang canggih

Sebuah tim peneliti dari UC San Diego baru-baru ini datang dengan metode

yang relatif sederhana untuk meyakinkan pendeteksi video palsu bahwa pemalsuan yang dihasilkan AI adalah yang sebenarnya.

Video yang dihasilkan oleh AI yang disebut “Deepfakes” mulai membanjiri internet beberapa tahun yang lalu ketika aktor jahat menyadari bahwa mereka dapat digunakan untuk mengeksploitasi perempuan dan, berpotensi, menyebarkan informasi yang salah politik. Generasi pertama dari sistem AI ini menghasilkan pemalsuan yang relatif mudah dikenali tetapi pengembangan lebih lanjut menyebabkan pemalsuan yang lebih sulit untuk dideteksi.

Baca: Cara menghentikan deepfake dari menghancurkan kepercayaan pada masyarakat

Untuk tujuan ini, banyak peneliti telah mengembangkan metode bertenaga AI yang dengannya Deepfakes dan video palsu lain yang dihasilkan oleh AI dapat dideteksi. Sayangnya, mereka semua rentan terhadap metode serangan musuh tim UC San Diego.

Per makalah penelitian tim:

Dalam karya ini, kami menunjukkan bahwa dimungkinkan untuk memintas

detektor seperti itu dengan memodifikasi video palsu yang disintesis menggunakan metode generasi Deepfake yang ada. Kami lebih lanjut menunjukkan bahwa gangguan permusuhan kami kuat terhadap codec kompresi gambar dan video, menjadikannya ancaman dunia nyata.

Video pertama di bawah ini menunjukkan detektor Deepfake bekerja secara normal, yang kedua menunjukkan apa yang terjadi ketika para peneliti menanamkan video dengan informasi yang merugikan yang dirancang untuk menipu detektor:

Detektor video palsu memeriksa setiap bingkai video untuk manipulasi – tidak mungkin membuat bingkai yang dimanipulasi tampak alami di permukaan. Tim UC San Diego mengembangkan suatu proses di mana mereka menyuntikkan informasi permusuhan ke dalam setiap bingkai, sehingga menyebabkan para detektor berpikir bahwa video itu “normal.”

Kredit: Neekhara et al.

Serangan bekerja pada kotak putih dan kotak hitam AI – dengan perbedaan

adalah apakah “pemalsuan” terjadi secara terbuka atau di bawah parameter tersembunyi. Dan, menurut para peneliti, itu sepenuhnya kuat untuk kompresi dan manipulasi lainnya.

Penelitian ini dengan jelas menunjukkan bahwa detektor video palsu yang canggih sangat terbatas. Intinya, tim menyimpulkan bahwa aktor yang buruk dengan pengetahuan domain parsial dapat menipu semua pendeteksi Deepfakes saat ini.

Sumber:

https://www.disdikbud.lampungprov.go.id/projec2014/jasa-penulis-artikel/