Twitter X Akui Blokir Taylor Swift Buntut Foto Porno Deepfake AI
Pesona Taylor Swift. (Instagram/taylorswift)
13:48
29 Januari 2024

Twitter X Akui Blokir Taylor Swift Buntut Foto Porno Deepfake AI

Platform X alias Twitter membenarkan kalau mereka memblokir nama Taylor Swift yang membuatnya tidak bisa dicari.

Hal itu dilakukan demi mencegah pengguna mencari nama sang penyanyi usai viral foto porno Taylor Swift yang dibuat dari deepfake AI (artificial intelligence atau kecerdasan buatan).

"Ini adalah tindakan sementara dan dilakukan dengan sangat hati-hati karena kami memprioritaskan keselamatan dalam masalah ini," ungkap Head of Business Operations X, Joe Benarroch, dikutip dari Engadget, Senin (29/1/2024).

Nama Taylor Swift tidak bisa dicari dalam beberapa hari terakhir buntut konten pornografi yang dibuat dengan deepfake AI. Mereka yang mencari nama Taylor Swift akan ditampilkan kolom dengan tulisan kesalahan pencarian.

Namun X sempat menuai kritik lantaran begitu lambat dalam menangani kasus foto AI Taylor Swift tersebut. Sejak gambar itu muncul sejak Rabu, justru Swifties (sebutan untuk fans Taylor Swift) yang inisiatif memblokir dan melaporkan (report) massal akun yang menyebarkan konten tersebut.

Sayang foto itu telanjur ramai dilihat. Bahkan konten porno AI Taylor Swift itu sudah mendapatkan views hingga 45 juta kali.

Pihak X pun sempat mengunggah kebijakan platform yang menyatakan kalau konten pornografi dilarang. Perusahaan yang dimiliki Elon Musk itu mengklaim tidak memberikan toleransi kepada konten tersebut.

"Tim kami secara aktif menghapus semua gambar yang teridentifikasi dan mengambil tindakan yang sesuai terhadap akun yang bertanggung jawab mem-posting-nya. Kami memantau situasi dengan cermat untuk memastikan bahwa pelanggaran lebih lanjut segera ditangani, dan konten tersebut dihapus. Kami berkomitmen untuk menjaga lingkungan yang aman dan menghormati semua pengguna," papar X.

Editor: Dicky Prastya

Tag:  #twitter #akui #blokir #taylor #swift #buntut #foto #porno #deepfake

KOMENTAR