Halo, pembaca nawala Cek Fakta Tempo!
Deepfake, alias konten manipulasi yang diciptakan dengan teknologi kecerdasan buatan (artificial intelligence atau AI), beberapa tahun terakhir ini telah digunakan terutama dalam penyebaran berita palsu. Deepfake mentransplantasikan wajah seseorang ke dalam sebuah adegan beserta suaranya.
Kecanggihan teknologi ini perlu kita waspadai, karena begitu meyakinkannya, tak semua orang mampu mendeteksinya. Bagaimana dengan Anda?
Apakah Anda menerima nawala ini dari teman dan bukan dari e-mail Tempo? Daftarkan surel di sini untuk berlangganan.
Bagian ini ditulis oleh Artika Rachmi Farmita dari Tim Cek Fakta Tempo
Prebunking Series (36)
Mewaspadai Hoaks dalam Bentuk Video Deepfake
Mungkin Anda sudah pernah mencoba aneka filter di media sosial atau aplikasi pihak ketiga yang mengolah ucapan menggunakan Artificial Intelligence (AI). Namun penelitian terbaru oleh University College London menyebutkan bahwa 529 responden hanya mampu mendeteksi ucapan yang dibuat secara artifisial sebesar 73% sepanjang hidup mereka.
Penelitian ini adalah yang pertama secara spesifik menilai kemampuan manusia untuk mendeteksi ucapan yang dibuat secara buatan, dalam bahasa selain bahasa Inggris. Dikutip dari The Guardian, para peneliti menggunakan algoritma text-to-speech, yang dilatih dengan dua set data yang tersedia untuk umum, untuk menghasilkan 50 sampel ucapan deepfake ke dalam bahasa Inggris dan Mandarin.
Sampel suara tersebut diputar untuk mengetahui apakah para responden dapat mendeteksi sampel asli dari ucapan palsu. Para peserta hanya mampu mengidentifikasi ucapan palsu sebanyak 73% dari waktu yang tersedia. Kemampuan mereka sedikit meningkat setelah para peserta dilatih untuk mengenali tanda-tanda suara atau ucapan palsu.
Para peserta sangat bagus dalam mendeteksi deepfake apabila mereka sudah melihat contoh yang sama selama fase pelatihan. Misalnya, jika pembicaranya sama atau klip direkam dalam lingkungan audio yang sama. “Tetapi mereka tidak dapat diandalkan ketika ada perubahan dalam kondisi audio uji, seperti jika ada pembicara yang berbeda,” ujar Kimberly Mai, peneliti pertama dalam riset tersebut.
Hasil penelitian tersebut mungkin menggambarkan pentingnya kita meningkatkan kewaspadaan terhadap hoaks di sekitar kita, terutama yang berupa video deepfake. Sejak tahun 2020, kekhawatiran terhadap bahaya deepfake ini sudah diperbincangkan.
Laporan investigasi Trend Micro yang diterbitkan pada 1 Juni 2020 menyebutkan peningkatan minat anggota forum-forum di dark web mengenai potensi memonetisasi deepfake. Para pengguna forum bawah tanah tersebut kerap membahas bagaimana AI dapat digunakan untuk “eWhoring” atau pemerasan seksual (sextortion), serta untuk menghindari otentikasi ID wajah, terutama di situs-situs kencan.
Trend Micro juga mencontohkan bahwa pelaku bisa memulai aksinya hanya dengan mengumpulkan video-video yang berisi wajah korban serta sampel-sampel suara korban dari akun media sosialnya. Video dan audio itu lalu dibuat menjadi deepfake dan diunggah ke sebuah situs. Kemudian, pelaku bisa memulai hitung mundur dan mengancam bakal mengirim tautan video palsu itu ke semua nomor ponsel di buku kontak korban jika tidak membayar tebusan hingga batas waktu yang ditentukan.
Tak hanya potensi pemerasan, konten deepfake juga bisa memecah belah masyarakat melalui konten-konten di media sosial seputar sosial dan politik. Baru-baru ini, konten deepfake ditemukan Tim Cek Fakta Tempo dalam tips kesehatan abal-abal yang mencatut wajah dokter Terawan.
Bukan tidak mungkin, di masa depan, deepfake seputar dugaan pemalsuan surat suara atau pernyataan para kandidat, bakal beredar. Ini perlu diwaspadai lantaran kita akan menghadapi Pemilu 2024.
Lalu, bagaimana caranya agar kita terhindar dari pemerasan melalui video deepfake? Gunakan sedikit pemikiran analitis daripada fokus hanya pada suara itu sendiri. Apakah Anda diminta untuk memberikan informasi sensitif? Jika ya, ini mengindikasikan adanya motif penipuan.
Bagian ini ditulis oleh Inge Klara Safitri dari Tempo Media Lab
Cek Fakta Pilihan
Benarkah Gambar Anies Baswedan Terbaring Kritis?
Video berdurasi 12 menit 9 detik dengan narasi Anies Baswedan terbaring kritis, beredar di media sosial Facebook. Anies Baswedan digambarkan sedang terbaring dengan perban di bagian kepala. Video tersebut dibagikan pada Selasa, 1 Agustus 2023 dan diberi judul “Tragis. Anies Baswedan Kritis akibat dikeroyok belasan orang tidak dikenal”.
| Hasil Pemeriksaan fakta
Untuk membuktikan klaim di atas, Cek Fakta Tempo mula-mula menonton video yang dibagikan tersebut secara keseluruhan. Hasilnya, narasi yang dibacakan dalam video tersebut mengutip dari berita Liputan6 yang tayang pada 3 Januari 2023. Pemberitaan itu sebenarnya menceritakan tentang pengeroyokan ketua relawan Anies Baswedan di Kota Bukittinggi, Sumatera Barat, bukan Anies Baswedan.
Waktunya Trivia!
Benarkah Tautan Nomor WhatsApp yang Diklaim Pendaftaran Bantuan Sosial dari Jokowi?
Sebuah akun di Facebook membagikan video dengan klaim bahwa Presiden Jokowi akan membagikan uang Bantuan Sosial untuk biaya sekolah, modal usaha, bayar utang, dan renovasi rumah ke masyarakat. Unggahan ini memuat pernyataan yang diklaim dari Presiden Jokowi.
| Bagaimana hasil pemeriksaan faktanya?
Ada Apa Pekan Ini?
Dalam sepekan terakhir, klaim yang beredar di media sosial memiliki isu yang sangat beragam, mulai dari isu politik, sosial dan kesehatan. Buka tautannya ke kanal Cek Fakta Tempo.co untuk membaca hasil periksa fakta berikut:
- Benarkah gambar 50 orang massa demonstrasi Al Zaytun jilid 4 hampit tewas dipukuli?
- Benarkah Video hujan cacing di Cina sebagai tanda kiamat?
- Benarkah TNI kawal jalan sehat Anies Baswedan dan Partai Nasdem?
Kenal seseorang yang tertarik dengan isu disinformasi? Teruskan nawala ini ke surel mereka. Punya kritik, saran, atau sekadar ingin bertukar gagasan? Layangkan ke sini. Ingin mengecek fakta dari informasi atau klaim yang anda terima? Hubungi ChatBot kami.
Ikuti kami di media sosial: