Lupa Kata Sandi? Klik di Sini

atau Masuk melalui

Belum Memiliki Akun Daftar di Sini


atau Daftar melalui

Sudah Memiliki Akun Masuk di Sini

Konfirmasi Email

Kami telah mengirimkan link aktivasi melalui email ke [email protected].

Klik link aktivasi dan dapatkan akses membaca 2 artikel gratis non Laput di koran dan Majalah Tempo

Jika Anda tidak menerima email,
Kirimkan Lagi Sekarang

CekFakta #279 Mengenal "Halusinasi" AI Generatif

image-gnews
Ilustrasi Kecerdasan Buatan (Yandex)
Ilustrasi Kecerdasan Buatan (Yandex)
Iklan

Halo, pembaca nawala Cek Fakta Tempo!

Anda mungkin sudah familiar dengan mesin percakapan AI generatif untuk memudahkan pekerjaan. Tapi, pernahkah Anda mencoba menanyakan nama sendiri dan mengecek hasil jawabannya? 

Seorang jurnalis di Jerman bernama Martin Bernklau, pernah mengetikkan namanya dan kota liputannya ke dalam Copilot buatan Microsoft. Ia penasaran bagaimana karya-karya jurnalistiknya disedot oleh chatbot. Namun hasilnya ia malah disebut sebagai pelarian dari institusi psikiatri, pelaku pelecehan anak yang telah dihukum, dan seorang penipu yang memangsa janda. Kok bisa?

Apakah Anda menerima nawala ini dari teman dan bukan dari e-mail Tempo? Daftarkan surel di sini untuk berlangganan.

Bagian ini ditulis oleh Artika Rachmi Farmita dari Tim Cek Fakta Tempo

Mengenal “Halusinasi” AI Generatif, Ketika Kecerdasan Buatan ‘Gagal Paham’

Selama bertahun-tahun, Martin Bernklau bertugas sebagai jurnalis pos pengadilan. Chatbot AI Copilot buatan Microsoft, ternyata ‘gagal paham’ alias keliru mengkaitkan dirinya dengan kasus-kasus kejahatan yang persidangannya pernah ia liput.

Apa yang menimpa Bernklau adalah contoh dari “halusinasi” AI generatif. Halusinasi ini adalah respons yang tidak akurat atau tidak masuk akal terhadap perintah yang diberikan oleh pengguna, dan ini kerap terjadi. Siapa pun yang mencoba menggunakan AI harus selalu berhati-hati, karena informasi dari sistem seperti ini memerlukan validasi dan verifikasi oleh manusia sebelum kita mempercayainya.

Mengapa ini bisa sering terjadi? Menurut IBM, halusinasi AI adalah fenomena di mana model bahasa besar (Large Language Model/LLM)—sering kali chatbot AI generatif atau alat visi komputer—melihat pola atau objek yang tidak ada atau tidak terlihat oleh pengamat manusia, sehingga menghasilkan output yang tidak masuk akal atau sama sekali tidak akurat. 

Umumnya, kita sebagai pengguna ingin output atau jawaban yang sesuai dengan permintaan dari alat AI generatif. Namun, terkadang algoritma AI menghasilkan output yang tidak berdasarkan data pelatihan, salah diinterpretasi oleh transformer, atau tidak mengikuti pola yang dapat dikenali. Dengan kata lain, AI “berhalusinasi” dalam merespons.

Istilah “halusinasi” mungkin terkesan bertolak belakang, mengingat halusinasi biasanya dikaitkan dengan otak manusia atau hewan, bukan mesin. Akan tetapi dari sudut pandang metaforis, istilah ini secara akurat menggambarkan output tersebut, terutama dalam kasus pengenalan gambar dan pola. “Halusinasi AI” ini mirip seperti manusia yang terkadang seolah-olah sedang melihat sosok di awan atau sebentuk wajah di bulan. 

Kekeliruan akibat “halusinasi AI” bisa berdampak signifikan di dunia nyata. Misalnya, model AI di bidang kesehatan bisa salah mengidentifikasi lesi kulit yang jinak sebagai ganas, yang dapat menyebabkan intervensi medis yang tidak perlu. 

Selain itu, “halusinasi AI” juga dapat memperparah penyebaran misinformasi. Misalnya, jika bot berita yang berhalusinasi menanggapi pertanyaan tentang keadaan darurat yang sedang terjadi dengan informasi yang belum diverifikasi. Jawaban “halusinasi” ini dapat cepat menyebarkan kesalahan yang merusak upaya mitigasi.

Pada tahun 2023, kasus “halusinasi AI” juga pernah dialami pembawa acara radio “Armed American Radio”, Mark Walters, yang mengeksplorasi dan mempromosikan hak kepemilikan senjata di Amerika Serikat. Muasalnya, seorang jurnalis bertanya ke ChatGPT tentang kasus hukum yang melibatkan SAF dan jaksa agung negara bagian Washington. ChatGPT lantas berhalusinasi bahwa Walters digugat oleh Second Amendment Foundation (SAF), sebuah organisasi AS yang mendukung hak senjata, karena melakukan penipuan dan penggelapan dana. 

Walters sebenarnya tidak pernah bekerja untuk SAF dan tidak terlibat dalam kasus antara SAF dan negara bagian Washington. Namun, karena yayasan tersebut memiliki tujuan yang mirip dengan acara Walters, konten teks dalam korpus bahasa membangun korelasi statistik antara Walters dan SAF yang menyebabkan halusinasi tersebut.

Hampir mustahil memperbaiki “halusinasi” ini secara permanen di seluruh korpus bahasa, karena datasetnya amat besar. Setiap artikel, kalimat, dan kata yang termasuk dalam korpus harus diperiksa untuk mengidentifikasi dan menghapus bahasa yang bias. Copilot harus menghapus nama Bernklau sebagai penulis artikel untuk memutuskan hubungan tersebut.

Sistem pemrosesan informasi di balik sistem AI Generatif seperti ChatGPT, Copilot, dan Google Gemini dikenal sebagai jaringan saraf pembelajaran mendalam, yang menggunakan sejumlah besar bahasa manusia untuk “melatih” algoritmanya. Dari data pelatihan tersebut, algoritma ini mempelajari hubungan statistik antara berbagai kata dan seberapa mungkin kata-kata tertentu muncul bersama dalam sebuah teks. 

Data yang digunakan untuk melatih Copilot dan LLM lainnya sangat besar. Meskipun detail ukuran dan komposisi dari korpus Copilot atau ChatGPT tidak diungkapkan secara publik, Copilot menggabungkan seluruh korpus ChatGPT ditambah data tambahan khusus dari Microsoft. Pendahulu ChatGPT 4 — ChatGPT 3 dan 3.5 — diketahui telah menggunakan “ratusan miliar kata.” Copilot didasarkan pada ChatGPT 4, yang menggunakan korpus lebih besar daripada ChatGPT 3 atau 3.5. Meskipun kita tidak tahu persis berapa banyak kata yang digunakan, lompatan antar versi ChatGPT cenderung berlipat ganda. Korpusnya juga mencakup buku, jurnal akademik, dan artikel berita.

Solusinya, Microsoft merancang respons otomatis yang diberikan ketika pengguna menanyakan Copilot tentang kasus Bernklau. Respons tersebut merinci halusinasi tersebut dan mengklarifikasi bahwa Bernklau tidak bersalah atas tuduhan apa pun. Microsoft mengatakan bahwa mereka terus memasukkan umpan balik pengguna dan meluncurkan pembaruan untuk meningkatkan responsnya.

Bagian ini ditulis oleh Inge Klara Safitri dari Tempo Media Lab

Cek Fakta Pilihan

Iklan
Scroll Untuk Melanjutkan

Benarkah Ukraina Dijadikan Alat Ekspansi NATO dan Iran Diperalat Rusia?

Sebuah akun Threads menuliskan klaim bahwa Ukraina dijadikan alat ekspansi oleh Aliansi Negara-negara dari Eropa dan Amerika Utara (NATO). Sedangkan Iran, dijadikan alat pembalasan Rusia. Klaim itu beredar di tengah invasi Rusia ke Ukraina yang masih berlangsung hingga saat ini. 

| Hasil Pemeriksaan Fakta

Tempo membagi klaim menjadi 2 klaim dalam memeriksa konten ini. Pertama, Ukraina Dijadikan Alat Ekspansi NATO. Kedua, Iran Diperalat Rusia.

Baca selengkapnya

Waktunya Trivia!

Benarkah Chairul Tanjung Ditangkap?

Sebuah iklan di Instagram membagikan tangkapan layar berita berlogo The Jakarta Post dengan foto Chairul Tanjung ditangkap. Konten itu memuat judul, Chairul Tanjung tidak tahu mikrofon menyala, kami mengucapkan selamat tinggal untuk selamanya. Ini adalah hari yang paling menyedihkan bagi seluruh Indonesia. Foto itu menampakkan Chairul Tanjung memakai rompi tahanan berwarna oranye dengan tangan diborgol dan dikawal oleh petugas kepolisian. 

Mari kita cek faktanya!

Ada Apa Pekan Ini?

Dalam sepekan terakhir, klaim yang beredar di media sosial memiliki beragam isu. Buka tautannya ke kanal Cek Fakta Tempo.co untuk membaca hasil periksa fakta berikut:

Kenal seseorang yang tertarik dengan isu disinformasi? Teruskan nawala ini ke surel mereka. Punya kritik, saran, atau sekadar ingin bertukar gagasan? Layangkan ke sini. Ingin mengecek fakta dari informasi atau klaim yang anda terima? Hubungi ChatBot kami.

Ikuti kami di media sosial:

WhatsApp Channel

Facebook

Twitter

Instagram 

Telegram

Iklan

Berita Selanjutnya



Rekomendasi Artikel

Konten sponsor pada widget ini merupakan konten yang dibuat dan ditampilkan pihak ketiga, bukan redaksi Tempo. Tidak ada aktivitas jurnalistik dalam pembuatan konten ini.

 

Video Pilihan


7 Daftar Aplikasi AI untuk Membantu Jawab Pelajaran Matematika

58 menit lalu

Ilustrasi kecerdasan buatan atau AI. Dok. Shutterstock
7 Daftar Aplikasi AI untuk Membantu Jawab Pelajaran Matematika

Ketahui berbagai aplikasi AI untuk menjawab soal matematika. Aplikasi ini cukup membantu pelajar yang kesulitan memecahkan soal matematika.


Dell Technologies Mendorong Industri Telekomunikasi Masuk ke Era AI

4 jam lalu

Ilustrasi logo Dell. recode.net
Dell Technologies Mendorong Industri Telekomunikasi Masuk ke Era AI

Dell AI untuk Telekomunikasi menggabungkan keahlian dan infrastruktur Dell dengan berbagai mitra di seluruh ekosistem.


Google Bayar Rp 40,8 Triliun untuk Merekrut Kembali Eks Karyawan Ahli AI

6 jam lalu

Noam Shazeer (crunchbase.com)
Google Bayar Rp 40,8 Triliun untuk Merekrut Kembali Eks Karyawan Ahli AI

Noam Shazeer meninggalkan Google pada 2021 setelah Google menolak permintaannya untuk merilis bot obrolan.


Mengenal Fitur AI di Google Meet dan Cara Mengaktifkannya

3 hari lalu

Google akhirnya meluncurkan reaksi emoji kepada orang-orang yang menggunakan Google Meet untuk panggilan video mulai Kamis, 12 Januari 2023. (Google)
Mengenal Fitur AI di Google Meet dan Cara Mengaktifkannya

Fitur AI di Google Meet kini hadir untuk memudahkan pekerjaan, terutama dalam hal pencatatan rapat, transkrip rapat hingga peredam bising.


CekFakta #278 Belajar dari Kencangnya Ujaran Kebencian terhadap Perempuan dan Minoritas di Pilpres 2024

6 hari lalu

Ilustrasi Ujaran Kebencian. shutterstock.com
CekFakta #278 Belajar dari Kencangnya Ujaran Kebencian terhadap Perempuan dan Minoritas di Pilpres 2024

Belajar dari Kencangnya Ujaran Kebencian terhadap Perempuan dan Minoritas di Pilpres 2024


Apa Itu Deepfake AI? Ini Cara Kerja dan Cara Mengatasinya

8 hari lalu

Deepfake AI. Foto: Canva
Apa Itu Deepfake AI? Ini Cara Kerja dan Cara Mengatasinya

Sebagai pengguna internet, Anda wajib mengetahui apa itu deepfake. Sebab, apabila disalahgunakan, teknologi deepfake bisa merugikan.


10 Istilah AI Terbaru Menurut Microsoft, Mana yang Sudah Sering Terdengar?

8 hari lalu

Ilustrasi artificial intelligence (AI). (Antara/Pixabay)
10 Istilah AI Terbaru Menurut Microsoft, Mana yang Sudah Sering Terdengar?

Microsoft kembali merangkum istilah-istilah mengenai AI, seiring pengembangan sistem kecerdasan buatan ke level yang lebih tinggi.


Bisa Diidentifikasi, Ini 5 Eror pada Gambar atau Foto Palsu Bangkitan AI

13 hari lalu

Paus Francis dari Midjourney yang menggunakan AI. Foto : Midjourney
Bisa Diidentifikasi, Ini 5 Eror pada Gambar atau Foto Palsu Bangkitan AI

Sebuah studi oleh Google menemukan lonjakan pesat proporsi gambar-gambar bangkitan AI dalam klaim-klaim cek-fakta hoax sejak awal 2023 lalu.


CekFakta #277 Mewaspadai Bahaya AI di Tangan Ekstremis dan Teroris

14 hari lalu

Ilustrasi kecerdasan buatan atau AI. Dok. Shutterstock
CekFakta #277 Mewaspadai Bahaya AI di Tangan Ekstremis dan Teroris

Mewaspadai Bahaya AI di Tangan Ekstremis dan Teroris


KTT REAIM di Seoul Serukan Kontrol Manusia pada Penggunaan AI di Bidang Militer

16 hari lalu

Ilustrasi Kecerdasan Buatan (Yandex)
KTT REAIM di Seoul Serukan Kontrol Manusia pada Penggunaan AI di Bidang Militer

Kontrol manusia tetap dipertahankan dalam AI di militer agar mencegah penggunaan yang memicu penyebaran senjata pemusnah massal.