Ketika kita mengetik prompt pada AI seperti ChatGPT, Gemini, Perplexity, dll. jawabannya justru malah ngawur dan tidak faktual? Itu adalah halusinasi AI.
Wah, kok bisa AI salah memberikan jawaban? Yuk kita telusuri!
Halusinasi AI adalah ketika AI salah memberikan jawaban atau memberikan jawaban yang punya bias dan subjektivitas tinggi (tidak objektif).
AI generatif atau AI search, seperti Google AI overview bisa berhalusinasi.
Terdapat beberapa jenis halusinasi AI, yaitu:
Contoh halusinasi AI yang terkenal adalah pemberian lem pada pizza bisa membuat makanan tersebut enak.
Featured image pada blog post ini juga menjelaskan contoh halusinasi AI loh~
Menurut Google Cloud, ada beberapa penyebab halusinasi AI, yaitu:
Dari cara kerja AI, mereka menemukan pola pada data yang diberikan oleh mereka. Jika datanya tidak lengkap, salah, atau bias, maka kemungkinan besar akan terjadi kesalahan.
Kalau kita lihat, bagian dari training data, sebenarnya ini adalah alasan mengapa content writer manusia masih dibutuhkan. AI masih butuh data untuk mereka jadikan rujukan.
Halusinasi AI sangat berbahaya karena sama saja menimbulkan hoax dan memberikan efek yang negatif karena pesannya tidak bersifat faktual. Hal ini berbahaya untuk kasus informasi pada niche YMYL seperti kesehatan dan keuangan.
Informasi salah dari AI alias halusinasi dapat menyebabkan kehilangan nyawa (salah informasi soal hal vital dalam kesehatan) dan kemiskinan (saran trading yang salah). Dampaknya tidak hanya materil, tetapi jadi juga imateril.
Mungkin ini lebih tepatnya untuk AI engineer. Intinya adalah perlengkap data, buat batasan, latih AI-nya untuk sumber tertentu, dan bikin semacam template, sertakan juga do and don’t untuk AI-nya. Hal ini mirip dengan semacam membuat brief untuk bawahanmu.
Ketika menemukan halusinasi AI, penting bagi kita untuk memberi tahu bahwa sang AI telah salah memberikan jawaban.
Anggaplah jawaban dari AI itu belum tentu benar. Cek lagi apakah informasi dari AI faktual atau tidak.
Lagi-lagi, AI search yang masih rawan halusinasi inilah alasan mengapa SEO tidak akan mati dalam waktu dekat 🙂
Mau tidak mau, suka tidak suka. AI bisa saja akan mengalami halusinasi karena mereka hanya mengambil dari data dan merangkumnya saja. Jika banyak data berupa informasi yang bias atau hoax, wajar saja AI berhalusinasi.
Justru, kitalah sebagai user yang dituntut untuk kritis dan cerdas ketika menerima informasi dari AI. Jadilah user yang kritis, bukan justru manut-manut saja dengan AI. Biasakan diri untuk skeptis 🙂
Penyedia data juga seharusnya bertanggung jawab sebagai penyedia data bagi AI. Jangan berikan informasi yang salah atau penjelasannya asal-asalan. Pakailah model komunikasi Berlo, di mana kedua sender dan receiver harus punya aspek yang mirip agar komunikasinya efektif.
Akhir kata, kamu saja belum tentu percaya informasi dari keluarga dan teman sendiri. Kok bisa percaya tanpa keraguan dengan AI?
Referensi:
https://cloud.google.com/discover/what-are-ai-hallucinations?hl=en
https://www.ibm.com/topics/ai-hallucinations
November 2022, pekerja kreatif di seluruh dunia dikejutkan oleh hadirnya produk OpenAI bernama ChatGPT. Perusahaan…
Metrik di performance marketing ada banyak, salah satunya adalah CPL atau cost per leads yang…
Dalam performance marketing, bahkan SEO. Kita bisa menghitung biaya yang harus dikeluarkan untuk mengakuisisi satu…
Dengan kemunculan AI generatif, terdapat istilah baru, yaitu GEO. GEO cukup berbeda dengan SEO karena…
Studi sebelumnya, pemilik blog ini menguji rekomendasi blog untuk belajar SEO. Studi dengan kueri lokal…
Studi sebelumnya menyoroti bahwa GEO memberikan jawaban yang tidak selalu sama meski prompt-nya sama. Meski…