Content WritingSEO

Halusinasi AI – Mesin Pun bisa punya Bias?

Ketika kita mengetik prompt pada AI seperti ChatGPT, Gemini, Perplexity, dll. jawabannya justru malah ngawur dan tidak faktual? Itu adalah halusinasi AI.

Wah, kok bisa AI salah memberikan jawaban? Yuk kita telusuri!

Apa itu Halusinasi AI?

Halusinasi AI adalah ketika AI salah memberikan jawaban atau memberikan jawaban yang punya bias dan subjektivitas tinggi (tidak objektif).

Contoh Halusinasi AI

Terdapat beberapa jenis halusinasi AI, yaitu:

  • Prediksi yang salah (menjelaskan hal yang hampir tidak mungkin terjadi)
  • False positive (mengidentifikasi sebuah ancaman, padahal bukan)
  • False negative (menganggap ancaman bukanlah suatu ancaman)

Contoh halusinasi AI yang terkenal adalah pemberian lem pada pizza bisa membuat makanan tersebut enak.

Featured image pada blog post ini juga menjelaskan contoh halusinasi AI loh~

Penyebab Halusinasi AI

Menurut Google Cloud, ada beberapa penyebab halusinasi AI, yaitu:

  • Training data yang kurang
  • Prompt yang kurang lengkap penjelasannya
  • Asumsi yang salah oleh AI-nya
  • Bias pada data

Dari cara kerja AI, mereka menemukan pola pada data yang diberikan oleh mereka. Jika datanya tidak lengkap, salah, atau bias, maka kemungkinan besar akan terjadi kesalahan.

Kalau kita lihat, bagian dari training data, sebenarnya ini adalah alasan mengapa content writer manusia masih dibutuhkan. AI masih butuh data untuk mereka jadikan rujukan.

Bahaya Halusinasi AI

Halusinasi AI sangat berbahaya karena sama saja menimbulkan hoax dan memberikan efek yang negatif karena pesannya tidak bersifat faktual. Hal ini berbahaya untuk kasus informasi pada niche YMYL seperti kesehatan dan keuangan.

Informasi salah dari AI alias halusinasi dapat menyebabkan kehilangan nyawa (salah informasi soal hal vital dalam kesehatan) dan kemiskinan (saran trading yang salah). Dampaknya tidak hanya materil, tetapi jadi juga imateril.

Cara Mencegah Halusinasi AI

Mungkin ini lebih tepatnya untuk AI engineer. Intinya adalah perlengkap data, buat batasan, latih AI-nya untuk sumber tertentu, dan bikin semacam template, sertakan juga do and don’t untuk AI-nya. Hal ini mirip dengan semacam membuat brief untuk bawahanmu.

Cara Menanggapi Halusinasi AI sebagai User

Ketika menemukan halusinasi AI, penting bagi kita untuk memberi tahu bahwa sang AI telah salah memberikan jawaban.

Anggaplah jawaban dari AI itu belum tentu benar. Cek lagi apakah informasi dari AI faktual atau tidak.

Lagi-lagi, AI search yang masih rawan halusinasi inilah alasan mengapa SEO tidak akan mati dalam waktu dekat 🙂

Jadilah User yang Cerdas

Mau tidak mau, suka tidak suka. AI bisa saja akan mengalami halusinasi karena mereka hanya mengambil dari data dan merangkumnya saja. Jika banyak data berupa informasi yang bias atau hoax, wajar saja AI berhalusinasi.

Justru, kitalah sebagai user yang dituntut untuk kritis dan cerdas ketika menerima informasi dari AI. Jadilah user yang kritis, bukan justru manut-manut saja dengan AI. Biasakan diri untuk skeptis 🙂

Penyedia data juga seharusnya bertanggung jawab sebagai penyedia data bagi AI. Jangan berikan informasi yang salah atau penjelasannya asal-asalan. Pakailah model komunikasi Berlo, di mana kedua sender dan receiver harus punya aspek yang mirip agar komunikasinya efektif.

Akhir kata, kamu saja belum tentu percaya informasi dari keluarga dan teman sendiri. Kok bisa percaya tanpa keraguan dengan AI?

Referensi:

https://cloud.google.com/discover/what-are-ai-hallucinations?hl=en

https://www.ibm.com/topics/ai-hallucinations

Author

Leave a Reply

Your email address will not be published. Required fields are marked *