Studi menemukan sebagian besar asisten AI menyampaikan berita palsu, Google Gemini menduduki peringkat teratas dengan kesalahan terbanyak

Studi menemukan sebagian besar asisten AI menyampaikan berita palsu, Google Gemini menduduki peringkat teratas dengan kesalahan terbanyak

Studi menemukan sebagian besar asisten AI menyampaikan berita palsu, Google Gemini menduduki peringkat teratas dengan kesalahan terbanyak

Liga335 daftar – Penelitian ini menilai kinerja asisten AI dalam menjawab pertanyaan terkait berita, dengan fokus pada akurasi, sumber, dan kemampuan untuk membedakan antara fakta dan opini. Penelitian ini dilakukan dalam 14 bahasa, mengevaluasi asisten yang banyak digunakan seperti ChatGPT, Copilot, Gemini, dan Perplexity.
Secara keseluruhan, 22 organisasi media layanan publik dari 18 negara, termasuk Prancis, Jerman, Spanyol, Ukraina, Inggris, dan Amerika Serikat, ikut serta.

Temuan menunjukkan bahwa 45 persen dari tanggapan mengandung setidaknya satu masalah yang signifikan, sementara 81 persen mencakup beberapa bentuk masalah.

Studi mencatat asisten AI dengan masalah serius

Kesalahan sumber menjadi perhatian khusus, dengan sepertiga dari semua tanggapan asisten AI menunjukkan masalah serius seperti atribusi yang hilang, menyesatkan, atau salah. Asisten Gemini Google memiliki tingkat masalah sumber yang sangat tinggi, dengan 72 persen tanggapannya terpengaruh, dibandingkan dengan di bawah 25 persen untuk asisten terkemuka lainnya. Masalah yang berkaitan dengan akurasi ditemukan pada 20 persen dari semua balasan, termasuk informasi yang sudah ketinggalan zaman dan kesalahan faktual.

Contohnya termasuk Gemini yang salah melaporkan perubahan undang-undang tentang vape sekali pakai dan ChatGPT yang menyatakan bahwa Paus Fransiskus adalah Paus saat ini beberapa bulan setelah kematiannya.
Dengan asisten AI yang menjadi alternatif yang lebih populer daripada mesin pencari tradisional untuk berita, ada kekhawatiran bahwa ketidakakuratan mereka dapat merusak kepercayaan publik. EBU telah menyoroti potensi risiko yang ditimbulkan oleh kesalahan-kesalahan ini, dengan menekankan pentingnya informasi yang dapat diandalkan untuk masyarakat demokratis.

Dalam sebuah pernyataan, Direktur Media EBU Jean Philip De Tender mengatakan, “Ketika orang tidak tahu apa yang harus dipercaya, mereka akhirnya tidak mempercayai apa pun, dan hal ini dapat menghalangi partisipasi demokratis.”
Laporan tersebut juga menemukan bahwa, selain masalah sumber, asisten AI juga kesulitan membedakan antara fakta dan opini. Meskipun perusahaan-perusahaan telah menyadari masalah ini, beberapa perusahaan mengakui langkan perlunya perbaikan yang berkelanjutan.

“Gemini, asisten AI Google, telah menyatakan sebelumnya di situs webnya bahwa mereka menerima umpan balik agar dapat terus meningkatkan platform dan membuatnya lebih bermanfaat bagi pengguna.”

Halusinasi adalah masalah yang mendesak dengan AI

Perusahaan teknologi terkemuka lainnya mengakui masalah yang disebut halusinasi, di mana model AI menghasilkan informasi yang salah atau menyesatkan. “OpenAI dan Microsoft sebelumnya mengatakan bahwa halusinasi, ketika model AI menghasilkan informasi yang salah atau menyesatkan, sering kali disebabkan oleh faktor-faktor seperti data yang tidak mencukupi, merupakan masalah yang ingin mereka selesaikan.” Perplexity menyoroti di situs webnya bahwa salah satu modenya difokuskan untuk meningkatkan akurasi faktual, dengan menyatakan, “Perplexity mengatakan di situs webnya bahwa salah satu mode ‘Riset Mendalam’ memiliki akurasi 93,9 persen dalam hal keakuratan.”

Karena asisten AI terus menjadi terkenal dalam cara individu mengakses berita, penulis laporan dan organisasi media yang berpartisipasi dalam laporan ini telah mempersiapkan diri untuk engan terus melakukan perbaikan untuk memastikan informasi yang andal, transparan, dan akurat disampaikan kepada pengguna secara global.

– Berakhir