loading...
OpenAI . FOTO/ DAILY
JAKARTA - Sejak diluncurkan tiga tahun lalu, ChatGPT memiliki masalah dalam menampilkan fakta yang salah.
Contoh utamanya adalah seseorang yang mengaku sebagai pendiri situs teknologi saingan padahal ia tidak pernah bekerja untuk perusahaan penerbitan tersebut.
Ini adalah masalah halusinasi yang terjadi pada semua model kecerdasan buatan (AI), dan mengapa hal ini terjadi telah menjadi misteri sejak lama.
Para peneliti di OpenAI menerbitkan sebuah makalah akhir pekan lalu yang berhipotesis bahwa halusinasi terjadi karena proses pra-pelatihan model AI berfokus pada upaya model untuk memprediksi kata berikutnya dengan tepat, terlepas dari apakah kata tersebut benar atau salah.