CEO ChatGPT Terkejut: Banyak Orang Terlalu Percaya pada AI, Padahal Masih Sering Salah

  • Jun 26, 2025
  • Novi Anggara
  • Informasi, Activision Intelligent

San Francisco – CEO OpenAI, Sam Altman, menyampaikan kekhawatirannya terhadap tren meningkatnya kepercayaan publik terhadap ChatGPT, chatbot berbasis kecerdasan buatan (AI) yang dikembangkan perusahaannya. Dalam sebuah wawancara, Altman mengungkapkan bahwa banyak orang cenderung menerima jawaban dari ChatGPT tanpa mempertanyakan kebenarannya, meskipun mereka mengetahui bahwa AI tersebut masih bisa membuat kesalahan atau bahkan menghasilkan informasi yang tidak akurat — yang dikenal sebagai “halusinasi”.

"Yang membuat saya khawatir adalah banyak orang percaya sepenuhnya pada ChatGPT, padahal kami selalu mengingatkan bahwa teknologi ini belum sempurna," ujar Altman. Ia menyebut fenomena ini sebagai bentuk paradoks, karena meskipun masyarakat tahu bahwa AI bisa salah, gaya bicara ChatGPT yang lancar dan meyakinkan seringkali membuat pengguna terbuai dan menganggapnya sebagai sosok ahli — atau bahkan seperti teman pribadi.

Altman sendiri mengaku menggunakan ChatGPT dalam kehidupan sehari-harinya, termasuk untuk mencari saran seputar parenting atau pengasuhan anak. Namun ia menekankan pentingnya tetap berpikir kritis terhadap setiap jawaban yang diberikan oleh AI. “Saya juga pakai ChatGPT, tapi bukan berarti saya mempercayainya 100 persen. Saya selalu cross-check atau mempertimbangkan jawaban yang saya dapatkan,” tegasnya.

Menurut Altman, masalah utamanya bukan pada teknologi itu sendiri, melainkan pada ekspektasi dan pola pikir pengguna. “Kami merancang ChatGPT agar menjadi alat bantu, bukan sumber kebenaran mutlak,” tambahnya. Ia menyarankan masyarakat untuk menggunakan AI dengan bijak, seperti halnya kita menggunakan mesin pencari: sebagai alat bantu informasi, bukan penentu akhir keputusan.

Fenomena ini menyoroti tantangan besar di era kecerdasan buatan. Semakin canggih dan natural AI berkomunikasi, semakin besar pula kemungkinan pengguna terjebak dalam ilusi bahwa mereka sedang berinteraksi dengan sesuatu yang infalibel. Padahal, AI seperti ChatGPT bekerja berdasarkan prediksi pola bahasa dan tidak memiliki pemahaman atau kesadaran seperti manusia.

OpenAI sendiri telah mengembangkan berbagai fitur untuk mengingatkan pengguna tentang keterbatasan ChatGPT. Misalnya, munculnya catatan bahwa “ChatGPT bisa saja menghasilkan informasi yang tidak akurat” di halaman antarmuka, serta fitur “citation” pada beberapa versi untuk mendukung jawaban dengan sumber yang dapat diverifikasi. Meski demikian, tantangan terbesar tetap terletak pada edukasi publik.

Di akhir pernyataannya, Altman kembali menegaskan: “Kami berharap ChatGPT bisa menjadi alat yang sangat berguna. Tapi seperti alat lainnya, pengguna harus tahu cara memakainya dengan benar — termasuk tahu kapan harus ragu.”