Anda mungkin menggunakan – atau setidaknya pernah mendengar tentang – ChatGPT. Alat Kecerdasan Buatan telah mengalami "booming" dalam beberapa bulan terakhir dan telah menjadi "hand on the wheel" untuk menjawab pertanyaan atau bahkan melakukan pekerjaan yang lebih kompleks.
Namun, sistem menyembunyikan rahasia kelam – dan pembuatnya mengetahuinya. Mereka tidak hanya tahu, tetapi mereka memikul tanggung jawab untuk itu.
lihat lebih banyak
Google mengembangkan alat AI untuk membantu jurnalis di…
IPhone asli tahun 2007 yang belum dibuka dijual seharga hampir $200.000; tahu...
Menurut OpenAI, perusahaan yang menciptakan alat tersebut, ChatGPT mengalami “halusinasi”. Artinya, terkadang dapat memberikan informasi palsu.
Situasi tersebut diumumkan perusahaan pada Rabu lalu, 31 Mei. Selain itu, mereka juga mengumumkan metode yang lebih baru dan lebih kuat untuk melatih AI.
Mengapa penting untuk memperbaiki kesalahan ChatGPT ini?
Penjelasan dasarnya adalah bahwa orang banyak menggunakan alat ini dalam kehidupan sehari-hari. Oleh karena itu, ChatGPT harus memberikan informasi yang andal kepada mereka yang menggunakannya.
Misalnya, jika Anda menggunakan AIuntuk memperbaiki teks tugas sekolah, atau untuk mencari resep tertentu, informasi yang ada harus benar.
Lebih dari itu, dengan semakin banyaknya pengguna chatbot, informasi palsu dapat dengan mudah tersebar seolah-olah itu adalah kebenaran.
Dan ini bisa menyebabkan masalah besar tahun depan, ketika Pemilu Amerika Serikat dimulai – dan ini juga bisa meluas ke sini di Brasil!
“Bahkan model tercanggih memiliki kecenderungan untuk menghasilkan kepalsuan — mereka menunjukkan kecenderungan untuk mengarang fakta di saat-saat ketidakpastian. Halusinasi ini sangat bermasalah di domain yang membutuhkan penalaran multi-langkah, a karena satu kesalahan logika sudah cukup untuk menggagalkan solusi yang jauh lebih besar," kata OpenAI di dikomunikasikan.
Apa yang harus dilakukan untuk memperbaikinya?
OpenAI melaporkan akan menggunakan strategi baru untuk memerangi "halusinasi" dari ChatGPT: latih model AI untuk menghargai diri mereka sendiri untuk setiap langkah yang benar. Alih-alih hanya menghadiahinya di akhir dengan jawaban lengkap.
“Mendeteksi dan mengurangi kesalahan logis atau halusinasi model adalah langkah penting untuk membangun AI yang selaras secara keseluruhan. Motivasi di balik penelitian ini adalah untuk mengatasi halusinasi agar model lebih mampu memecahkan masalah penalaran yang kompleks,” jelas Karl Cobbe, seorang peneliti matematika di perusahaan.
Lulus Komunikasi Sosial di Universitas Federal Goiás. Bergairah tentang media digital, budaya pop, teknologi, politik, dan psikoanalisis.