Pada tanggal 31 Mei, OpenAI mengumumkan upayanya untuk meningkatkan kemampuan pemecahan masalah matematika dari ChatGPT, dengan tujuan mengurangi kasus kecerdasan buatan (AI) halusinasi. OpenAI telah menekankan mitigasi halusinasi sebagai langkah penting menuju pengembangan AI yang selaras.
Pada bulan Maret, pengenalan versi terbaru ChatGPT – ChatGPT-4 – semakin mendorong AI ke arus utama. Namun, chatbot AI telah lama berjuang dengan akurasi faktual, terkadang menghasilkan informasi palsu, yang biasa disebut sebagai “halusinasi”. Upaya untuk mengurangi halusinasi AI ini telah dilakukan diumumkan melalui postingan di situs web OpenAI.
Halusinasi AI merujuk pada kejadian di mana sistem AI menghasilkan keluaran yang sebenarnya salah, menyesatkan, atau tidak didukung oleh data dunia nyata. Halusinasi ini dapat memanifestasikan dirinya dalam berbagai bentuk, seperti menghasilkan informasi palsu, menciptakan peristiwa atau orang yang tidak ada, atau memberikan detail yang tidak akurat tentang topik tertentu.
Buka AI saluran penelitian untuk menguji keefektifan dua jenis umpan balik: ‘pengawasan hasil’ dan ‘pengawasan proses’. Pengawasan hasil melibatkan umpan balik berdasarkan penyampaian, sedangkan pengawasan proses memberikan masukan untuk setiap tahap dalam rantai pemikiran. OpenAI mengevaluasi model ini menggunakan masalah matematika, menghasilkan banyak solusi, dan memilih solusi skor tertinggi berdasarkan setiap model umpan balik.
Setelah analisis mendalam, tim peneliti menemukan bahwa pengawasan proses menghasilkan kinerja yang unggul karena mendorong model untuk mengikuti proses yang disetujui manusia. Sebaliknya, pengawasan hasil terbukti lebih sulit untuk diperiksa secara konsisten.
OpenAI telah mengakui bahwa implikasi pengawasan proses melampaui matematika, dengan penyelidikan lebih lanjut diperlukan untuk memahami pengaruhnya di domain yang berbeda. Dia menyatakan kemungkinan bahwa jika hasil yang diamati bertahan dalam konteks yang lebih luas, pengawasan proses mungkin menawarkan kombinasi kinerja dan keselarasan yang menguntungkan dibandingkan dengan pengawasan hasil. Untuk memfasilitasi penelitian, perusahaan telah merilis dataset pengawasan proses yang lengkap, mengundang eksplorasi dan studi di bidang ini.
Terkait: Permintaan AI secara singkat melambungkan Nvidia ke klub $1T
Meskipun OpenAI belum memberikan contoh eksplisit yang mendorong penyelidikannya terhadap halusinasi, dua kejadian baru-baru ini telah mencontohkan masalah tersebut dalam skenario kehidupan nyata.
Dalam insiden baru-baru ini, pengacara Steven Schwartz di Mata vs. Kotak Avianca Airlines dikenali mengandalkan chatbot sebagai sumber penelitian. Namun, informasi yang diberikan oleh ChatGPT ternyata sepenuhnya dibuat-buat, menyoroti masalah yang dihadapi.
ChatGPT OpenAI bukan satu-satunya contoh sistem AI yang mengalami halusinasi. Selama a demonstrasi tentang teknologi chatbot-nya Pada bulan Maret, chatbot AI Bing Microsoft melihat laporan pendapatan dan menghasilkan angka yang tidak akurat untuk perusahaan seperti Gap dan Lululemon.