CEO Tim Cook mendapat pandangan langka, jika hati-hati, di taman bertembok Apple selama bagian Q&A dari panggilan pendapatan baru-baru ini ketika ditanya apa pendapatnya tentang kecerdasan buatan (AI) generatif dan ke mana “melihat itu akan pergi”.
Cook menahan diri untuk tidak mengungkapkan rencana Apple, mengatakan di muka, “Kami tidak mengomentari peta jalan produk.” Namun, itu terjadi keintiman bahwa perusahaan tertarik pada ruang tersebut:
“Saya pikir sangat penting untuk berhati-hati dan bijaksana dalam cara Anda mendekati hal-hal ini. Dan ada sejumlah masalah yang perlu diselesaikan. … Tapi potensinya tentu sangat menarik.”
CEO kemudian menambahkan bahwa perusahaan menganggap “AI besar” dan “akan terus membangunnya ke dalam produk kami dengan sangat bijaksana.”
Komentar Cook tentang mengambil pendekatan “sengaja dan bijaksana” dapat menjelaskan ketidakhadiran perusahaan di ruang AI generatif. Namun, ada beberapa indikasi bahwa Apple sedang melakukan penelitian sendiri terhadap model terkait.
Sebuah makalah penelitian dijadwalkan akan diterbitkan pada konferensi Desain Interaksi dan Anak pada bulan Juni, merinci sistem baru untuk memerangi bias dalam pengembangan kumpulan data pembelajaran mesin.
Bias — kecenderungan model AI untuk membuat prediksi yang tidak adil atau tidak akurat berdasarkan data yang salah atau tidak lengkap — adalah sering dikutip sebagai salah satu perhatian paling mendesak untuk pengembangan model AI generatif yang aman dan etis.
Saya sangat senang bahwa OpenAI menjaga biasnya tetap terkendali. pic.twitter.com/y4a7FUochR
—Brooklyn Nash (@realBrookNash) 27 April 2023
Kartu, yang saat ini dapat Lampu dalam pracetak, ini merinci sistem di mana banyak pengguna akan berkontribusi pada pengembangan kumpulan data sistem AI dengan input yang sama.
Pengembangan AI penghasil status quo tidak menambahkan umpan balik manusia hingga tahap selanjutnya, ketika model biasanya sudah mendapatkan bias pelatihan.
Penelitian baru Apple mengintegrasikan umpan balik manusia ke dalam tahap paling awal pengembangan model untuk mendemokratisasikan proses pemilihan data. Hasilnya, menurut para peneliti, adalah sebuah sistem yang menggunakan ‘pendekatan praktis dan kolaboratif untuk memperkenalkan strategi menciptakan kumpulan data yang seimbang’.
Terkait: Masalah kotak hitam AI: tantangan dan solusi untuk masa depan yang transparan
Perlu disebutkan bahwa studi penelitian ini dirancang sebagai paradigma pendidikan untuk mendorong minat pemula dalam pengembangan pembelajaran mesin.
Mungkin terbukti sulit untuk menskalakan teknik yang dijelaskan dalam makalah untuk digunakan dalam melatih model bahasa besar (LLM) seperti ChatGPT dan Google Bard. Namun, penelitian menunjukkan pendekatan alternatif untuk memerangi bias.
Pada akhirnya, menciptakan LLM tanpa bias yang tidak diinginkan dapat menjadi tonggak penting dalam perjalanan menuju pengembangan sistem AI tingkat manusia.
Sistem seperti itu berisiko mengganggu setiap aspek industri teknologi, terutama dunia fintech, perdagangan mata uang kripto dan blockchain. Robot perdagangan saham dan cryptocurrency yang tidak memihak yang dapat berpikir pada tingkat manusia, misalnya, dapat mengguncang pasar keuangan global dengan mendemokratisasikan pengetahuan perdagangan tingkat tinggi.
Selain itu, mendemonstrasikan LLM yang tidak memihak bisa sangat memuaskan masalah keamanan dan etika pemerintah untuk sektor AI generatif.
Ini sangat penting bagi Apple, karena setiap produk AI yang dikembangkan atau dipilih untuk didukung akan mendapat manfaat dari chipset AI bawaan iPhone dan jejak 1,5 miliar penggunanya.