“Kami telah menemukan rahasia keabadian. Berita buruknya adalah ini bukan untuk kita: mengapa ayah baptis AI mengkhawatirkan umat manusia Kecerdasan Buatan (AI)

THal pertama yang dikatakan Geoffrey Hinton saat kami mulai berbicara dan hal terakhir yang dia ulangi sebelum saya mematikan perekam adalah ini Dia meninggalkan Google, majikannya selama dekade terakhir, dalam arti yang baik. “Saya tidak keberatan dengan apa yang telah atau sedang dilakukan Google, tetapi jelas media ingin menggambarkan saya sebagai ‘karyawan Google yang tidak puas.’ Tidak seperti itu.”

Ini klarifikasi penting karena mudah untuk menyimpulkan sebaliknya. Karena ketika kebanyakan orang dengan tenang menggambarkan mantan majikan mereka sebagai salah satu dari sekelompok kecil perusahaan yang menetapkan arah yang akan memiliki kemungkinan yang mengkhawatirkan untuk memusnahkan umat manusia itu sendiri, mereka melakukannya dengan rasa malu. Tapi, untuk mendengarkan Hinton, kita berjalan menuju ancaman eksistensial terhadap peradaban tanpa ada yang bertindak jahat.

Dikenal sebagai salah satu dari tiga “Godfathers of AI”, Pada tahun 2018 Hinton memenangkan ACM Turing Award – hadiah Nobel untuk ilmuwan komputer untuk karyanya dengan topik “Deep Learning”. Psikolog kognitif terlatih dan ilmuwan komputer tidak ingin meningkatkan teknologi secara radikal, tetapi untuk lebih memahami diri kita sendiri.

“Selama 50 tahun terakhir, saya telah mencoba membuat model komputer yang dapat mempelajari hal-hal sedikit seperti cara otak belajar, untuk lebih memahami bagaimana otak mempelajari sesuatu,” katanya saat kami bertemu di rumah saudara perempuannya. di London Utara, di mana dia tinggal (dia biasanya tinggal di Kanada). Membungkuk sedikit ke arah saya – dia lebih suka berbicara sambil berdiri, katanya – nadanya mengingatkan pada tutorial perguruan tinggi ketika mantan profesor berusia 75 tahun itu menceritakan sejarah penelitiannya dan bagaimana hal itu membawanya pada kesimpulan yang dapat kita hancurkan dipersuci.

Dalam upaya memodelkan cara kerja otak manusia, Hinton mendapati dirinya berada di garis depan “jaringan saraf”, sebuah pendekatan untuk membangun sistem komputer yang dapat belajar dari data dan pengalaman. Sampai baru-baru ini, jaringan saraf adalah keanehan yang membutuhkan daya komputasi yang luar biasa untuk melakukan tugas-tugas sederhana yang lebih buruk daripada pendekatan lain. Namun selama dekade terakhir, karena ketersediaan daya komputasi dan kumpulan data yang sangat besar telah meledak, pendekatan Hinton telah menemukan dirinya di pusat revolusi teknologi.

“Ketika saya mencoba berpikir tentang bagaimana otak dapat mengimplementasikan algoritme di balik semua model ini, saya sampai pada kesimpulan bahwa mungkin tidak bisa – dan mungkin model besar ini sebenarnya jauh lebih baik daripada otak,” katanya.

Sebuah “kecerdasan biologis” seperti kita memiliki keuntungan, katanya. Ini berjalan dengan daya rendah, “hanya 30 watt, bahkan jika Anda memikirkannya,” dan “setiap otak sedikit berbeda.” Artinya, kita belajar dengan meniru orang lain. Tetapi pendekatan ini “sangat tidak efisien” dalam hal transfer informasi. Kecerdasan digital, di sisi lain, memiliki keuntungan yang sangat besar: mudah untuk bertukar informasi di antara banyak salinan. “Mereka membayar biaya energi yang sangat besar, tetapi jika salah satu dari mereka mempelajari sesuatu, semua orang tahu dan Anda dapat dengan mudah menyimpan lebih banyak salinan. Jadi kabar baiknya adalah kita telah menemukan rahasia keabadian. Berita buruknya adalah ini bukan untuk kita.”

Ketika dia menerima bahwa kita sedang membangun kecerdasan dengan potensi untuk memikirkan kembali kemanusiaan, semakin banyak kesimpulan yang mengkhawatirkan. “Saya pikir itu akan terjadi pada akhirnya, tetapi kami memiliki banyak waktu: 30 hingga 50 tahun. Saya tidak berpikir begitu lagi. Dan saya tidak tahu ada contoh hal yang lebih pintar dijalankan oleh hal yang kurang pintar – setidaknya sejak Biden terpilih.

“Anda harus membayangkan sesuatu yang lebih pintar dari kami, sama seperti kami lebih pintar dari katak. Dan mereka akan belajar dari internet, mereka akan membaca setiap buku yang telah ditulis tentang memanipulasi orang dan melihatnya dalam tindakan juga.”

Dia sekarang berpikir waktu krisis akan datang dalam lima sampai 20 tahun ke depan, katanya. “Tapi saya tidak akan mengesampingkan satu atau dua tahun. Dan saya masih tidak akan mengesampingkan 100 tahun – hanya keyakinan saya bahwa itu jauh dari datang terguncang oleh kesadaran bahwa kecerdasan biologis dan kecerdasan digital sangat berbeda dan kecerdasan digital mungkin jauh lebih baik. ”

Masih ada harapan bahwa potensi AI terbukti dilebih-lebihkan. “Saya sangat tidak aman saat ini. Ada kemungkinan model bahasa yang besar”. Teknologi yang mendasari sistem seperti ChatGPT, “setelah menghabiskan semua dokumen di internet, mereka tidak akan dapat melangkah lebih jauh jika mereka juga tidak mendapatkan akses ke semua data pribadi kita. Saya tidak ingin mengesampingkan hal-hal seperti itu — saya pikir orang yang bertindak dengan percaya diri dalam situasi ini adalah orang gila.” Meskipun demikian, katanya, cara yang tepat untuk berpikir tentang kemungkinan bencana lebih dekat dengan lemparan koin daripada yang kita lakukan. mungkin sayang.

Perkembangan ini, menurutnya, merupakan konsekuensi tak terelakkan dari teknologi dalam kapitalisme. Bukan berarti Google itu buruk. Faktanya, Google adalah pemimpin dalam penelitian ini, terobosan teknis utama yang mendasari wave ini berasal dari Google, dan Google memilih untuk tidak merilisnya langsung ke publik. Google telah mengkhawatirkan semua hal yang kami khawatirkan, mereka memiliki reputasi yang baik dan tidak ingin mengacaukannya. Dan saya pikir itu adalah keputusan yang adil dan bertanggung jawab. Tetapi masalahnya adalah dalam sistem kapitalis, jika pesaing Anda melakukan itu, yang dapat Anda lakukan hanyalah melakukan hal yang sama.”

Dia memutuskan untuk berhenti dari pekerjaannya di Google dia berkata, karena tiga alasan. Salah satunya adalah usianya: pada usia 75 tahun dia “tidak sebaik saya dalam hal teknis seperti dulu dan sangat menjengkelkan untuk tidak sebagus dulu. Jadi saya memutuskan sudah waktunya untuk pensiun dari pekerjaan yang sebenarnya.” Tetapi alih-alih tetap dalam posisi seremonial dengan gaji yang baik, dia merasa penting untuk memutuskan hubungan sepenuhnya karena “ketika Anda dipekerjakan oleh sebuah perusahaan, ada rasa percaya diri yang tak terelakkan. sensor. Saat saya dipekerjakan oleh Google, saya harus terus berpikir, “Bagaimana ini akan memengaruhi bisnis Google?” Dan alasan lainnya adalah karena saya sebenarnya ingin mengatakan banyak hal baik tentang Google yang lebih kredibel saat saya tidak berada di Google.”

Sejak mengumumkan ketakutannya kepada publik, Hinton telah melakukannya seperti di bawah api karena tidak mengikuti beberapa rekannya lebih cepat. Pada tahun 2020, Timnit Gebru menjadi co-lead teknis dari tim etika AI Google dipecat dari perusahaan setelah perselisihan atas makalah penelitian menyebabkan konflik luas atas kebijakan keragaman dan inklusi perusahaan. Sebuah surat yang ditandatangani oleh lebih dari 1.200 karyawan Google menentang pemecatan tersebut, dengan mengatakan hal itu “membahayakan orang yang bekerja untuk AI yang etis dan adil di Google.”

Namun ada perpecahan di dalam faksi AI yang risikonya lebih mendesak. “Kita berada dalam masa ketidakpastian besar,” kata Hinton, “dan mungkin sebaiknya tidak membicarakan risiko eksistensial sama sekali, untuk menghindari membicarakan hal-hal lain ini (seperti masalah etika AI) mengalihkan perhatian dan keadilan). Tetapi bagaimana jika itu terjadi karena kita tidak membicarakannya? Berfokus hanya pada penggunaan AI jangka pendek untuk memecahkan masalah etika dan keadilan yang ada dalam teknologi saat ini tidak akan serta merta meningkatkan peluang manusia untuk bertahan hidup secara keseluruhan, katanya.

Bukannya dia tahu apa yang akan terjadi. “Saya bukan politisi. Saya hanya seseorang yang tiba-tiba menyadari ada risiko sesuatu yang sangat buruk terjadi. Saya ingin pemikir terbaik yang tahu tentang AI – bukan hanya filsuf, politisi, dan ahli politik, tetapi orang yang benar-benar memahami detail dari apa yang terjadi – untuk memikirkan secara mendalam tentang masalah ini. Dan banyak dari mereka, tapi saya pikir itulah yang perlu kita fokuskan.”

Sejak pertama kali berbicara pada hari Senin, dia telah menolak permintaan dari media dunia setiap dua menit (dia berkata bahwa dia setuju untuk bertemu dengan Guardian karena dia telah menjadi pembaca selama 60 tahun sejak dia beralih ke tahun 1960-an oleh Daily Worker). . “Saat ini saya memiliki tiga orang yang ingin berbicara dengan saya – Bernie Sanders, Chuck Schumer dan Elon Musk. Oh, dan Gedung Putih. Saya menunda semuanya sampai saya punya sedikit lebih banyak waktu. Saya pikir ketika saya pensiun saya akan memiliki banyak waktu untuk diri saya sendiri.”

Sepanjang percakapan kami, nadanya yang sedikit riang agak bertentangan dengan pesan malapetaka dan kehancuran yang dia sampaikan. Saya bertanya apakah dia punya alasan untuk berharap. “Cukup sering, orang tampaknya keluar dari situasi yang tampaknya tidak ada harapan dan baik-baik saja. Seperti senjata nuklir: Perang dingin dengan senjata ampuh ini tampak seperti situasi yang sangat buruk. Contoh lain adalah masalah “tahun 2000”. Itu tidak seperti risiko eksistensial, tetapi fakta bahwa orang melihatnya sebelumnya dan meributkannya berarti orang bereaksi berlebihan, yang jauh lebih baik daripada tidak bereaksi.

“Alasan itu tidak pernah menjadi masalah adalah karena orang benar-benar menyelesaikannya sebelum itu terjadi.”

Sumber