pengambilalihan robot? Tidak terlalu. Seperti inilah tampilan akhir dunia AI | teknologi

KEKekhawatiran tentang kecerdasan buatan telah memuncak dalam beberapa bulan terakhir. Lebih dari 300 pemimpin industri hadir minggu ini sendirian diterbitkan Surat peringatan bahwa AI dapat menyebabkan kepunahan manusia dan harus dipertimbangkan dengan tingkat keparahan “pandemi dan perang nuklir”.

Istilah seperti “AI Doomsday” memunculkan gambar fiksi ilmiah tentang pengambilalihan robot, tetapi seperti apa sebenarnya skenario itu? Para ahli mengatakan bahwa realitasnya bisa lebih lama dan kurang sinematik – bukan bom nuklir, tetapi pembusukan yang merayapi bidang dasar masyarakat.

“Saya tidak berpikir kekhawatirannya adalah AI menjadi jahat atau dengan keinginan jahat,” kata Jessica Newman, direktur Inisiatif Keamanan Kecerdasan Buatan Universitas California Berkeley.

“Bahaya datang dari sesuatu yang jauh lebih sederhana, yaitu bahwa manusia memprogram AI untuk melakukan hal-hal berbahaya, atau bahwa kita akhirnya melakukan kejahatan dengan menyematkan sistem AI yang tidak akurat secara inheren ke lebih banyak sektor masyarakat.”

Itu tidak berarti kita tidak perlu khawatir. Meskipun skenario pemusnahan umat manusia tidak mungkin terjadi, AI yang kuat memiliki kemampuan untuk mengacaukan peradaban dalam bentuk meningkatnya informasi yang salah, manipulasi pengguna manusia, dan transformasi besar-besaran pasar tenaga kerja saat AI mengambil alih pekerjaan.

Teknologi kecerdasan buatan telah ada selama beberapa dekade, tetapi kecepatan model pembelajaran bahasa seperti ChatGPT telah memasuki arus utama telah memperkuat kekhawatiran lama. Sementara itu, perusahaan teknologi terjebak dalam semacam perlombaan senjata, terburu-buru untuk mengintegrasikan kecerdasan buatan ke dalam produk mereka untuk bersaing satu sama lain, menyebabkan badai yang sempurna, kata Newman.

“Saya sangat prihatin dengan jalan yang kita ambil,” katanya. “Kami berada pada waktu yang sangat berbahaya bagi AI karena sistem berada pada titik di mana mereka tampak mengesankan tetapi masih sangat tidak akurat dan memiliki kerentanan yang melekat.”

Para ahli yang disurvei oleh Guardian mengatakan ini adalah area yang paling mereka khawatirkan.

Disinformasi mempercepat erosi kebenaran

Dalam banyak hal, apa yang disebut revolusi AI telah berlangsung selama beberapa waktu. Pembelajaran mesin mendasari algoritme yang membentuk umpan berita media sosial kita — sebuah teknologi yang disalahkan karenanya mempertahankan bias gender, departemen kaus kaki Dan membangkitkan gejolak politik.

Para ahli memperingatkan bahwa masalah yang belum terselesaikan ini hanya akan menjadi lebih buruk karena model kecerdasan buatan berkembang biak. Paling buruk, mungkin ada erosi pemahaman bersama kita tentang kebenaran dan informasi yang valid, yang mengarah ke lebih banyak pemberontakan berbasis ketidakbenaran – seperti yang terjadi pada serangan 6 Januari di US Capitol. Para ahli memperingatkan kerusuhan lebih lanjut dan bahkan perang yang dapat dipicu oleh meningkatnya misinformasi dan disinformasi.

“Orang dapat berargumen bahwa runtuhnya media sosial adalah pertemuan pertama kami dengan AI yang benar-benar bodoh – karena sistem pemberi rekomendasi sebenarnya hanyalah model pembelajaran mesin yang sederhana,” kata Peter Wang, CEO dan salah satu pendiri platform ilmu data Anaconda. “Dan kami benar-benar gagal total dalam pertemuan itu.”

Tangan memegang layar bertuliskan
Model bahasa besar seperti ChatGPT rentan terhadap fenomena yang disebut “halusinasi”, di mana informasi yang dibuat-buat atau palsu diulang. Foto: Greg Guy/Alamy

Wang menambahkan bahwa kesalahan ini dapat memperkuat dirinya sendiri karena model pembelajaran bahasa dilatih pada informasi yang salah, menciptakan kumpulan data yang salah untuk model masa depan. Ini dapat menyebabkan efek “kanibalisme model”, di mana model masa depan diperkuat dan selamanya terdistorsi oleh hasil model sebelumnya.

Misinformasi — ketidakakuratan sederhana — dan disinformasi — informasi palsu yang disebarluaskan dengan niat jahat untuk menyesatkan — keduanya telah ditambah oleh kecerdasan buatan, kata para ahli. Model bahasa besar seperti ChatGPT rentan terhadap fenomena yang disebut “halusinasi”, di mana informasi yang dibuat-buat atau palsu diulang. Sebuah studi oleh pengawas kredibilitas NewsGuard untuk jurnalisme diidentifikasi Lusinan situs “berita” di internet ditulis seluruhnya oleh AI, banyak di antaranya berisi ketidakakuratan tersebut.

Sistem seperti itu dapat dipersenjatai oleh aktor jahat untuk dengan sengaja menyebarkan informasi yang salah dalam skala besar, kata Gordon Crovitz dan Steven Brill, co-CEO NewsGuard. Ini menjadi perhatian khusus untuk acara berita berisiko tinggi, seperti yang telah kita lihat manipulasi informasi yang disengaja dalam perang Rusia-Ukraina.

“Ada aktor jahat yang dapat membuat narasi palsu dan kemudian menggunakan sistem sebagai pengganda kekuatan untuk menyebarkannya dalam skala besar,” kata Crovitz. “Beberapa orang mengatakan bahaya AI dilebih-lebihkan, tetapi di dunia informasi berita, dampaknya mengejutkan.”

Contoh terbaru berkisar dari yang tidak berbahaya seperti itu gambar yang dihasilkan AI viral dari Paus mengenakan “jaket longgar” hingga pemalsuan dengan konsekuensi yang berpotensi mengerikan, seperti video Presiden Ukraina Volodymyr Zelenskyy yang dibuat oleh AI, untuk mengumumkan penyerahan pada April 2022.

“Misinformasi adalah kerugian individu (AI) yang memiliki potensi dan risiko terbesar dalam hal potensi bahaya yang lebih besar,” kata Rebecca Finlay dari Partnership on AI. “Pertanyaan yang muncul adalah: bagaimana kita menciptakan ekosistem di mana kita dapat memahami apa yang benar? Bagaimana kami mengautentikasi apa yang kami lihat online?”

Sementara sebagian besar ahli mengatakan bahwa informasi yang salah adalah perhatian yang paling cepat dan tersebar luas, ada perdebatan mengenai sejauh mana teknologi tersebut dapat berdampak negatif pada pemikiran atau perilaku penggunanya.

Kekhawatiran tersebut telah ditunjukkan secara tragis setelah seorang pria meninggal karena bunuh diri setelah chatbot di Belgia diduga mendorongnya untuk bunuh diri. Insiden mengkhawatirkan lainnya dilaporkan – termasuk chatbot yang meminta pengguna untuk meninggalkan chatbot mereka mitraDan diduga orang lain Pengguna dengan gangguan makan disarankan untuk menurunkan berat badan.

Chatbot secara inheren cenderung menginspirasi lebih banyak kepercayaan karena mereka berbicara kepada penggunanya dengan cara percakapan, kata Newman.

“Model bahasa besar sangat mampu membujuk atau memanipulasi orang untuk membuat perubahan kecil dalam keyakinan atau perilaku mereka,” katanya. “Kita perlu mengatasi dampak kognitif yang ditimbulkan di dunia yang sudah sangat terpolarisasi dan terisolasi, di mana kesepian dan kesehatan mental menjadi masalah utama.”

Ketakutannya, kemudian, bukanlah chatbots AI akan mendapatkan kesadaran dan menyalip penggunanya, tetapi bahwa bahasa terprogram mereka dapat memanipulasi manusia untuk menyebabkan kerugian yang mungkin tidak akan mereka derita. Ini menjadi perhatian khusus dengan sistem suara yang beroperasi pada model keuntungan periklanan, kata Newman, karena mereka mencoba memanipulasi perilaku pengguna dan mempertahankannya di platform selama mungkin.

“Ada banyak contoh di mana pengguna menyebabkan kerugian, bukan karena mereka menginginkannya, tetapi karena itu adalah konsekuensi yang tidak diinginkan dari kegagalan sistem untuk mengikuti protokol keamanan,” katanya.

Newman menambahkan bahwa sifat chatbot yang mirip manusia membuat pengguna sangat rentan terhadap manipulasi.

“Ketika Anda berbicara dengan sesuatu yang menggunakan kata ganti orang pertama dan berbicara tentang perasaan dan latar belakang Anda sendiri, bahkan jika itu tidak nyata, kemungkinan besar akan menimbulkan semacam respons manusia yang membuat orang lebih rentan terhadap keinginan.” untuk mempercayainya, ” dia berkata. “Itu membuat orang ingin mempercayainya dan memperlakukannya lebih seperti teman daripada alat.”

Krisis tenaga kerja yang menjulang: “Tidak ada kerangka kerja untuk bertahan hidup”

Kekhawatiran lama adalah otomatisasi digital akan menghilangkan banyak pekerjaan manusia. Penelitian bervariasi, dengan beberapa penelitian menyimpulkan bahwa AI dapat menggantikan yang setara dengan 85 juta pekerjaan di seluruh dunia pada tahun 2025 dan lebih dari 300m jangka panjang.

Pengunjuk rasa memegang tanda bertuliskan 'No AI'
Beberapa penelitian menunjukkan bahwa AI dapat menggantikan 85 juta pekerjaan di seluruh dunia pada tahun 2025. Foto: Wachiwit/Alamy

Industri yang terkena dampak AI beragam, mulai dari penulis skenario Ke ilmuwan data. AI mampu melakukan itu lulus ujian bar dengan hasil yang mirip dengan pengacara nyata dan Menjawab pertanyaan kesehatan lebih baik dari dokter sungguhan.

Para ahli memperingatkan hilangnya pekerjaan massal dan ketidakstabilan politik yang menyertainya dapat terjadi dengan munculnya kecerdasan buatan yang tidak terkendali.

Wang memperingatkan akan ada PHK massal dalam waktu dekat karena “sejumlah pekerjaan berisiko” dan hanya ada sedikit rencana untuk mengatasi dampak tersebut.

“Di Amerika, tidak ada kerangka kerja untuk bertahan hidup jika Anda tidak memiliki pekerjaan,” katanya. “Ini akan menyebabkan banyak gangguan dan kerusuhan politik. Bagi saya, itulah konsekuensi yang tidak diinginkan yang paling konkret dan realistis untuk muncul darinya.”

Apa selanjutnya?

Terlepas dari meningkatnya kekhawatiran tentang efek buruk teknologi dan media sosial, sangat sedikit yang telah dilakukan di AS untuk mengaturnya. Para ahli khawatir kecerdasan buatan tidak akan berbeda.

“Salah satu alasan banyak dari kita memiliki kekhawatiran tentang adopsi AI adalah karena kita sebagai masyarakat pada dasarnya telah menyerah untuk benar-benar mengatur teknologi selama 40 tahun terakhir,” kata Wang.

Namun, anggota parlemen telah melakukan upaya positif dalam beberapa bulan terakhir, bersama dengan Kongres pekerjaan Buka AI CEO Sam Altman untuk bersaksi tentang langkah-langkah keamanan yang harus diterapkan. Finlay mengatakan dia “didorong” oleh langkah seperti itu tetapi mengatakan lebih banyak yang harus dilakukan untuk membuat protokol umum pada teknologi AI dan peluncurannya.

“Sekeras apa pun memprediksi skenario kiamat, sulit juga memprediksi kapasitas respons legislatif dan regulasi,” katanya. “Kami membutuhkan ujian nyata dari tingkat teknologi ini.”

Meskipun bahaya AI menjadi prioritas bagi kebanyakan orang di industri kecerdasan buatan, tidak semua ahli di bidang ini adalah ahli kiamat. Banyak yang bersemangat tentang kemungkinan penerapan teknologi ini.

“Saya benar-benar berpikir bahwa generasi teknologi AI yang baru saja kita temui ini benar-benar dapat membuka potensi besar umat manusia untuk berkembang pada skala yang jauh lebih baik daripada yang telah kita lihat dalam 100 atau 200 tahun terakhir,” kata Wang. “Saya sebenarnya sangat, sangat optimis dengan efek positifnya. Tetapi pada saat yang sama, saya melihat apa yang telah dilakukan media sosial untuk masyarakat dan budaya, dan saya sangat menyadari fakta bahwa ada banyak potensi kerugian.”

Sumber