Ya, Anda harus khawatir tentang AI – tetapi analogi Matrix menyembunyikan ancaman yang lebih berbahaya | Samantha Floreani

KEMenjadi nerd teknologi-politik di antara teman-teman saya, saya menghabiskan banyak waktu untuk menjawab pertanyaan. Membantu! Saya adalah bagian dari pelanggaran data. Apa yang bisa saya lakukan? Apa itu Crypto dan Haruskah Saya Peduli? Dan akhir-akhir ini: haruskah saya mengkhawatirkannya? UNTUK akan mengambil alih dan membunuh kita semua?

Ada begitu banyak hype tentang kecerdasan buatan sehingga kekhawatirannya dapat dimengerti, tetapi penting bagi kita untuk mempertahankan sikap kritis kita. Kegemaran AI saat ini pada akhirnya menguntungkan mereka yang paling diuntungkan dari penerapan produk ini, tetapi kami tidak perlu membiarkan mereka mendikte ketentuan percakapan.

Jika ada satu hal yang ingin saya katakan kepada teman-teman saya – dan sekarang Anda – adalah ini: Ya, Anda harus khawatir tentang AI. Tapi mari kita luruskan ini yang Boogeyman sebenarnya bersembunyi di bawah tempat tidur. Sulit untuk melawan monster ketika Anda tidak tahu apa itu. Tidak ada yang mau menjadi orang bodoh yang menggunakan tiang kayu melawan zombie dengan sia-sia.

Daripada mengkhawatirkan ketakutan yang meluas akan “ancaman eksistensial” terhadap umat manusia, kita harus khawatir tentang konsekuensi material dari teknologi AI yang jauh lebih matang yang saat ini berdampak pada kehidupan manusia.. Dan lebih dari itu, kita harus sangat prihatin tentang cara AI digunakan untuk lebih banyak tujuan kekuatan fokus di segelintir perusahaan.

Jadi mari kita pisahkan fiksi spekulatif dari kenyataan.

Setiap hari, tokoh terkenal menyiarkan prediksi hari kiamat tentang perkembangan AI yang tidak terkendali. Apakah itu mengarah ke Kementerian Kebenaran à la George Orwell tahun 1984? Atau mungkin mesin pembunuh musuh baru dari Terminator. Atau mungkin akan lebih dari itu Matriks.

Ini semua berfungsi sebagai latihan pemasaran juga gangguan dari kerusakan yang lebih mendesak yang disebabkan oleh AI.

Pertama, penting untuk diingat bahwa ini adalah kasus model bahasa besar seperti GPT-4 bukan tidak hidup atau cerdas, tidak peduli seberapa bagus mereka meniru ucapan manusia. Tetapi kecenderungan manusia terhadap antropomorfisme sangat kuat, dan diperkuat oleh metafora kikuk seperti mengatakan bahwa mesin itu “berhalusinasi” ketika menghasilkan hasil yang salah. Bagaimanapun, kami jauh dari jenis kecerdasan umum buatan (AGI) atau “kecerdasan super” yang diteriakkan oleh segelintir suara keras.

Masalah dengan menakut-nakuti orang AGI sambil menuntut tindakan adalah bahwa perusahaan seperti OpenAI dapat memposisikan diri mereka sebagai gembala teknologi yang bertanggung jawab – ahli yang baik hati yang bertugas melindungi kita dari bahaya hipotetis selama mereka memegang kekuasaan dan Menjaga uang dan mendominasi pasar. Diatas segalanya, Posisi OpenAI Tata kelola AI bukan tentang AI saat ini, ini tentang titik apa pun di masa depan. Mereka menyambut peraturan selama tidak berada di jalan dari semua yang mereka lakukan sekarang.

Kita tidak perlu menunggu beberapa delusi tech-bro hipotetis untuk merenungkan — dan melawan — kerusakan yang dilakukan oleh AI. Jenis teknologi dan teknik komputasi disatukan di bawah istilah payung pemasaran “AI” jauh lebih luas daripada fiksasi saat ini pada model bahasa besar atau alat pencitraan. Ini mencakup sistem yang kurang intens yang kita gunakan atau terapkan pada kita setiap hari, seperti mesin rekomendasi yang menyusun pengalaman online kita, teknologi pengawasan seperti pengenalan wajah, dan beberapa sistem pengambilan keputusan otomatis yang menentukan, misalnya, bagaimana orang berinteraksi dengan keuangan, perumahan, bantuan sosial, pendidikan dan asuransi.

Penggunaan teknologi ini dapat dan akan memiliki konsekuensi negatif. Bias dan diskriminasi adalah hal biasa dalam sistem pengambilan keputusan otomatis, berdampak negatif terhadap akses orang ke layanan, perumahan, dan keadilan. Pengenalan wajah meningkatkan pengawasan dan pengawasan, memperkuat dampak kekerasan yang disetujui negara terhadap banyak kelompok yang terpinggirkan. Sistem rekomendasi sering mengirim orang ke lubang kelinci algoritmik ke konten online yang semakin ekstrim. Kami tidak perlu berspekulasi tentang bagaimana teknologi ini dapat menyebabkan kerusakan; Kami sudah memiliki segunung bukti dari dekade terakhir.

Lewati iklan buletin

Adapun AI generatif, kami sudah melihatnya Jenis kerusakan yang dapat terjadi dengan cara yang jauh lebih membosankan daripada bangun dan memutuskan untuk menghancurkan umat manusia. Seperti seberapa cepat GPT-4 dikembangkan sebagai cara untuk melakukannya Mengotomatiskan pelecehan dan intimidasi oleh agen penagihan. Atau bagaimana itu dapat memajukan manipulasi informasi, menggunakan teknologi baru untuk trik lama yang memungkinkan pencurian identitas dan memeras orang penipu; atau menambahkan sentuhan teknologi tinggi pada misogini Porno Deepfake. Atau menyukainya memantapkan dirinya dan berusaha untuk keuntungan tambahan Dari model bisnis pengawasan kapitalisme yang mengutamakan generasi, akumulasi dan komersialisasi data.

Intinya di sini adalah bahwa kita tidak berbicara tentang ancaman masa depan sci-fi yang jauh, tetapi tentang memperburuk sistem yang sudah ada dan masalah sosial. Sarah Myers West dari AI Sekarang dia berkata bahwa berfokus pada kerusakan di masa depan telah menjadi sulap retoris yang digunakan oleh tokoh industri AI untuk “mengalihkan akuntabilitas ke masa depan”. Sangat mudah untuk memperhatikan imajiner AI yang fantastik, tetapi konsekuensi material yang nyata hanya muncul dalam aplikasi yang lebih sehari-hari.

Jika diwawancarai tentang peringatannya tentang bahaya AI, yang disebut “Ayah baptis AI‘ Geoffrey Hinton menepis kekhawatiran pelapor lama seperti Timnit Gebru dan Meredith Whittaker, mengklaim kekhawatiran mereka tidak ‘eksistensial’ seperti miliknya. Untuk menunjukkan bahwa bias dan diskriminasi yang merajalela, manipulasi informasi yang meluas, atau pengawasan yang ditingkatkan tidak seserius chimera AGI yang meresahkan. Apa yang orang-orang seperti ini tidak sadari adalah AI itu melakukan menimbulkan ancaman eksistensial bagi banyak orang, bukan hanya orang yang mereka sayangi.

Terlalu sering AI ditampilkan sebagai pertukaran risiko/manfaat, dengan bukti historis dan risiko saat ini diabaikan sebagai biaya hipotetis masa depan yang berlebihan. Kita diberi tahu bahwa ada begitu banyak potensi kebaikan dan bahwa memperlambat “kemajuan” atau “inovasi” akan menghalangi kita untuk menyadarinya. Tetapi jika kita mengabaikan implikasi material dari AI masa lalu dan sekarang demi masa depan imajiner, kita tidak akan berakhir dengan teknologi yang maju secara sosial. Dan itu jauh lebih memprihatinkan daripada penguasa AI spekulatif.

  • Samantha Floreani adalah seorang aktivis dan penulis hak digital yang tinggal di Naarm



Sumber