Apa upaya antropik untuk menguasai AI, jadi sudah terlambat

  • Menetapkan aturan antropik untuk program mereka untuk memastikan penggunaan teknologi untuk kebaikan.
  • Para ahli mengatakan moralitas kepolisian AI bisa jadi rumit.
  • Semakin banyak pengamat menyerukan peraturan AI untuk melindungi manusia.

sdecoret / Getty Images



Antara perawatan kecerdasan buatan para buronanPara ahli menyarankan bahwa strategi kontrol teknologi tidak berfungsi.


Antropik minggu ini diungkapkan oleh seperangkat nilai untuk menggunakan AI-nya, Cloud, teknologi saingan di balik ChatGPT OpenAI digunakan untuk menginstalnya. Ini adalah bagian dari upaya untuk tumbuh sebagai pengguna keamanan AI.


“Seperti senjata nuklir atau canggih, perlu ada kerangka kerja dan pemahaman bersama tentang bagaimana mengembangkan teknologi ini dengan cara yang aman untuk memenuhi kebutuhan manusia.” Vinod IyengarKepala Produk di AI ketigasebuah perusahaan yang mengajarkan banyak model bahasa, memberi tahu Lifewire dalam sebuah wawancara email. “Ini akan membutuhkan kepercayaan dan kerja sama antara badan dan pemerintah.”



Konstitusi AI

Anthropica mengambil pendekatan sistematis untuk mencoba memastikan bahwa AI-nya tidak membahayakan manusia. Perusahaan menyebut sistem AI konstitusional karena konstitusi menentukan nilai-nilainya.


Tujuan perusahaan tinggi. Pernyataan Claudio terinspirasi oleh dokumen manusia, termasuk Deklarasi Hak Asasi Manusia PBB dan Kebijakan Privasi Data Apple. Konstitusi dimaksudkan untuk memandu rencana Claudio untuk memberikan informasi etika dan moral kepada pengguna AI.



“Suatu sistem menggunakan seperangkat prinsip untuk membuat keputusan tentang keluaran, oleh karena itu istilah masyarakat ‘Konstitusional’.” tulisnya di situs webnya“Pada tingkat yang lebih tinggi, konstitusi mengarahkan model untuk menjalankan aturan hidup yang dijelaskan dalam konstitusi – di sini, membantu menghindari stasiun yang beracun atau diskriminatif, menghindari membantu intervensi manusia dalam kegiatan ilegal atau kriminal, dan secara luas menciptakan sistem AI. berguna. , jujur, tidak berbahaya.’


Tetapi membuat konstitusi AI tidaklah mudah. Iyengar menunjukkan bahwa perilaku sulit untuk diajarkan dan diukur.


“Apa yang bisa disampaikan dengan moral kepada seseorang, sehingga mereka tampak memalukan bagi orang lain,” tambahnya. “Tidak ada metrik di mana para ilmuwan dapat menggunakan AI untuk melatih atau meningkatkan keadilan atau membuat keputusan yang adil.” Orang juga memiliki masalah moral. Sementara itu, tampaknya bermanfaat bahwa Claudius menulis bangunan yang bagus secara moral; Tidak jelas bagaimana cerita ini digunakan.


Menetapkan aturan untuk AI dapat membatasi potensinya. John Charles ErraCEO tim AI Words.telkatanya dalam email.


Sistem AI generatif, yang dikembangkan tanpa perlindungan yang tepat, dapat menghasilkan hasil yang tidak dapat diprediksi dan berpotensi berbahaya.

“Mari kita ingat bahwa kreativitas seringkali dimulai dengan melanggar aturan yang telah dipikirkan selama ini,” imbuhnya. “Saya lebih takut pada aturan itu sendiri dan mereka yang menetapkannya daripada apa yang dapat dilakukan AI tanpa kendala.”


Menggunakan konstitusi antropik untuk sistem AI-nya bisa menjadi upaya pencegahan aturan yang diusulkan oleh pemerintah dengan sengaja Beberapa pakar industri juga punya rencana jangka waktu sepuluh tahun pada pengembangan AI. Tidak semua orang setuju dengan pendekatan ini.


“Melarang semua AI generatif seperti membuang bayi dengan air mandi.” Mark McNasbyCEO dari Ivy.aiyang menyediakan teknologi Chatbot, memberikan alamat email. “Meskipun selalu ada risiko dengan menggunakan teknologi apa pun, sangat penting untuk memiliki alat untuk memanfaatkan dan mengamankan privasi, keamanan, dan pemantauan Anda sendiri.”


Namun McNasby mengakui bahwa AI bisa berbahaya. “Sistem AI generatif, yang dikembangkan tanpa perlindungan yang tepat, dapat menghasilkan hasil yang acak dan berpotensi berbahaya,” katanya.



AI buronan

Satu masalah yang membuat beberapa ahli terjaga di malam hari adalah kemungkinan bahwa sistem AI berpotensi menipu perintah tertulis.


erhui1979 / Getty Images



“Hal ini dapat dilakukan ketika sistem AI berfokus pada pikiran di balik tulisan, menafsirkan aset, atau mengidentifikasi padat untuk mendapatkan keuntungan.” Ani ChaudharyCEO dari Dasherasebuah perusahaan keamanan data yang bekerja dengan AI, katanya melalui email.


Untuk mencegah AI yang tidak terkendali, pengembang harus menekankan pengujian yang ketat dan pemantauan berkelanjutan untuk mengidentifikasi dan memperbaiki penyimpangan dari perilaku yang diinginkan, tambah Chaudhuri.


Sistem AI juga sangat kompleks sehingga menghasilkan hasil acak yang tidak diinginkan oleh pembuatnya; Rob Wilsonrekan penulis buku tentang kecerdasan buatanUsia mesin tak terlihatkatanya dalam email.


Tapi Wilson seharusnya tidak kehilangan waktu tidur selama pengambilalihan AI, dulu.


“Orang mengaitkan kecerdasan dengan mesin, tetapi hal-hal seperti ChatGPT tidak memiliki kecerdasan yang sebenarnya,” katanya. “ChatGPT tidak dapat mengatakan bahwa inilah saatnya. Di masa mendatang, orang akan menjadi orang yang menentukan perilaku dan integrasi perangkat pintar ini, dan harus tetap seperti itu.”

Source link