Kecerdasan buatan harus diatur seperti kedokteran dan energi nuklir: menteri Inggris

Pengembang yang mengerjakan kecerdasan buatan harus dilisensikan dan diatur dengan cara yang mirip dengan industri farmasi, medis, atau nuklir, menurut perwakilan dari partai politik lawan Inggris.

Politisi Partai Buruh Inggris dan juru bicara digital Lucy Powell mengatakan kepada The Guardian pada 5 Juni bahwa perusahaan seperti OpenAI atau Google yang telah membuat model AI harus “memiliki lisensi untuk membuat model ini”, menambahkan:

“Poin perhatian saya yang sebenarnya adalah kurangnya regulasi model bahasa besar yang kemudian dapat diterapkan pada berbagai alat AI, apakah mereka mengatur bagaimana mereka dibangun, bagaimana mereka dikelola atau bagaimana mereka dikendalikan” .

Powell berpendapat bahwa mengatur pengembangan teknologi tertentu adalah pilihan yang lebih baik daripada melarangnya seperti yang dilakukan Uni Eropa alat pengenal wajah dilarang.

Dia menambahkan bahwa AI “dapat memiliki banyak konsekuensi yang tidak diinginkan”, tetapi jika pengembang dipaksa untuk terbuka tentang model pelatihan dan kumpulan data AI mereka, beberapa risiko dapat dikurangi oleh pemerintah.

“Teknologi ini bergerak sangat cepat sehingga membutuhkan pendekatan pemerintah yang aktif dan intervensionis, bukan laissez-faire,” katanya.

Powell juga yakin teknologi canggih seperti itu dapat berdampak besar pada ekonomi Inggris, dan Partai Buruh diduga menyelesaikan kebijakannya sendiri tentang kecerdasan buatan dan teknologi terkait.

Minggu depan, pemimpin Partai Buruh Keir Starmer berencana untuk mengadakan pertemuan dengan kabinet bayangan partai di kantor Google di Inggris sehingga dia dapat berbicara dengan para eksekutif yang berfokus pada AI.

Terkait: Pejabat UE ingin semua konten buatan AI diberi tag

Sementara itu, pada 5 Juni, Matt Clifford, presiden Advanced Research and Invention Agency – badan riset pemerintah yang dibentuk Februari lalu – muncul di TalkTV untuk memperingatkan Kecerdasan buatan bisa mengancam manusia hanya dalam dua tahun.

“Jika kita tidak mulai berpikir sekarang tentang bagaimana mengatur dan berpikir tentang keselamatan, maka dalam dua tahun kita akan menemukan bahwa kita memiliki sistem yang sangat kuat,” katanya. Clifford mengklarifikasi, bagaimanapun, bahwa garis waktu dua tahun adalah “ujung spektrum yang bullish.”

Clifford menunjukkan bahwa alat AI saat ini dapat digunakan untuk membantu “meluncurkan serangan siber skala besar”. OpenAI punya dia mengusulkan $ 1 juta untuk mendukung teknologi keamanan siber yang dibantu AI untuk penggunaan tersebut.

“Saya pikir ada (sic) banyak skenario berbeda yang perlu dikhawatirkan,” katanya. “Saya pikir benar bahwa ini sangat penting dalam agenda pembuat kebijakan.”

BitCulture: Seni rupa di Solana, musik AI, podcast + resensi buku