Foto : BBC |
Profesor Geoffrey Hinton mengatakan bahwa reformasi manfaat
yang memberikan jumlah uang tetap kepada setiap warga negara akan diperlukan
karena dia sangat khawatir tentang kecerdasan buatan mengambil banyak pekerjaan
yang bersifat rutin.
"Saya telah berkonsultasi dengan orang-orang di
Downing Street dan saya memberi tahu mereka bahwa penghasilan dasar universal
adalah ide yang bagus," katanya.
Dia mengatakan bahwa meskipun dia merasa kecerdasan buatan
akan meningkatkan produktivitas dan kekayaan, uang akan berakhir di tangan
orang kaya dan bukan pada orang-orang yang kehilangan pekerjaan mereka dan itu
akan sangat buruk bagi masyarakat.
Profesor Hinton adalah pionir jaringan saraf, yang menjadi
dasar teori dari ledakan kecerdasan buatan saat ini.
Hingga tahun lalu, dia bekerja di Google, tetapi
meninggalkan raksasa teknologi itu sehingga dia bisa berbicara lebih bebas
tentang bahaya dari kecerdasan buatan yang tidak diatur.
Konsep penghasilan dasar universal berarti pemerintah
membayar semua individu gaji tetap tanpa memandang kondisi finansial mereka.
Para kritikus mengatakan hal itu akan sangat mahal dan
mengalihkan dana dari layanan publik, sementara tidak selalu membantu
mengurangi kemiskinan.
Juru bicara pemerintah mengatakan bahwa tidak ada rencana
untuk memperkenalkan penghasilan dasar universal.
Profesor Hinton mengulangi kekhawatirannya bahwa ada ancaman
kepunahan manusia yang muncul.
Pembangunan selama setahun terakhir menunjukkan bahwa
pemerintah tidak bersedia menahan penggunaan militer kecerdasan buatan,
katanya, sementara persaingan untuk mengembangkan produk dengan cepat berarti
ada risiko perusahaan teknologi tidak memberikan cukup upaya untuk keamanan.
Profesor Hinton mengatakan "perkiraan saya adalah
antara lima dan 20 tahun dari sekarang ada kemungkinan setengah bahwa kita akan
harus menghadapi masalah kecerdasan buatan mencoba mengambil alih".
Ini akan mengarah pada ancaman kepunahan bagi manusia karena
kita bisa saja menciptakan bentuk kecerdasan yang lebih baik daripada
kecerdasan biologis Itu sangat mengkhawatirkan bagi kita.
Kecerdasan buatan bisa berevolusi, katanya, "untuk
mendapatkan motivasi untuk membuat lebih banyak dari dirinya sendiri dan bisa
secara otonom mengembangkan subtujuan untuk mendapatkan kontrol".
Dia mengatakan sudah ada bukti bahwa model bahasa besar jenis
algoritma kecerdasan buatan yang digunakan untuk menghasilkan teks memilih
untuk menipu.
Dia mengatakan aplikasi terbaru kecerdasan buatan untuk
menghasilkan ribuan target militer adalah ujung mata pisau.
"Yang paling saya khawatirkan adalah ketika ini bisa
secara otonom membuat keputusan untuk membunuh orang," katanya.
Profesor Hinton mengatakan sesuatu yang mirip dengan
Konvensi Jenewa perjanjian internasional yang menetapkan standar hukum untuk
perlakuan kemanusiaan dalam perang mungkin diperlukan untuk mengatur penggunaan
militer kecerdasan buatan.
"Tapi saya rasa itu tidak akan terjadi sampai
setelah hal-hal yang sangat tidak enak terjadi," tambahnya.
Ditanya apakah Barat sedang dalam perlombaan gaya Proyek
Manhattan merujuk pada penelitian senjata nuklir selama Perang Dunia II dengan
otoriter seperti Rusia dan Tiongkok dalam penggunaan militer kecerdasan buatan,
Profesor Hinton menjawab: "[Presiden Rusia Vladimir] Putin mengatakan
beberapa tahun yang lalu bahwa siapa pun yang mengendalikan kecerdasan buatan
mengendalikan dunia. Jadi saya membayangkan mereka sedang bekerja keras. Untungnya,
Barat mungkin jauh lebih maju dari mereka dalam penelitian. Kami mungkin masih
sedikit lebih maju dari Tiongkok. Tetapi Tiongkok mengalokasikan lebih banyak
sumber daya. Jadi dalam hal penggunaan militer saya pikir akan ada perlombaan”.
Dia mengatakan solusi yang lebih baik adalah larangan penggunaan militer kecerdasan buatan.