Dron dan kereta pandu sendiri sebagai senjata: mengapa kita perlu takut kepada penggodam
Dron dan kereta pandu sendiri sebagai senjata: mengapa kita perlu takut kepada penggodam
Anonim

Jika kecerdasan buatan jatuh ke tangan yang salah, dunia bertamadun boleh terjun ke dalam huru-hara.

Dron dan kereta pandu sendiri sebagai senjata: mengapa kita perlu takut kepada penggodam
Dron dan kereta pandu sendiri sebagai senjata: mengapa kita perlu takut kepada penggodam

Tiada siapa yang akan menafikan bahawa kecerdasan buatan boleh membawa nyawa kita ke peringkat seterusnya. AI mampu menyelesaikan banyak masalah yang di luar kemampuan manusia.

Walau bagaimanapun, ramai yang percaya bahawa superintelligence pasti mahu memusnahkan kita, seperti SkyNet, atau akan mula menjalankan eksperimen ke atas orang, seperti GLADoS dari permainan Portal. Ironinya hanya manusia yang boleh menjadikan kecerdasan buatan itu baik atau jahat.

Mengapa kecerdasan buatan boleh menjadi ancaman yang serius
Mengapa kecerdasan buatan boleh menjadi ancaman yang serius

Penyelidik dari Universiti Yale, Oxford, Cambridge dan OpenAI telah menerbitkan laporan mengenai penyalahgunaan kecerdasan buatan. Ia mengatakan bahaya sebenar datang daripada penggodam. Dengan bantuan kod hasad, mereka boleh mengganggu operasi sistem automatik di bawah kawalan AI.

Penyelidik takut bahawa teknologi yang bertujuan baik akan dirugikan. Sebagai contoh, peralatan pengawasan boleh digunakan bukan sahaja untuk menangkap pengganas, tetapi juga untuk mengintip rakyat biasa. Penyelidik juga mengambil berat tentang dron komersial yang menghantar makanan. Ia mudah untuk memintas mereka dan menanam sesuatu yang meletup.

Satu lagi senario untuk penggunaan AI yang merosakkan ialah kereta pandu sendiri. Ia cukup untuk menukar beberapa baris kod, dan mesin akan mula mengabaikan peraturan keselamatan.

Mengapa kecerdasan buatan boleh menjadi ancaman yang serius
Mengapa kecerdasan buatan boleh menjadi ancaman yang serius

Para saintis percaya ancaman itu boleh berbentuk digital, fizikal dan politik.

  • Kecerdasan buatan sudah digunakan untuk mengkaji kelemahan pelbagai kod perisian. Pada masa hadapan, penggodam boleh mencipta bot yang akan memintas sebarang perlindungan.
  • Dengan bantuan AI, seseorang boleh mengautomasikan banyak proses: contohnya, mengawal sekumpulan dron atau sekumpulan kereta.
  • Dengan bantuan teknologi seperti DeepFake, adalah mungkin untuk mempengaruhi kehidupan politik negara dengan menyebarkan maklumat palsu tentang pemimpin dunia menggunakan bot di Internet.

Contoh-contoh yang menakutkan ini setakat ini hanya wujud sebagai hipotesis. Penulis kajian tidak mencadangkan penolakan sepenuhnya terhadap teknologi. Sebaliknya, mereka percaya bahawa kerajaan negara dan syarikat besar harus menjaga keselamatan semasa industri AI masih di peringkat awal.

Pembuat dasar mesti mengkaji teknologi dan bekerjasama dengan pakar dalam bidang tersebut untuk mengawal selia penciptaan dan penggunaan kecerdasan buatan secara berkesan.

Pemaju, sebaliknya, mesti menilai bahaya yang ditimbulkan oleh teknologi tinggi, menjangka akibat terburuk dan memberi amaran kepada pemimpin dunia mengenainya. Laporan itu menyeru pembangun AI untuk bekerjasama dengan pakar keselamatan dalam bidang lain dan melihat sama ada prinsip yang memastikan keselamatan teknologi ini boleh digunakan untuk melindungi kecerdasan buatan.

Laporan penuh menerangkan masalah dengan lebih terperinci, tetapi intinya ialah AI ialah alat yang berkuasa. Semua pihak yang berminat harus mengkaji teknologi baharu dan memastikan ia tidak digunakan untuk tujuan jenayah.

Disyorkan: