Apa yang sebenarnya boleh dilakukan oleh kecerdasan buatan hari ini
Apa yang sebenarnya boleh dilakukan oleh kecerdasan buatan hari ini
Anonim

Amaran spoiler: Masih lama lagi sebelum kebangkitan mesin.

Apa yang sebenarnya boleh dilakukan oleh kecerdasan buatan hari ini
Apa yang sebenarnya boleh dilakukan oleh kecerdasan buatan hari ini

Apabila Elon Musk memperkenalkan robot humanoid Tesla Bot, nampaknya revolusi saintifik baharu hampir tiba. Sedikit lagi - dan kecerdasan buatan (AI) akan mengatasi manusia, dan mesin akan menggantikan kita di tempat kerja. Walau bagaimanapun, Profesor Gary Marcus dan Ernest Davis, kedua-duanya pakar AI yang terkenal, diminta untuk tidak tergesa-gesa membuat kesimpulan sedemikian.

Dalam Reboot Kecerdasan Buatan, penyelidik menerangkan mengapa teknologi moden jauh dari ideal. Dengan kebenaran rumah penerbitan "Alpina PRO" Lifehacker menerbitkan petikan dari bab pertama.

Pada ketika ini, terdapat jurang yang besar - jurang sebenar - antara cita-cita kita dan realiti kecerdasan buatan. Jurang ini timbul kerana tiga masalah khusus yang tidak dapat diselesaikan, yang masing-masing mesti ditangani dengan jujur.

Yang pertama adalah apa yang kita panggil mudah tertipu, yang berdasarkan fakta bahawa kita manusia tidak benar-benar belajar untuk membezakan antara manusia dan mesin, dan ini menjadikannya mudah untuk menipu kita. Kami mengaitkan kecerdasan kepada komputer kerana kami sendiri telah berkembang dan hidup di kalangan orang yang sebahagian besarnya mendasarkan tindakan mereka pada abstrak seperti idea, kepercayaan dan keinginan. Tingkah laku mesin selalunya serupa dengan gelagat manusia, jadi kami dengan cepat memberikan mesin jenis mekanisme asas yang sama, walaupun mesin tidak memilikinya.

Kita tidak boleh tidak memikirkan mesin dari segi kognitif ("Komputer saya fikir saya telah memadamkan fail saya"), tidak kira betapa mudahnya peraturan yang sebenarnya dipatuhi oleh mesin. Tetapi kesimpulan yang membenarkan diri mereka sendiri apabila digunakan pada manusia mungkin salah sama sekali apabila digunakan pada program kecerdasan buatan. Sebagai menghormati prinsip asas psikologi sosial, kami memanggil ini ralat kesahan asas.

Salah satu contoh terawal ralat ini berlaku pada pertengahan 1960-an, apabila chatbot bernama Eliza meyakinkan beberapa orang bahawa dia benar-benar memahami perkara yang mereka beritahu dia. Sebenarnya, Eliza hanya mengambil kata kunci, mengulangi perkara terakhir yang dikatakan oleh orang itu kepadanya, dan dalam situasi buntu dia menggunakan helah perbualan standard seperti "Beritahu saya tentang zaman kanak-kanak anda." Jika anda menyebut ibu anda, dia akan bertanya kepada anda tentang keluarga anda, walaupun dia tidak tahu apa itu keluarga sebenarnya atau mengapa ia penting kepada orang ramai. Ia hanya satu set helah, bukan demonstrasi kecerdasan sebenar.

Walaupun pada hakikatnya Eliza tidak memahami orang ramai, ramai pengguna yang tertipu dengan dialog dengannya. Ada yang menghabiskan berjam-jam menaip frasa pada papan kekunci, bercakap dengan Eliza dengan cara ini, tetapi salah tafsir helah chatbot, salah mengira ucapan burung nuri sebagai nasihat yang berguna, ikhlas atau simpati.

Joseph Weisenbaum Pencipta Eliza.

Orang yang mengetahui dengan baik bahawa mereka bercakap dengan mesin segera melupakan fakta ini, sama seperti pencinta teater mengetepikan ketidakpercayaan mereka untuk seketika dan lupa bahawa tindakan yang mereka saksikan tidak berhak untuk dipanggil nyata.

Teman bicara Eliza sering menuntut kebenaran untuk perbualan peribadi dengan sistem dan selepas perbualan itu menegaskan, walaupun semua penjelasan saya, bahawa mesin itu benar-benar memahami mereka.

Dalam kes lain, kesilapan dalam menilai keaslian mungkin membawa maut dalam erti kata literal. Pada tahun 2016, seorang pemilik kereta Tesla automatik sangat bergantung pada keselamatan mod autopilot yang (menurut cerita) dia benar-benar melibatkan diri dalam menonton filem Harry Potter, meninggalkan kereta itu untuk melakukan segala-galanya sendiri.

Semuanya berjalan lancar - sehingga pada satu ketika ia menjadi buruk. Setelah memandu ratusan atau bahkan beribu-ribu batu tanpa kemalangan, kereta itu bertembung (dalam setiap erti kata) dengan halangan yang tidak dijangka: sebuah trak putih melintasi lebuh raya, dan Tesla meluru betul-betul di bawah treler, membunuh pemilik kereta di tempat kejadian. (Kereta itu kelihatan memberi amaran kepada pemandu beberapa kali untuk mengawal, tetapi pemandu itu kelihatan terlalu santai untuk bertindak balas dengan cepat.)

Moral cerita ini adalah jelas: hakikat bahawa peranti mungkin kelihatan "pintar" untuk sesaat atau dua (dan bahkan enam bulan) sama sekali tidak bermakna ia benar-benar begitu atau bahawa ia boleh mengatasi semua keadaan di mana seseorang akan bertindak balas dengan secukupnya.

Masalah kedua yang kita panggil ilusi kemajuan pesat: kesilapan kemajuan dalam kecerdasan buatan, dikaitkan dengan menyelesaikan masalah mudah, untuk kemajuan, dikaitkan dengan menyelesaikan masalah yang sangat sukar. Ini, sebagai contoh, berlaku dengan sistem IBM Watson: kemajuannya dalam permainan Jeopardy! kelihatan sangat menjanjikan, tetapi sebenarnya sistem itu ternyata jauh lebih jauh daripada memahami bahasa manusia daripada jangkaan pembangun.

Ada kemungkinan program AlphaGo DeepMind akan mengikuti jalan yang sama. Permainan pergi, seperti catur, ialah permainan maklumat yang ideal di mana kedua-dua pemain boleh melihat keseluruhan papan pada bila-bila masa dan mengira akibat daripada pergerakan dengan kekerasan.

Dalam kebanyakan kes, dalam kehidupan sebenar, tiada siapa yang tahu apa-apa dengan pasti; data kami selalunya tidak lengkap atau diherotkan.

Walaupun dalam kes yang paling mudah, terdapat banyak ketidakpastian. Apabila kami memutuskan sama ada untuk pergi ke doktor dengan berjalan kaki atau menaiki kereta api bawah tanah (memandangkan hari mendung), kami tidak tahu dengan tepat berapa lama masa yang diperlukan untuk menunggu kereta api bawah tanah, sama ada kereta api itu tersangkut di jalan raya, sama ada kita akan menjejalkan ke dalam gerabak seperti herring dalam tong atau kita akan basah dalam hujan di luar, tidak berani menaiki kereta api bawah tanah, dan bagaimana doktor akan bertindak balas terhadap kelewatan kita.

Kami sentiasa bekerja dengan maklumat yang kami ada. Memainkan Go dengan dirinya sendiri berjuta-juta kali, sistem DeepMind AlphaGo tidak pernah menangani ketidakpastian, ia hanya tidak tahu betapa kekurangan maklumat atau ketidaklengkapan dan ketidakkonsistenannya, apatah lagi kerumitan interaksi manusia.

Terdapat satu lagi parameter yang menjadikan permainan minda seperti sangat berbeza daripada dunia sebenar, dan ini sekali lagi berkaitan dengan data. Malah permainan yang kompleks (jika peraturannya cukup ketat) boleh dimodelkan dengan hampir sempurna, jadi sistem kecerdasan buatan yang memainkannya boleh dengan mudah mengumpul sejumlah besar data yang perlu mereka latih. Oleh itu, dalam kes Go, mesin boleh mensimulasikan permainan dengan orang dengan hanya bermain menentang dirinya sendiri; walaupun sistem memerlukan terabait data, ia akan menciptanya sendiri.

Oleh itu, pengaturcara boleh mendapatkan data simulasi bersih sepenuhnya dengan sedikit atau tanpa kos. Sebaliknya, dalam dunia nyata, data bersih sempurna tidak wujud, mustahil untuk mensimulasikannya (kerana peraturan permainan sentiasa berubah), dan lebih sukar untuk mengumpul banyak gigabait data yang berkaitan melalui percubaan dan kesilapan.

Pada hakikatnya, kami hanya mempunyai beberapa percubaan untuk menguji strategi yang berbeza.

Kami tidak dapat, sebagai contoh, untuk mengulangi lawatan ke doktor 10 juta kali, secara beransur-ansur menyesuaikan parameter keputusan sebelum setiap lawatan, untuk meningkatkan secara dramatik tingkah laku kami dari segi pilihan pengangkutan.

Jika pengaturcara ingin melatih robot untuk membantu orang tua (katakan, untuk membantu meletakkan orang sakit tidur), setiap bit data akan bernilai wang sebenar dan masa manusia sebenar; tiada cara untuk mengumpul semua data yang diperlukan menggunakan permainan simulasi. Malah boneka ujian kemalangan tidak boleh menggantikan orang sebenar.

Adalah perlu untuk mengumpul data tentang orang tua sebenar dengan ciri-ciri pergerakan nyanyuk yang berbeza, pada jenis katil yang berbeza, jenis piyama yang berbeza, jenis rumah yang berbeza, dan di sini anda tidak boleh membuat kesilapan, kerana menjatuhkan seseorang walaupun pada jarak beberapa sentimeter dari katil akan menjadi bencana. Dalam kes ini, yang dipertaruhkan adalah kemajuan tertentu (setakat ini yang paling asas) dalam bidang ini telah dicapai menggunakan kaedah kecerdasan buatan yang sempit. Sistem komputer telah dibangunkan yang bermain hampir pada tahap pemain manusia terbaik dalam permainan video Dota 2 dan Starcraft 2, di mana pada bila-bila masa hanya sebahagian daripada dunia permainan ditunjukkan kepada peserta dan, dengan itu, setiap pemain menghadapi masalah kekurangan maklumat - bahawa dengan tangan ringan Clausewitz dipanggil "kabus yang tidak diketahui." Walau bagaimanapun, sistem yang dibangunkan masih kekal sangat fokus dan tidak stabil dalam operasi. Sebagai contoh, program AlphaStar yang bermain dalam Starcraft 2 hanya mempelajari satu perlumbaan tertentu daripada pelbagai jenis watak, dan hampir tiada perkembangan ini boleh dimainkan seperti mana-mana kaum lain. Dan, sudah tentu, tidak ada sebab untuk mempercayai bahawa kaedah yang digunakan dalam program ini sesuai untuk membuat generalisasi yang berjaya dalam situasi kehidupan sebenar yang lebih kompleks. kehidupan sebenar. Memandangkan IBM telah menemui bukan sekali, tetapi sudah dua kali (pertama dalam catur, dan kemudian dalam Jeopardy!), Kejayaan dalam masalah dari dunia tertutup tidak sama sekali menjamin kejayaan dalam dunia terbuka.

Bulatan ketiga jurang yang diterangkan adalah anggaran kebolehpercayaan yang terlalu tinggi. Berulang kali, kami melihat bahawa sebaik sahaja orang dengan bantuan kecerdasan buatan mencari penyelesaian kepada beberapa masalah yang boleh berfungsi tanpa kegagalan untuk seketika, mereka secara automatik menganggap bahawa dengan semakan (dan dengan jumlah data yang sedikit lebih besar) semuanya akan berfungsi dengan pasti.masa. Tetapi ini tidak semestinya berlaku.

Kami mengambil semula kereta tanpa pemandu. Agak mudah untuk mencipta demo kenderaan autonomi yang akan memandu dengan betul di sepanjang lorong yang ditanda dengan jelas di jalan yang tenang; bagaimanapun, orang telah dapat melakukan ini selama lebih satu abad. Walau bagaimanapun, adalah lebih sukar untuk membolehkan sistem ini berfungsi dalam keadaan yang sukar atau tidak dijangka.

Seperti yang Missy Cummings, pengarah Makmal Manusia dan Autonomi di Duke University (dan bekas juruterbang pejuang Tentera Laut AS), memberitahu kami dalam e-mel, persoalannya bukanlah berapa batu yang boleh dilalui oleh kereta tanpa pemandu tanpa kemalangan, tetapi sejauh mana yang mana kereta ini mampu menyesuaikan diri dengan situasi yang berubah-ubah. Menurut Missy Cummings beliau, e-mel kepada pengarang pada 22 September 2018., kenderaan separa autonomi moden "biasanya hanya beroperasi dalam julat keadaan yang sangat sempit, yang tidak mengatakan apa-apa tentang cara ia boleh beroperasi dalam keadaan kurang ideal."

Kelihatan boleh dipercayai sepenuhnya pada berjuta-juta batu ujian di Phoenix tidak bermakna menunjukkan prestasi yang baik semasa monsun di Bombay.

Perbezaan asas ini antara cara kenderaan autonomi berkelakuan dalam keadaan ideal (seperti hari yang cerah di jalan berbilang lorong pinggir bandar) dan perkara yang mungkin mereka lakukan dalam keadaan yang melampau boleh menjadi masalah kejayaan dan kegagalan untuk keseluruhan industri.

Dengan begitu sedikit penekanan pada pemanduan autonomi dalam keadaan yang melampau dan metodologi semasa tidak berkembang ke arah memastikan bahawa autopilot akan berfungsi dengan betul dalam keadaan yang baru mula dipertimbangkan untuk sebenar, ia mungkin tidak lama lagi menjadi jelas bahawa berbilion dolar telah dibelanjakan untuk kaedah membina kereta pandu sendiri yang gagal memberikan kebolehpercayaan pemanduan seperti manusia. Ada kemungkinan bahawa untuk mencapai tahap keyakinan teknikal yang kita perlukan, pendekatan yang pada asasnya berbeza daripada yang semasa diperlukan.

Dan kereta hanyalah satu contoh dari banyak yang serupa. Dalam penyelidikan moden mengenai kecerdasan buatan, kebolehpercayaannya telah dipandang remeh secara global. Ini sebahagiannya kerana kebanyakan perkembangan semasa dalam bidang ini melibatkan masalah yang sangat tahan ralat, seperti mengesyorkan pengiklanan atau mempromosikan produk baharu.

Sesungguhnya, jika kami mengesyorkan anda lima jenis produk, dan anda hanya menyukai tiga daripadanya, tiada bahaya akan berlaku. Tetapi dalam beberapa aplikasi AI kritikal untuk masa depan, termasuk kereta tanpa pemandu, penjagaan warga tua dan perancangan penjagaan kesihatan, kebolehpercayaan seperti manusia akan menjadi kritikal.

Tiada siapa yang akan membeli robot rumah yang boleh membawa datuk tua anda ke katil dengan selamat hanya empat kali daripada lima.

Walaupun dalam tugas-tugas di mana kecerdasan buatan moden secara teorinya harus muncul dalam cahaya yang terbaik, kegagalan serius berlaku dengan kerap, kadang-kadang kelihatan sangat lucu. Contoh biasa: komputer, pada dasarnya, telah belajar dengan baik cara mengenali apa yang (atau sedang berlaku) dalam imej ini atau itu.

Kadangkala algoritma ini berfungsi dengan baik, tetapi selalunya ia menghasilkan ralat yang luar biasa. Jika anda menunjukkan imej kepada sistem automatik yang menjana kapsyen untuk gambar adegan harian, anda sering mendapat jawapan yang sangat serupa dengan apa yang akan ditulis oleh manusia; contohnya, untuk adegan di bawah, di mana sekumpulan orang bermain frisbee, sistem penjanaan sari kata Google yang sangat publisiti memberikannya nama yang betul-betul tepat.

Rajah 1.1. Kumpulan anak muda bermain frisbee (kapsyen foto yang munasabah, dijana secara automatik oleh AI)
Rajah 1.1. Kumpulan anak muda bermain frisbee (kapsyen foto yang munasabah, dijana secara automatik oleh AI)

Tetapi lima minit kemudian, anda boleh dengan mudah mendapatkan jawapan yang benar-benar tidak masuk akal daripada sistem yang sama, seperti yang berlaku, sebagai contoh, dengan papan tanda jalan ini, di mana seseorang melekat pelekat: komputer yang dipanggil Pencipta sistem tidak menjelaskan mengapa ralat ini berlaku, tetapi kes sebegini bukan perkara biasa. Kita boleh mengandaikan bahawa sistem dalam kes khusus ini mengklasifikasikan (mungkin dari segi warna dan tekstur) gambar sebagai serupa dengan gambar lain (dari mana ia belajar) dilabelkan sebagai "peti sejuk yang dipenuhi dengan banyak makanan dan minuman." Sememangnya, komputer tidak memahami (yang mudah difahami oleh seseorang) bahawa inskripsi seperti itu hanya sesuai dalam kes kotak logam segi empat tepat yang besar dengan pelbagai (dan tidak semua) objek di dalamnya. adegan ini ialah "peti sejuk dengan banyak makanan dan minuman."

nasi. 1.2. Peti ais dipenuhi dengan banyak makanan dan minuman (tajuk yang tidak masuk akal, dicipta oleh sistem yang sama seperti di atas)
nasi. 1.2. Peti ais dipenuhi dengan banyak makanan dan minuman (tajuk yang tidak masuk akal, dicipta oleh sistem yang sama seperti di atas)

Begitu juga, kereta tanpa pemandu selalunya mengenal pasti dengan betul apa yang mereka "lihat", tetapi kadangkala mereka seolah-olah terlepas pandang, seperti dalam kes Tesla, yang kerap merempuh trak bomba atau ambulans yang diletakkan secara autopilot. Tompok buta seperti ini boleh menjadi lebih berbahaya jika ia terletak dalam sistem yang mengawal grid kuasa atau bertanggungjawab untuk memantau kesihatan awam.

Untuk merapatkan jurang antara cita-cita dan realiti kecerdasan buatan, kita memerlukan tiga perkara: kesedaran yang jelas tentang nilai-nilai yang dipertaruhkan dalam permainan ini, pemahaman yang jelas mengapa sistem AI moden tidak melaksanakan fungsinya dengan cukup dipercayai, dan, akhirnya, pemikiran mesin strategi pembangunan baharu.

Memandangkan kepentingan pada kecerdasan buatan adalah sangat tinggi dari segi pekerjaan, keselamatan dan fabrik masyarakat, terdapat keperluan mendesak untuk kita semua - profesional AI, profesion berkaitan, rakyat biasa dan ahli politik - untuk memahami keadaan sebenar. dalam bidang ini untuk belajar menilai secara kritis tahap dan sifat perkembangan kecerdasan buatan masa kini.

Sama seperti pentingnya rakyat yang berminat dengan berita dan statistik untuk memahami betapa mudahnya untuk mengelirukan orang dengan perkataan dan nombor, jadi berikut adalah aspek pemahaman yang semakin penting supaya kita dapat mengetahui di mana kecerdasan buatan. hanya pengiklanan, tetapi di manakah ia sebenarnya; apa yang dia mampu lakukan sekarang, dan apa yang dia tidak tahu bagaimana dan, mungkin, tidak akan belajar.

Perkara yang paling penting adalah untuk menyedari bahawa kecerdasan buatan bukanlah sihir, tetapi hanya satu set teknik dan algoritma, yang masing-masing mempunyai kekuatan dan kelemahan sendiri, sesuai untuk beberapa tugas dan tidak sesuai untuk yang lain. Salah satu sebab utama kami berhasrat untuk menulis buku ini ialah kebanyakan perkara yang kami baca tentang kecerdasan buatan nampaknya seperti fantasi mutlak, berkembang daripada keyakinan yang tidak berasas terhadap kuasa kecerdasan buatan yang hampir ajaib.

Sementara itu, fiksyen ini tidak ada kena mengena dengan keupayaan teknologi moden. Malangnya, perbincangan tentang AI di kalangan orang awam telah dan banyak dipengaruhi oleh spekulasi dan keterlaluan: kebanyakan orang tidak tahu betapa sukarnya untuk mencipta kecerdasan buatan sejagat.

Mari kita jelaskan perbincangan lanjut. Walaupun menjelaskan realiti yang berkaitan dengan AI akan memerlukan kritikan serius daripada kami, kami sendiri sama sekali tidak menentang kecerdasan buatan, kami sangat menyukai bahagian kemajuan teknologi ini. Kami telah menjalani sebahagian besar kehidupan kami sebagai profesional dalam bidang ini dan kami mahu ia berkembang secepat mungkin.

Ahli falsafah Amerika Hubert Dreyfus pernah menulis buku tentang ketinggian apa, pada pendapatnya, kecerdasan buatan tidak boleh dicapai. Bukan ini yang dimaksudkan dengan buku ini. Ia memfokuskan sebahagiannya pada perkara yang tidak boleh dilakukan oleh AI pada masa ini dan mengapa penting untuk memahaminya, tetapi sebahagian besar daripadanya bercakap tentang perkara yang boleh dilakukan untuk meningkatkan pemikiran komputer dan memanjangkannya ke kawasan yang kini mengalami kesukaran untuk melakukannya terlebih dahulu.

Kami tidak mahu kecerdasan buatan hilang; kami mahu ia bertambah baik, lebih-lebih lagi, secara radikal, supaya kami benar-benar boleh mengharapkannya dan menyelesaikan dengan bantuannya banyak masalah umat manusia. Kami mempunyai banyak kritikan tentang keadaan kecerdasan buatan semasa, tetapi kritikan kami adalah manifestasi cinta kepada sains yang kami lakukan, bukan panggilan untuk menyerah dan meninggalkan segala-galanya.

Ringkasnya, kami percaya bahawa kecerdasan buatan sememangnya boleh mengubah dunia kita dengan serius; tetapi kami juga percaya bahawa banyak andaian asas tentang AI mesti berubah sebelum kita boleh bercakap tentang kemajuan sebenar. Cadangan "set semula" kecerdasan buatan kami sama sekali bukan alasan untuk menamatkan penyelidikan (walaupun sesetengah orang mungkin memahami buku kami dengan semangat ini), tetapi lebih kepada diagnosis: di manakah kita terperangkap sekarang dan bagaimana kita boleh keluar dari keadaan hari ini.

Kami percaya bahawa cara terbaik untuk bergerak ke hadapan adalah dengan melihat ke dalam, menghadapi struktur minda kita sendiri.

Mesin pintar sebenarnya tidak semestinya replika tepat manusia, tetapi sesiapa yang melihat kecerdasan buatan secara jujur akan melihat bahawa masih banyak yang perlu dipelajari daripada manusia, terutamanya daripada kanak-kanak kecil, yang dalam banyak hal jauh lebih hebat daripada mesin dalam keupayaan mereka untuk menyerap dan memahami konsep baru.

Para saintis perubatan sering mencirikan komputer sebagai sistem "manusia super" (dalam satu cara atau yang lain), tetapi otak manusia masih jauh lebih unggul daripada rakan silikonnya dalam sekurang-kurangnya lima aspek: kita boleh memahami bahasa, kita boleh memahami dunia, kita boleh secara fleksibel. menyesuaikan diri dengan keadaan baharu, kita boleh mempelajari perkara baharu dengan cepat (walaupun tanpa jumlah data yang besar) dan boleh membuat alasan dalam menghadapi maklumat yang tidak lengkap malah bercanggah. Dalam semua bidang ini, sistem kecerdasan buatan moden berada di belakang manusia.

But semula Kecerdasan Buatan
But semula Kecerdasan Buatan

Kecerdasan Buatan: But semula akan menarik minat orang yang ingin memahami teknologi moden dan memahami bagaimana dan bila generasi baharu AI boleh menjadikan kehidupan kita lebih baik.

Disyorkan: