Mida tehisintellekt tänapäeval tegelikult suudab
Mida tehisintellekt tänapäeval tegelikult suudab
Anonim

Spoileri hoiatus: masinate ülestõusuni on veel palju aega.

Mida tehisintellekt tänapäeval tegelikult suudab
Mida tehisintellekt tänapäeval tegelikult suudab

Kui Elon Musk tutvustab humanoidrobotit Tesla Bot, tundub, et uus teadusrevolutsioon on kohe ukse ees. Natuke veel – ja tehisintellekt (AI) ületab inimese ja masinad asendavad meid tööl. Professorid Gary Marcus ja Ernest Davis, mõlemad tunnustatud tehisintellekti eksperdid, palutakse aga mitte kiirustada selliste järeldustega.

Tehisintellekti taaskäivitamises selgitavad teadlased, miks kaasaegne tehnoloogia pole kaugeltki ideaalne. Kirjastuse "Alpina PRO" loal avaldab Lifehacker katkendi esimesest peatükist.

Siinkohal on meie ambitsioonide ja tehisintellekti tegelikkuse vahel tohutu lõhe – tõeline kuristik. See kuristik on tekkinud kolme konkreetse probleemi lahendamatuse tõttu, millest igaühega tuleb ausalt tegeleda.

Esimene neist on see, mida me nimetame kergeusklikkuseks, mis põhineb tõsiasjal, et meie, inimesed, pole tegelikult õppinud inimestel ja masinatel vahet tegema ning see muudab meid lihtsaks lolliks. Me omistame intelligentsuse arvutitele, kuna oleme ise arenenud ja elanud inimeste keskel, kes lähtuvad oma tegevuses suures osas abstraktsioonidest, nagu ideed, uskumused ja soovid. Masinate käitumine sarnaneb sageli pealiskaudselt inimeste käitumisega, mistõttu omistame masinatele kiiresti sama tüüpi põhimehhanismid, isegi kui masinatel neid pole.

Me ei saa jätta mõtlemata masinatest kognitiivses mõttes (“Mu arvuti arvab, et kustutasin faili”), hoolimata sellest, kui lihtsaid reegleid masinad tegelikult järgivad. Kuid järeldused, mis end inimeste puhul õigustavad, võivad tehisintellektiprogrammide puhul olla täiesti valed. Austades sotsiaalpsühholoogia põhiprintsiipi, nimetame seda fundamentaalseks kehtivusveaks.

Selle vea üks varasemaid juhtumeid tekkis 1960. aastate keskel, kui Eliza-nimeline vestlusbot veenis mõnda inimest, et ta sai tõesti aru, mida nad talle räägivad. Tegelikult valis Eliza lihtsalt märksõnad, kordas viimast, mida inimene talle ütles, ja ummikolukorras kasutas ta tavalisi vestlusnippe, nagu "Räägi mulle oma lapsepõlvest". Kui sa mainiksid oma ema, küsiks ta sinult sinu pere kohta, kuigi tal polnud õrna aimugi, mis perekond tegelikult on või miks see inimestele oluline on. See oli lihtsalt trikkide komplekt, mitte tõelise intelligentsuse demonstratsioon.

Hoolimata asjaolust, et Eliza ei mõistnud inimesi üldse, pettusid paljud kasutajad temaga peetud dialoogidest. Mõned veetsid tunde trükkides klaviatuuril fraase, vesteldes sel moel Elizaga, kuid tõlgendades vestlusroboti nippe valesti, pidades papagoi kõnet kasulikuks, siiraks nõuks või kaastundeks.

Joseph Weisenbaum Eliza looja.

Inimesed, kes teadsid väga hästi, et räägivad masinaga, unustasid selle tõsiasja peagi, nii nagu teatrisõbrad heidavad korraks kõrvale oma umbusu ja unustavad, et tegu, mille tunnistajaks nad on, pole õigust tõeliseks nimetada.

Eliza vestluskaaslased nõudsid sageli luba süsteemiga privaatseks vestluseks ja pärast vestlust kinnitasid, hoolimata kõigist minu selgitustest, et masin sai neist tõesti aru.

Muudel juhtudel võib viga autentsuse hindamisel saada saatuslikuks selle sõna otseses tähenduses. 2016. aastal toetus üks automatiseeritud Tesla auto omanik nii palju autopiloodi režiimi näilisele turvalisusele, et (juttude järgi) sukeldus täielikult Harry Potteri filmide vaatamisse, jättes auto kõike ise tegema.

Kõik läks hästi – kuni ühel hetkel läks halvasti. Sõitnud sadu või isegi tuhandeid kilomeetreid ilma avariita, põrkas auto (selle sõna igas mõttes) kokku ootamatu takistusega: valge veoauto ületas maanteed ja Tesla kihutas otse haagise alla, hukkudes autoomaniku kohapeal.. (Paistis, et auto hoiatas juhti mitu korda kontrolli üle võtma, kuid juht näis olevat liiga lõdvestunud, et kiiresti reageerida.)

Selle loo moraal on selge: asjaolu, et seade võib hetkeks või paariks (ja isegi kuueks kuuks) tunduda "tark" ei tähenda sugugi, et see nii on või et see suudab toime tulla kõigi tingimustega, milles inimene reageeriks adekvaatselt.

Teine probleem, mida me nimetame kiire progressi illusiooniks: tehisintellekti edusammude, mis on seotud kergete probleemide lahendamisega, segamine progressiga, mis on seotud tõeliselt raskete probleemide lahendamisega. See juhtus näiteks IBM Watsoni süsteemiga: selle edenemine mängus Jeopardy! tundus väga paljulubav, kuid tegelikult osutus süsteem inimkeele mõistmisest palju kaugemale, kui arendajad olid oodanud.

Võimalik, et DeepMindi AlphaGo programm järgib sama teed. Go mäng, nagu male, on idealiseeritud infomäng, kus mõlemad mängijad näevad igal ajal tervet lauda ja toore jõuga käikude tagajärgi arvutavad.

Enamasti ei tea päriselus keegi midagi täie kindlusega; meie andmed on sageli puudulikud või moonutatud.

Isegi kõige lihtsamatel juhtudel on ebakindlust palju. Kui me otsustame, kas minna jala arsti juurde või sõita metrooga (kuna päev on pilvine), ei tea me täpselt, kui kaua metroorongi ootamine aega võtab, kas rong jääb teele kinni, kas trügime vagunisse nagu heeringas tünnis või saame õues vihma käes märjaks, ei julge metrooga sõita ja kuidas arst meie hilinemisse suhtub.

Töötame alati selle teabega, mis meil on. Mängides Go iseendaga miljoneid kordi, ei ole DeepMind AlphaGo süsteem kunagi ebakindlusega tegelenud, ta lihtsalt ei tea, mis on infopuudus või selle ebatäielikkus ja ebakõla, rääkimata inimestevahelise suhtluse keerukusest.

On veel üks parameeter, mis muudab mõttemängud pärismaailmast väga erinevaks, ja see on jällegi seotud andmetega. Isegi keerulisi mänge (kui reeglid on piisavalt ranged) saab peaaegu ideaalselt modelleerida, nii et tehisintellekti süsteemid, mis neid mängivad, suudavad hõlpsalt koguda tohutul hulgal andmeid, mida neil treenimiseks vaja läheb. Seega saab masin Go puhul simuleerida inimestega mängu, mängides lihtsalt iseenda vastu; isegi kui süsteem vajab terabaite andmeid, loob ta need ise.

Programmeerijad saavad seega täiesti puhtaid simulatsiooniandmeid väikese või tasuta. Vastupidi, reaalses maailmas pole täiesti puhtaid andmeid olemas, neid on võimatu simuleerida (kuna mängureeglid muutuvad pidevalt) ja seda keerulisem on prooviga koguda palju gigabaite asjakohaseid andmeid. ja viga.

Tegelikkuses on meil vaid paar katset erinevate strateegiate testimiseks.

Me ei saa näiteks 10 miljonit korda arstivisiiti korrata, kohandades järk-järgult enne iga visiiti otsuste parameetreid, et oma käitumist transpordivaliku osas dramaatiliselt parandada.

Kui programmeerijad soovivad koolitada robotit, et aidata vanureid (näiteks aidata haigeid inimesi magama panna), on iga andmehulk väärt raha ja reaalset inimaega; simulatsioonimängude abil pole võimalik kõiki vajalikke andmeid koguda. Isegi kokkupõrketesti mannekeenid ei saa asendada tõelisi inimesi.

Vaja on koguda andmeid tõeliste eakate kohta, kellel on erinevad seniilse liikumise tunnused, erinevat tüüpi voodid, erinevat tüüpi pidžaamad, erinevat tüüpi majad ja siin ei saa teha vigu, sest inimese kukutamine isegi mitme kaugusele. sentimeetrit voodist oleks katastroof. Antud juhul on kaalul teatud edasiminek (seni kõige elementaarsem) selles valdkonnas, mis on saavutatud kitsa tehisintellekti meetodeid kasutades. Välja on töötatud arvutisüsteemid, mis mängivad peaaegu parimate inimmängijate tasemel videomängudes Dota 2 ja Starcraft 2, kus igal ajahetkel näidatakse osalejatele ainult osa mängumaailmast ja seega on iga mängija silmitsi infopuuduse probleem – seda nimetatakse Clausewitzi kerge käega "tundmatu uduks". Kuid arendatud süsteemid on endiselt väga kitsa fookusega ja ebastabiilsed. Näiteks AlphaStar programm, mis mängib Starcraft 2-s, on õppinud väga erinevatelt tegelastelt ainult ühte kindlat rassi ja peaaegu ükski neist arendustest ei ole mängitav nagu ükski teine rass. Ja loomulikult pole põhjust arvata, et nendes programmides kasutatavad meetodid sobivad edukate üldistuste tegemiseks palju keerulisemates elulistes olukordades. päriselusid. Nagu IBM on avastanud mitte korra, vaid juba kaks korda (kõigepealt males ja seejärel ohus!), ei taga suletud maailmast pärit probleemide õnnestumine sugugi edu avatud maailmas.

Kirjeldatud lõhe kolmas ring on usaldusväärsuse ülehindamine. Ikka ja jälle näeme, et niipea, kui inimesed tehisintellekti abil leiavad mõnele probleemile lahenduse, mis võib mõnda aega tõrgeteta toimida, eeldavad nad automaatselt, et revisjoniga (ja veidi suurema andmehulgaga) on kõik töötab usaldusväärselt.aeg. Kuid see ei pruugi nii olla.

Võtame jälle autod ilma juhita. Suhteliselt lihtne on luua demo autonoomsest sõidukist, mis sõidab rahulikul teel õigesti mööda selgelt tähistatud sõidurada; inimesed on seda aga suutnud juba üle sajandi. Neid süsteeme on aga rasketes või ootamatutes oludes palju keerulisem tööle saada.

Nagu Missy Cummings, Duke'i ülikooli inimeste ja autonoomia labori direktor (ja endine USA mereväe hävitajapiloot) meile e-kirjas ütles, ei ole küsimus selles, mitu miili juhita auto suudab ilma õnnetuseta läbida. millega need autod suudavad kohaneda muutuvate olukordadega. Tema Missy Cummingsi sõnul saatke e-kiri autoritele 22. septembril 2018., kaasaegsed poolautonoomsed sõidukid "töötavad tavaliselt ainult väga kitsas vahemikus, mis ei ütle midagi selle kohta, kuidas need võivad töötada vähem kui ideaalsetes tingimustes."

Phoenixi miljonitel katsemiilidel täiesti usaldusväärne väljanägemine ei tähenda Bombay mussooni ajal head sooritust.

See põhimõtteline erinevus selle vahel, kuidas autonoomsed sõidukid käituvad ideaaltingimustes (näiteks päikesepaistelistel päevadel äärelinna mitmerealistel teedel) ja selle vahel, mida nad võivad teha ekstreemsetes tingimustes, võib kergesti muutuda terve tööstuse edu ja ebaõnnestumise küsimuseks.

Kuna autonoomsele sõidule äärmuslikes tingimustes on nii vähe rõhku pandud ja praegune metoodika ei ole arenenud selles suunas, et tagada autopiloodi korrektne töötamine tingimustes, mida alles hakatakse tõeliseks pidama, võib peagi selgeks saada, et miljardid dollarid on kulutatud isejuhtivate autode ehitamise meetoditele, mis lihtsalt ei suuda pakkuda inimlikku sõidukindlust. Võimalik, et vajaliku tehnilise kindlustunde saavutamiseks on vaja lähenemisviise, mis erinevad põhimõtteliselt praegustest.

Ja autod on vaid üks näide paljudest sarnastest. Kaasaegsetes tehisintellekti uuringutes on selle usaldusväärsust ülemaailmselt alahinnatud. See on osaliselt tingitud sellest, et enamik selle valdkonna praegustest arengutest on seotud probleemidega, mis on väga veakindlad, näiteks reklaamide soovitamine või uute toodete reklaamimine.

Tõepoolest, kui soovitame teile viit tüüpi tooteid ja teile meeldivad neist ainult kolm, ei juhtu sellest kahju. Kuid paljudes tuleviku kriitilistes tehisintellektirakendustes, sealhulgas juhita autodes, vanurite hoolduses ja tervishoiu planeerimises, on inimlik töökindlus kriitilise tähtsusega.

Keegi ei osta kodurobotit, mis suudab teie eaka vanaisa turvaliselt voodisse kanda vaid neli korda viiest.

Isegi nendes ülesannetes, kus moodne tehisintellekt peaks teoreetiliselt paistma parimas võimalikus valguses, tuleb regulaarselt ette tõsiseid tõrkeid, mis mõnikord tunduvad väga naljakad. Tüüpiline näide: arvutid on põhimõtteliselt juba päris hästi õppinud ära tundma, mis sellel või teisel pildil on (või toimub).

Mõnikord töötavad need algoritmid suurepäraselt, kuid sageli tekitavad need täiesti uskumatuid vigu. Kui näitate pilti automatiseeritud süsteemile, mis genereerib igapäevaste stseenide fotodele pealdisi, saate sageli vastuse, mis on märkimisväärselt sarnane inimese kirjutatuga; Näiteks alloleva stseeni jaoks, kus grupp inimesi mängib frisbet, annab Google'i palju reklaamitud subtiitrite genereerimissüsteem sellele täpselt õige nime.

Joonis 1.1. Grupp noori, kes mängivad frisbit (usutav fotoallkiri, AI automaatselt genereeritud)
Joonis 1.1. Grupp noori, kes mängivad frisbit (usutav fotoallkiri, AI automaatselt genereeritud)

Kuid viis minutit hiljem saate samast süsteemist hõlpsasti täiesti absurdse vastuse, nagu juhtus näiteks selle liiklusmärgiga, millele keegi kleebis kleebiseid: arvuti nimega Süsteemi loojad ei selgitanud, miks see viga tekkis., kuid sellised juhtumid pole haruldased. Võime eeldada, et antud juhul klassifitseeris süsteem (võib-olla värvi ja tekstuuri poolest) foto sarnaseks teiste piltidega (millest ta õppis), millel on silt "palju toitu ja jooke täis külmik". Arvuti ei saanud loomulikult aru (millest inimene kergesti aru sai), et selline silt sobiks vaid suure ristkülikukujulise metallkarbi puhul, mille sees on mitmesuguseid (ja ka siis mitte kõiki) esemeid. see stseen on "külmik, kus on palju toitu ja jooke".

Riis. 1.2. Külmkapp täis sööki ja jooke (täiesti ebausutav pealkiri, loodud sama süsteemiga nagu ülal)
Riis. 1.2. Külmkapp täis sööki ja jooke (täiesti ebausutav pealkiri, loodud sama süsteemiga nagu ülal)

Samuti tuvastavad juhita autod sageli õigesti, mida nad "näevad", kuid mõnikord tundub, et nad jätavad endastmõistetava tähelepanuta, nagu Tesla puhul, mis põrkas regulaarselt autopiloodil vastu pargitud tuletõrjeautosid või kiirabiautosid. Sellised pimealad võivad olla veelgi ohtlikumad, kui need asuvad süsteemides, mis juhivad elektrivõrke või vastutavad rahvatervise jälgimise eest.

Ambitsioonide ja tehisintellekti tegelikkuse vahelise lõhe ületamiseks vajame kolme asja: selget teadlikkust selles mängus kaalul olevatest väärtustest, selget arusaama sellest, miks kaasaegsed tehisintellektisüsteemid ei täida oma funktsioone piisavalt usaldusväärselt, ja lõpuks uus arendusstrateegia masinmõtlemine.

Kuna panused tehisintellektile on töökohtade, ohutuse ja ühiskonna struktuuri seisukohalt tõesti kõrged, on meil kõigil – tehisintellekti spetsialistidel, nendega seotud elukutsete esindajatel, tavakodanikel ja poliitikutel – hädasti vaja mõista asjade tegelikku seisu. selles valdkonnas, et õppida kriitiliselt hindama tänapäeva tehisintellekti arengu taset ja olemust.

Nii nagu uudiste- ja statistikahuvilistele kodanikele on oluline mõista, kui lihtne on inimesi sõnade ja numbritega eksitada, on ka siin järjest olulisem mõistmise aspekt, et saaksime aru saada, kus on tehisintellekt. ainult reklaam, aga kus see päris on; mida ta praegu suudab ja mida ta ei oska ja võib-olla ei õpigi.

Kõige tähtsam on teadvustada, et tehisintellekt ei ole maagia, vaid lihtsalt tehnikate ja algoritmide kogum, millest igaühel on oma tugevad ja nõrgad küljed, sobib mõne ülesande jaoks ja ei sobi teiste jaoks. Üks peamisi põhjusi, miks me seda raamatut kirjutama asusime, on see, et suur osa sellest, mida me tehisintellekti kohta loeme, tundub meile olevat absoluutne fantaasia, mis kasvab välja alusetust usaldusest tehisintellekti peaaegu maagilise jõu vastu.

Samal ajal pole sellel väljamõeldisel mingit pistmist tänapäevaste tehnoloogiliste võimalustega. Kahjuks on tehisintellekti arutelu laiema avalikkuse seas mõjutanud ja on tugevalt mõjutatud spekulatsioonidest ja liialdamisest: enamik inimesi ei kujuta ettegi, kui keeruline on universaalset tehisintellekti luua.

Täpsustame edasist arutelu. Kuigi tehisintellektiga seotud reaalsuste selgitamine nõuab meilt tõsist kriitikat, pole me ise sugugi tehisintellekti vastased, meile väga meeldib tehnoloogilise progressi see pool. Oleme elanud olulise osa oma elust selle ala professionaalidena ja soovime, et see areneks võimalikult kiiresti.

Ameerika filosoof Hubert Dreyfus kirjutas kunagi raamatu sellest, millistele kõrgustele tema arvates tehisintellekt kunagi ei jõua. Sellest see raamat ei räägi. See keskendub osaliselt sellele, mida tehisintellekt praegu teha ei saa ja miks on selle mõistmine oluline, kuid märkimisväärne osa sellest räägib sellest, mida saaks teha arvutimõtlemise parandamiseks ja selle laiendamiseks valdkondadesse, kus tal on praegu esmalt raskusi.

Me ei taha, et tehisintellekt kaoks; me tahame, et see paraneks radikaalselt, et saaksime sellele tõesti loota ja selle abiga lahendada inimkonna paljud probleemid. Meil on tehisintellekti praeguse olukorra kohta palju kriitikat, kuid meie kriitika on armastuse ilming teaduse vastu, mida teeme, mitte üleskutse loobuda ja kõike hüljata.

Lühidalt öeldes usume, et tehisintellekt võib tõepoolest meie maailma tõsiselt muuta; kuid usume ka, et paljud tehisintellekti puudutavad põhieeldused peavad muutuma, enne kui saame rääkida tõelistest edusammudest. Meie pakutud tehisintellekti "lähtestamine" ei ole sugugi põhjus teadustööle lõpu tegemiseks (kuigi mõni võib meie raamatust täpselt sellises vaimus aru saada), vaid pigem diagnoos: kuhu me nüüd kinni oleme jäänud ja kuidas sellest välja tulla. tänane olukord.

Usume, et parim viis edasi liikumiseks võib olla sissepoole vaatamine, silmitsi seistes omaenda meele struktuuriga.

Tõeliselt intelligentsed masinad ei pea olema inimeste täpsed koopiad, kuid igaüks, kes tehisintellekti ausalt vaatab, näeb, et inimestelt on veel palju õppida, eriti väikelastelt, kes on paljuski palju paremad kui masinad. nende võime vastu võtta ja mõista uusi mõisteid.

Meditsiiniteadlased iseloomustavad arvuteid sageli kui "üliinimlikke" (ühel või teisel viisil) süsteeme, kuid inimaju on sellegipoolest vähemalt viies aspektis oma räni kolleegidest tohutult parem: me saame aru keelest, saame aru maailmast, suudame paindlikult. Uute oludega kohanedes õpime kiiresti uusi asju selgeks (isegi ilma suurte andmemahtudeta) ning oskame arutleda puuduliku ja isegi vastuolulise teabe ees. Kõigil neil rinnetel on kaasaegsed tehisintellektisüsteemid inimestest lootusetult maha jäänud.

Tehisintellekti taaskäivitamine
Tehisintellekti taaskäivitamine

Tehisintellekt: taaskäivitamine pakub huvi inimestele, kes soovivad mõista kaasaegseid tehnoloogiaid ja mõista, kuidas ja millal saab uue põlvkonna tehisintellekt meie elu paremaks muuta.

Soovitan: