Olemassa olevat riskit ja hallitsematon digitaalinen kehitys

[En ole AI-asiantuntija. Käsiteltävänä oleva kirja ei tarjoa konkreettisia ratkaisuja, vaan se kuuluu luokkiin #speculative journalism and science fiction. Kuten usein tapahtuu tällaisissa tapauksissa, teoksen luomat keskustelut ovat paljon mielenkiintoisempia ja hyödyllisempiä kuin kirja itse. Tämä aihe on yleistynyt englanniksi. Internetissä. Runetissa kysely @ superintelect, @ supermind antaa ~ 189 tulosta kuukaudessa (Yandex)]

"Mitä jos onnistumme?"
Stuart Russell

I. Apocalypse huomenna

Kirjassaan Superintelligence: mahdollisuudet, riskit, strategiat Nick Bostrom vetää pessimistisen skenaarion keinotekoisen älykkyyden kehittymisestä: heti kun AI näyttää olevan sama kuin ihmisen älykkyys, superintelligence on yksi hänen ensimmäisistä keksinnöistään. Ja sitten "viulisti ei tarvita", super-älykkäät tietojärjestelmät voivat itse kouluttaa ja toistaa entistä monimutkaisempia järjestelmiä, hallita kilpailevan AI: n tuotantoa ja jakelua, antaa aggressiivisen malthusilaisen rodun muiden älykkäiden tekijöiden kanssa keinotekoisen luontoon.

Ylimmän ja ihmisen lähiympäristön eksistentiaaliset riskit kasvavat moninkertaisesti. Nick Bostrom varoittaa, että superintelligence pystyy oppimaan nopeammin ja tehokkaammin sen tekijöistä, ja jos et inhimillisiä arvoja siihen osallistu, kaikki voi loppua huonosti, koska superintelligence ei ainoastaan ​​pysty säätelemään älykkäiden koneiden jatkokehitystä, se estää onnistuneesti ihmisiä yrittämästä korjata työtään tai häiritä sitä.

Autobiografinen perääntyminen: Nick Bostrom tiedemiesten ja filosofien keskuudessa tunnetaan kauhueläisenä - hän johtaa instituuttia, joka harjoittaa eksistentiaalisten riskien etsintää ja julkaisemista, hänellä on tällainen työ. Jotkut kollegat jopa kutsuvat häntä Donald Trumpiksi AI: ltä, Nick Bostrom loukkaa, mutta antaa anteeksi nopeasti. Tieteellisen keskustelun ankara maailma. Autobiografisen retriitin loppu.

II. Mitä asiantuntijat ajattelevat?

AI: llä on jo "rajoitettu rationaalisuus" - se voi valita optimaalisen strategian tulosten saavuttamiseksi. Mitä tapahtuu, jos hän oppii muuttamaan niitä ja muuttamaan tavoitteidensa hierarkiaa?

Bostrom mainitsee pelkojensa tukemisen tärkeimpänä argumenttina optimointitavan. Jos superintelligentin on ratkaistava Riemann-lause ja sen on muutettava puolet elävistä olennoista tietokoneiksi, hän tekee sen epäröimättä, Bostrom väittää. Jos superintelligenssin on parannettava syöpää, hän tekee sen, vaikka se tarvitsee tuhota kaikki ihmiset, joilla ei ole syöpää. Kirjoittaja asettaa super-älykkyyden hallinnan ongelman ensinnäkin AI: n kehittämisessä. Tiedemiehistä kutsutaan tällaista skenaariota bostromin paradigmat 2000-luvulla. Koneen oppimisen viimeaikainen kehitys on kiinnittänyt tähän kysymykseen huomiota myös teknololikkojen ja liikemiehet, jotka kuulivat hälytyksen ja ilmaisivat rehellisesti, että AI: n kehittyminen on ollut.

Ramez Naam epäilee B.Gatesin, I.Maskan, mielipiteitä ("super-älykkyys on uusi atomipommi"), S. Hawking on AI: n riskeistä minkäänlaista painoa. "#Näytä tarve. Kukaan heistä ei työskennellyt tällä alueella."Hän viittaa merkittävien AI / koneopiskelijoiden mielipiteisiin:

  • Michael Litman, Brownin yliopiston professori ja AI-yhdistyksen entinen työntekijä: "Tällaiset pelot ovat yksinkertaisesti epärealistisia. AI ei voi vain herätä ja tehdä apokalipseja."
  • Jan LeKun, Facebook-asiantuntija neuroverkoissa: "Jotkut ajattelevat, että AI pystyy ohjelmoimaan itsensä yhden päivän. Yleensä tällaiset olettamukset eivät ole asiantuntijoita."
  • Andrew Eun, Curser / Google / Baidu-koneen oppimisen asiantuntija: "Kyllä, tietokoneet ovat älykkäämpiä. Mutta tämä on vain mieli, ei mieli ja itsetietoisuus, ja useimmat asiantuntijat eivät usko, että tällä tavalla voit luoda tietoiselle AI: lle. Älykäs superintelligenssin vaaroista huolehtiminen on aivan sama kuin huolehtiminen marssin ylikansoitus."
  • Muut, vähemmän vakavat asiantuntijat uskovat toisin:
  • Richard Sutton, Albertian yliopiston tietojenkäsittelytieteen professori, puheessaan turvallisessa AI: n konferenssissa sanoi, että: "on tietty todennäköisyys, että henkilön AI-taso esiintyy" ja sitten "meidän on pakko tehdä yhteistyötä hänen kanssaan", ja "kohtuullisesta orjasta AI voi tulla kohtuulliseksi kilpailijaksi."
  • Luganon yliopiston AI: n professori Jürgen Schmidhuber ja entinen Münchenin yliopiston kognitiivisen tieteen professori toteavat, että: "jos tieteen kehittyminen pysyy samalla tasolla kuin aikaisemmin, voimme odottaa tulevien vuosikymmenten aikana todellista läpimurtoa AI: n soveltamisessa." Reddite, hän huomasi, että: ”Ensi silmäyksellä Gödelin koneiden rekursiivinen itsekehitys voi auttaa kehittämään superintelligenssiä. Gödel-koneet voivat valita ja tehdä muutoksia koodiinsa, jotka todennäköisesti tuovat positiivisia tuloksia alkuperäisten ominaisuuksien mukaan. muut tutkijat voivat kysyä koneiltaan erilaisia ​​parametreja, ja koneiden evoluutiokilpailu alkaa, mutta on mahdotonta ennustaa, kuka voittaa tämän kilpailun ja mitä se tuo meille. Lisätietoja tästä."
  • Cambridgen tietotekniikan professori Murray Shenehen kirjoitti teoksessaan "Teknologinen singulaarisuus", että: "Luodessasi henkilön AI-tasoa (teoreettisesti mahdollista, mutta hyvin vaikeaa) superintelligenssin luomiseksi se voi kestää jonkin verran aikaa ja tätä läpimurtoa voidaan verrata singulaarisuuden kohtaan, jossa tapahtumat kehittyvät nopeammin kuin oletamme. Yli-älykkyys, joka on parempi kuin ihmisen kyky, liittyy lisääntyneisiin eksistentiaalisiin riskeihin ja lisääntyneisiin etuihin.

Alan Turing, joka ei tarvitse esittelyä, on teoksessaan "Onko digitaalinen kone kykenee ajattelemaan?" Hän kirjoittaa: "Oletetaan, että onnistumme luomaan ajattelukoneita. Tämä tuottaa resonanssin ja kohtaa vastarintaa sellaisista älymystöistä ja tiedemiehistä, jotka ovat huolissaan heidän asemastaan ​​ja työstään. Ja hyvästä syystä. Koska koneiden saavuttaessa ihmisen ajattelutason, ihmisten on yritettävä kovasti On myös hyvin todennäköistä, että kohtuullinen kone kykenee luomaan oman samankaltaisuuden tai entistä älykkäämpiä koneita, jotta voidaan pysyä mukana kohtuullisen toiminnan koneissa. oltava kohtuullisia valvonnassa ihmiskunnan. "

III. Miksi tekoäly?

Koska ihmisen aivot ovat lähinnä analogia koneen oppimisessa: koneen oppimisen alaisia ​​tietojärjestelmiä kutsutaan hermoverkoiksi ja muodostuvat erillisistä kerroksista, joista kukin vastaa tietyn tiedon käsittelystä. Jos alemman tason kerrokset voivat vastaanottaa informaatiota, ylemmän tason kerrokset voivat käsitellä, lähettää ja käyttää sitä omaan koulutukseensa. Hyvin samanlainen kuin ihmisen pään itseoppiminen.

Neuroverkot pystyvät jo erottamaan ihmisen puheen ja kasvot paremmin kuin ihmiset. Tämä ei ole niin vaaraton kuin se näyttää ensi silmäyksellä. Olemme yllättyneitä tietokoneen voitosta shakissa tai mennä, vaikka henkilöllä ei ole erityisiä aivokuoren osia shakkiongelmien ratkaisemiseksi. Mutta kasvojen tunnistaminen ja luokittelu on jo erityinen vyöhyke, joka on kehittynyt evoluutiolla ja joka on vastuussa selviytymisestä. Ja tällä alalla, AI on parempi kuin mies tänään.

Niinpä AI kykenee abstraktisti ja kategorisesti ymmärtämään opetustietoja: erottamaan valkoisten koirien, mustien koirien, spanielien, mäyräkoirien, pentujen, aikuisten koirien kuvat ja antamaan kaiken tämän "koiralle". AI voi luoda ja merkitä pornografisia kuvioita kuvissa. (Varo: todellinen digitaalinen pornografia AI: n kannalta). Nämä AI: n ominaisuudet (luokittelu / yleistäminen / luokittelu) osoittavat tietojärjestelmän yksinkertaisimman järkevän toiminnan.

Mitä seuraavaksi?

IV. Vertaa kahta lähestymistapaa:

1. mekanistinen: luokittelu / luokittelu on varmasti yksi kohtuullisen edustajan merkkejä. Mutta vain yksi. Tämä on hyödyllinen ja ihana ominaisuus, mutta ei tärkein. Todellinen tiedustelu vaatii enemmän kuin kyky napsauttaa palapelejä - halu napsauttaa palapelejä. Koirien kuvien erottaminen ja kutsuminen koiraksi on epäilemättä viileä. Tämänhetkisen AI: n täytyy olla ensisijaisesti ominainen haluun, motivoivaan asemaan ongelmien ratkaisemiseksi ja teoreettien osoittamiseksi. Rationaalisen toivomuksen omaavan tietojärjestelmän luominen on enemmän kuin kyky suorittaa ultranopeat ja tehokkaat jopa hyvin monimutkaiset tehtävät tämän järjestelmän insinöörin ohjeiden mukaisesti. Ja haluavan älykäs koneen toiveet voivat poiketa ihmisen luojan tavoitteista. Tämä lähestymistapa on söpö Nick Bostrom.

2. biologinen (varovaisuus: raaka yksinkertaistaminen): suurin osa aivoista koostuu samoista tai hieman erilaisista soluista, jotka ovat kehittyneet evoluution aikana. Jos voimme ymmärtää, miten yksi osa aivoista toimii, on paljon helpompi ymmärtää, miten muut alueet toimivat. motivoiva ihmisen rationaalisen toiminnan prosessit tapahtuvat aivokuoren samoilla tai samankaltaisilla alueilla havainto / luokittelu / luokittelu tietoa. Jos tiedemiehet uskovat, että havainto-luokittelu-luokittelun tietojärjestelmiä voidaan toistaa käyttämällä ihmisen aivojen esimerkkiä, sitten motivoivien älykkäiden järjestelmien toistamiseksi tiedemiehet muuttavat pikemminkin olemassa olevia hermoverkon näytteitä luokitusta / luokitusta varten. Tällaiset järjestelmät eivät näytä täysin motivoituneilta ja tavoitteellisilta prototyypeiltä (ihmisen aivot ovat myös hieman tällaisia ​​järjestelmiä). Todennäköisesti se osoittautuu paljon pieneksi erilaisista käsityksistä, toiveista ja motivaatioista, kuten yleensä tapahtuu ihmisen päissä. Tällainen lähestymistapa kyseenalaistaa luoja-ihmisen kokonaistehon AI: n suhteen, koska koneen ohjelmoidut motiivit / tavoitteet eivät ehkä synny tai muuttuu merkittävästi.

Biologinen vetäytyminen. Biologisen lähestymistavan kehityshistoriaa on vaikea jäljittää ja vahvistaa tarkasti. Kognitiivisen havainnon / aistitietojen (prefrontal cortex) ja muistin / tunne / käyttäytymiskeskusten (hypotalamuksen ja hippokampuksen) erottaminen tapahtui selkärankaisten kehityksen alkuvaiheissa tai jopa aikaisemmin. Nämä erilaiset järjestelmät ovat kuitenkin säilyttäneet yhteydet ja häirinneet toistensa toimintoja. Jotkut aivokuoren osat on sidottu hypotalamukseen ja kuuluvat limbiseen järjestelmään. Muut thalamuksen osat (lisko-aivot, limbinen järjestelmä) ovat mukana tietojenkäsittelyssä (colliculi).

Näyttää siltä, ​​että aivojen alueet, jotka vastaavat aistinvaraisesta havainnoinnista ja motivaatio-tunne-vyöhykkeistä, ovat läsnä eri aivokuoren osissa. Lisäksi esivanhempi kuori, jota pidetään ihmisen persoonallisuuden kehtona (korkeampi kognitiivinen toiminta, arviointi, suunnittelu jne.), Kehittyi todennäköisesti ensimmäisen kalan aivokuoresta näiden kalojen yksittäisestä aivosta. Joka puolestaan ​​syntyi niistä sadoista neuroneista, jotka olivat vastuussa aistitietojen havaitsemisesta ja käsittelystä ensimmäisissä matoissa. Biologisen retriitin loppu.

Anatomia tai evoluutio ei merkitse pelkästään itsenäistä erottelua ymmärryksen, käsittelyn ja kohtuullisen toiminnan motivaation välillä. Samat järjestelmät voivat havaita tietoa yhdessä paikassa, ja pienillä muutoksilla prosessoida ja motivoida lisää toimintaa aivojen muissa osissa. Kaikki yksi. Metafysiikkaan ja mystiikkaan joutumisen vaarana on vain sanoa, että kognitiivisten vääristymien (tietojenkäsittelyn) ja visuaalisten illuusioiden (havaintojen) on enemmän yhteistä kuin aiemmin ajateltiin (toinen yksinkertaistaminen: nämä vääristymät esiintyvät teknisesti identtisissä kentissä, Brodmannin kentissä).

V. Lajien alkuperä

Luokittelu / luokittelu on moraalisen koulutuksen perusta. Ehkä tämä on moraalia. Otetaan esimerkiksi mielenterveyskategoriat: jokainen tietää, mitä lintu on, mutta "lintujen" täsmällisellä määrittelyllä hieman vaikeampi (stork on lintu, pingviini on outo lintu, Archeopteryx ... puoli-lintu?).

Kaikki muistavat, miten nämä luokat syntyvät. Vähän oppimista, äiti näyttää lapselle kanan ja sanoo "lintu", parin vuoden kuluttua lapsi oppii, että lepakko on "ei lintu" ja että aivot toimivat vapaasti luokkien / luokkien ja monimutkaisten abstraktioiden kanssa, ja toisen kahden vuoden kuluttua Darwin saapuu ja sanoo, että on olemassa tällainen luokka selkärankaisten "lintuja", mikä on erittäin hyvä, mutta tiesit sen ilman häntä.

Ihmiset oppivat etiikkaa ja moraalia samalla tavalla. Kun puremme jonkun, äiti / isä / opettaja / rabi / pappi / shamaani kertoo meille, että tämä on "huono", kun jaamme kakun, meille kerrotaan, että tämä on "hyvä". Tällaisten esimerkkien perusteella tietojärjestelmä toimii luokkien ja luokkien kanssa, vaikka se ei voi antaa täsmällisiä määritelmiä näille luokille ja luokille.

Keinotekoinen äly voi kehittää keinotekoista moraaliaan, joka perustuu tiedemiesten antamiin tietoihin. Moraali tapahtuu opetustietoa koskevan AI-koulutuksen aikana. Bostrom uskoo, että AI: n moraali / etiikka on erillinen moduulin tai harjoitusinformaation joukon.

Tavallinen Bostromovsky-vastapaino on todennäköisyys, että AI tekee virheellisiä johtopäätöksiä koulutustiedoista ja kehittää arvojärjestelmää, joka on ihmisille vaarallista. Esimerkiksi AI voi päättää, että kaikki asiat, jotka tekevät henkilöstä onnellisia, ovat hyviä. Ja hän alkaa optimoida maksimiinsa - hän aloittaa heroiinin injektion antamisen henkilölle koko ajan, jotta henkilö pysyy onnellisena.

En tiedä miksi, mutta toimien ihmisarviointi ei toimi niin suoraviivaisesti, ja harvinaisissa tapauksissa se tuo jonkinlaisen ajatuksen kriittiseen massaan. Ehkä tämä johtuu luokittelun / luokittelun erityispiirteistä tai lopulliseen päätökseen sisältyvistä ulkopuolisista tekijöistä, eikä pelkästään hyvästä huonosta dichotomiasta. Tämä voi olla mielenkiintoinen tehtävä AI-kehittäjille - selvittää, mitä tietojärjestelmät tarkoittavat luokittelemaan tiedot kuten ihminen *.

Yleensä on vaikea kuvitella, että henkilöllä on tietty moraalinen geeni, aivokuoren moraalinen segmentti, jonkinlainen moraalinen sopeutuminen. Ja on epätodennäköistä, että etiikka ja moraali ovat biologisia, evoluutiomuotoja, neurobiologisia mekanismeja - todennäköisimmin eettinen ja moraalinen on prososiaalisen käyttäytymisen välttämättömät edellytykset. Etiikka on kuin talon katto, joka luonnollisesti kasvaa alemman divisioonan oikean työn takia, keinotekoisen älykkyyden opettaminen etiikkaan ja moraaliin on mahdotonta lukuun ottamatta tavallista oppimista (jos puhumme AI: sta, joka perustuu hermoverkoihin, jotka toistavat aivorakenteita).

Henkilön motivoiva ala toimii dopamiineilla ja palkitsemisjärjestelmällä. On edelleen toivoa, että lähinnä ihmisen kyky luokitella voidaan toteuttaa AI-malleissa. Ihmiset saattavat haluta seksiä ilman halua hedelmöittää kaikkia eläviä ja eläviä, kunnes planeetta räjähtää. AI perustuu ihmisen havainnointimalliin ja tietojen luokitteluun haluat ratkaise ongelmia ilman maanisia toiveita alistua kaikki muut tämän tavoitteen tavoitteet. Ei aina ja kaikki ihmiset ovat ajattelemattomia optimoijia: hierarkkinen tavoitteiden asettaminen on yleistä ihmisille, kaikki ymmärtävät, että moraalinen on pitkällä aikavälillä hyödyllistä. Tämä tarkoittaa sitä, että superintelligence ei todennäköisesti tule ihmiskunnalle kohtalokkaaksi päättäjien optimoijaksi.

Yleisin oletus (jota tukee Nick Bostrom): keinotekoinen älykkyys on puhtaan logiikan suoritusmuoto, joka täysin puuttuu tunteiden / epäilysten / epäröintien samankaltaisuuksista, ja meidän on rajoitettava tätä matemaattista golemia **. Jos muistamme tällaisia ​​esimerkkejä ihmisen näytteestä, nämä pelot tulevat hieman liioitelluiksi - useimmat heistä, joilla on matala empatia, joilla on huono etiikka ja moraali, osoittavat yhteiskunnallista käyttäytymistä, heidän on vaikea oppia, sopeutua yksinkertaisesti siksi, että heidän on vaikea ymmärtää muita ihmisiä (autistiset, skitsoidihäiriöt), vaikka he voivat poimia viiden numeron juuret. Tällaisten ihmisten on vaikea suunnitella hyttynen tappamista, he tuskin kestävät uuden kengän tunteita jaloillaan, millainen maailman valloitus puhua? Mentalisointiprosessiin, joka puhuu älykkyyden erottamattomuudesta etiikasta, on jo ilmeinen yhteys. Minusta tuntuu, että myös toinen skenaario, jossa AI ajattelee paitsi matemaattisia kaavoja / ohjelmakoodeja, on myös mahdollinen. Se on paljon monimutkaisempi eikä ole niin pelottavaa kuin Bostrom ehdottaa. Ja sitten ihmiset tarvitsevat muita strategioita rinnakkaiseloon AI: n kanssa.


* Maaliskuun 4. päivänä 2016 MIRI-koneen oppimisen instituutin ohjelma "arvojen kohdistaminen kehittyneisiin koneen oppimisjärjestelmiin" (monimutkaisten koneen oppimisjärjestelmien tavoitteiden asettaminen). Tämän ohjelman tehtävänä on luoda "infra-human AI", tietojärjestelmät, joilla on rajoitettu itsenäisyys.

**Формальная логика, специалистом по которой является Ник Бостром, не всегда адекватно описывает реальность (или не стремится). Так что эти опасения немного преувеличены и логико-математический терминатор может оказаться не таким опасным, как видится Бострому.


Tietoja tarkasteltavan kirjan kirjoittajasta: ruotsalainen filosofi Nick Bostrom, kirjailija yli 200 julkaisusta globaaleista riskeistä, alakohtaisuudesta, antropisesta periaatteesta, tieteellisestä etiikasta Humanistisen tulevaisuuden instituutin johtaja, Oxfordin yliopiston professori. Matemaattisen logiikan, fysiikan, laskennallisen neurotieteen, filosofian tutkinnon voittaja.

Alkuperäinen: Bostromian paradigma ja viimeaikainen AI-edistys

Katso video: Eurovaalit 2019: YLE Suuri puheenjohtajatentti 2019-05-23 FiNSUB (Syyskuu 2019).

Jätä Kommentti