https://bodybydarwin.com
Slider Image

Voiko AI välttää hallintamme ja tuhota meidät?

2020

"Se alkoi kolme ja puoli miljardia vuotta sitten muki-altaalla, kun molekyyli teki kopion itsestään ja niin siitä tuli koko maallisen elämän perimmäinen esi-isä. Se alkoi neljä miljoonaa vuotta sitten, kun aivojen volyymit alkoivat kiipeillä nopeasti hominidilinja. Viisikymmentätuhatta vuotta sitten Homo sapiensin nousun myötä . Kymmenentuhatta vuotta sitten sivilisaation keksinnöllä. Viisisataa vuotta sitten painokoneen keksinnöllä. Viisikymmentä vuotta sitten tietokoneen keksinnöllä. Alle kolmekymmentä vuotta, se loppuu. "

Jaan Tallinn kompasi nämä sanat vuonna 2007, online-esseessä nimeltä "Staring into the Singularity". "Se" on ihmisen sivilisaatio. Ihmisyys lakkaa olemasta, ennusti esseen kirjoittaja, kun syntyy superintelligenssi tai AI, joka ylittää ihmisen älyn monilla alueilla.

Virossa syntyneellä tietokoneohjelmoijalla Tallinnalla on fysiikan tausta ja taipumus lähestyä elämää kuin yhtä suurta ohjelmointiongelmaa. Vuonna 2003 hän oli perustanut Skypen, kehittäen sovelluksen taustan. Hän nosti osakkeitaan sen jälkeen, kun eBay osti sen kaksi vuotta myöhemmin, ja nyt hän aikoi tehdä jotain tekemistä. "Staring into Singularity" maskoi tietokonekoodin, kvanttifysiikan ja Calvin and Hobbesin lainaukset. Hän oli koukussa.

Tallinna huomasi pian, että esseen kirjoittaja, itsenäinen opettaja, Eliezer Yudkowsky, oli kirjoittanut yli 1000 artikkelia ja blogin kirjoitusta, joista monet olivat omistaneet superintelligenssiin. Tallinna kirjoitti ohjelman kaapia Yudkowskyn kirjoituksia Internetistä, tilata ne aikajärjestyksessä ja alustaa ne hänen iPhoneensa. Sitten hän vietti paremman osan vuotta lukemalla niitä.

Termi "tekoäly tai älykkyyden simulointi tietokoneissa tai koneissa otettiin käyttöön vuonna 1956, vain kymmenen vuoden kuluttua ensimmäisten elektronisten digitaalisten tietokoneiden luomisesta. Kenttätoive oli alun perin korkea, mutta 1970-luvulle, jolloin varhaiset ennusteet ei pannu, "AI-talvi" perustettiin. Kun Tallinna löysi Yudkowskyn esseet, AI oli läpikäymässä renessanssia. Tutkijat kehittivät AI: itä, jotka olivat erinomaisia ​​tietyillä alueilla, kuten voittaminen shakissa, siivous keittiön lattialle ja ihmisten puheen tunnistaminen . (Vuonna 2007 IBM: n Watsonin ratkaiseva voitto Å Jardardiassa! Oli vielä neljän vuoden päässä, kun taas voitto DeepMindin AlphaGo-palvelun Goutaissa oli kahdeksan vuotta vapaata.) Tällaiset "kapeat" AI: t, kuten heitä kutsutaan, shakkipelevä AI ei voi puhdistaa lattiaa tai viedä sinua pisteestä A pisteeseen B. Mutta super älykäs AI, Tallinna uskoi, yhdistää laajan valikoiman taitoja yhdessä kokonaisuudessaan Lisää d Arkly, se saattaa myös käyttää älypuhelimia käyttävien ihmisten tuottamaa tietoa korostamaan sosiaalista manipulointia.

Lukemalla Yudkowskyn artikkeleita, Tallinna vakuuttui siitä, että super Intelligence voi johtaa räjähdykseen tai AI: n rikkoutumiseen, joka voi vaarantaa ihmisen olemassaolon, ultraääni AI: t asettuvat evoluutioportaalle ja hallitsevat meitä samalla tavalla kuin hallitsemme nyt apinoita. Tai, mikä vielä pahempaa, tuhoaa meidät.

Viimeisen esseen päätyttyä Tallinna lähetti sähköpostin Yudkowskylle kaikille pienille kirjaimille, kuten hänen tyylinsäkin on. Jaan, yksi skypen perustajista, oli hän kirjoittanut. Lopulta hän pääsi asiaan: Olen samaa mieltä siitä, että ihmisen älykkyyttä ylittävän yleisen AI-tapahtuman valmistelu on yksi ihmiskunnan tärkeimmistä tehtävistä. Hän halusi auttaa. Kun hän lensi Bay Area -alueelle muihin kokouksiin pian sen jälkeen, hän tapasi Yudkowskyn Panera-leivässä Millbraessa, Kaliforniassa, lähellä, missä hän asuu. Heidän kokoontumisensa venytti neljään tuntiin. "Hän todella ymmärsi aidosti taustalla olevat käsitteet ja yksityiskohdat", Yudkowsky muistelee. Tämä on hyvin harvinainen. Myöhemmin Tallinna kirjoitti 5000 dollarin sekin Singularity Institute of Artificial Intelligence -yksikölle, voittoa tavoittelemattomalle organisaatiolle, jossa Yudkowsky oli tutkija. (Organisaatio muutti nimensä Machine Intelligence Research Instituteksi tai MIRIksi vuonna 2013.) Tallinna on sittemmin antanut sille yli 600 000 dollaria.

Tapaaminen Yudkowskyn kanssa toi Tallinnaan tarkoituksen, joka lähetti hänet tehtävälle pelastaa meidät omasta luomukseltamme. Liittyessään asiaan muiden teoreetikkojen ja tietotekniikan tutkijoiden kanssa hän aloitti matka-elämän ja keskusteli ympäri maailmaa superintelligenssin aiheuttamasta uhasta. Useimmiten hän kuitenkin aloitti tutkimuksen menetelmistä, jotka saattavat antaa ihmiskunnalle tietä: ns. Ystävällinen AI. Se ei tarkoita, että kone tai agentti on erityisen taitava keskustelemaan säästä, tai että se muistaa lapsesi nimet, vaikka super älykäs AI voisi kyetä tekemään nämä molemmat asiat. Se ei tarkoita, että motivoituna on altruismi tai rakkaus. Yleinen virhe on olettamalla, että AI: llä on ihmisten vaatimuksia ja arvoja. Ystävällinen tarkoittaa jotain paljon perustavaa laajempaa: että huomisen koneet eivät pyyhi meitä pyrkimyksessään saavuttaa tavoitteensa.

Yhdeksän vuoden kuluttua tapaamisestaan Äkudowskin kanssa Tallinna liittyy minuun ruokailla Cambridge University of Jesus College -ravintolan ruokasalissa. Kirkkomainen tila on varustettu lasimaalauksilla, kultamuovauksella ja peruukien miesten öljymaalauksilla. Tallinna istuu raskaan mahonkipöydän ääressä ja pukeutuu Silicon Valleyn rento vaatekappale: mustat farkut, t-paita, kangas lenkkarit. Holvattu puun katto ulottuu korkealla hänen harmaa-vaaleiden tukiensa iskun yläpuolelle.

46-vuotiaana Tallinna on tietyllä tavalla oppikirjatekninen yrittäjäsi. Hän ajattelee, että tieteen kehityksen ansiosta (ja mikäli AI ei tuhoa meitä), hän elää monta vuotta. Hänen huolensa superintelligenssistä on yleinen hänen kohortissaan. PayPal-perustaja Peter Thiel -säätiö on antanut MIRI: lle 1, 6 miljoonaa dollaria, ja vuonna 2015 Teslan perustaja Elon Musk lahjoitti 10 miljoonaa dollaria Future of Life Institute -yritykselle, joka on teknologiaturvallisuusjärjestö Cambridgessa, Massachusettsissa. Tallinnan sisäänkäynti tähän harvinaiseen maailmaan tuli rautaesiripun taakse 1980-luvulla, kun luokkatoverin isä julkishallinnon tehtävissä antoi muutamalle kirkkaalle lapselle pääsyn pääkoneisiin. Viron itsenäistymisen jälkeen hän perusti videopeliyrityksen. Nykyään Tallinna asuu edelleen pääkaupungissaan - jota etymologian vuoksi kutsutaan myös Tallinnaksi - vaimonsa ja kuuden lapsensa kanssa nuorimman kanssa. Kun hän haluaa tavata tutkijoita, hän vain lentää heidät Baltian alueelle.

Hänen antamisstrategiansa on metodinen, kuten melkein kaiken muunkin. Hän jakaa rahansa 11 organisaation kesken, ja jokainen työskentelee erilaisissa lähestymistavoissa ilmailuturvallisuuden turvaamiseksi siinä toivossa, että joku voi tarttua. Vuonna 2012 hän perusti Cambridge Center for Study of Existential Risk (CSER) -keskuksen, jonka alkuperäiset menot olivat lähes 200 000 dollaria.

Eksistentiaaliset riskit - tai X-riskit, kuten Tallinna kutsuu niitä - ovat uhkia ihmiskunnan selviytymiselle. AI: n lisäksi CSER: n 20 pariton tutkija tutkii ilmastomuutosta, ydinsotaa ja bioaseita. Mutta Tallinnalle muut tieteenalat auttavat enimmäkseen karanneen tekoälyn uhan laillistamisessa. "Ne ovat todella vain porttilääkkeitä, joita hän kertoi minulle. Huoli laajemmin hyväksytyistä uhkista, kuten ilmastonmuutos, saattaa vetää ihmisiä sisään. Hän toivoo, että maailman älykkäiden koneiden kauhu vakuuttaa heidät pysymään. Hän toivoo. on nyt täällä konferenssissa, koska hän haluaa akateemisen yhteisön ottavan AI-turvallisuuden vakavasti.

Ruokailukumppanimme ovat satunnainen valikoima konferenssivierailijoita, mukaan lukien Hongkongista tuleva nainen, joka opiskelee robotiikkaa, ja brittiläinen mies, joka valmistui Cambridgestä 1960-luvulla. Vanhempi mies kysyy kaikilta pöydältä, missä he kävivät yliopistossa. (Tallinnan vastaus, Viron Tarton yliopisto, ei vaikuta häneen.) Sitten hän yrittää ohjata keskustelua kohti uutisia. Tallinna katsoo häntä tyhjänä. ”En ole kiinnostunut lähiajan riskeistä”, hän sanoo.

Tallinna muuttaa aiheen superintelligenssiin. Kun hän ei puhu muille ohjelmoijille, hän laiminlyö metaforit ja käy läpi heidän sarjansa nyt: Advanced AI voi hävittää meidät yhtä nopeasti kuin ihmiset pilkkovat puita. Superintelligenssi on meille mitä olemme gorillalle. Latinalaisesti kirjoitettu päänsä yläpuolelle on linja psalmista 133: ”Kuinka hyvä ja kuinka miellyttävä on veljien elää yhdessä." Mutta yhtenäisyys on kaukana siitä, mitä Tallinna pitää mielessä tulevaisuudessa, joka sisältää roistoa superintelligenssiä.

AI tarvitsee kehon ottaakseen haltuunsa, vanhempi mies sanoo. Kuinka se voisi mahdollisesti saada fyysisen hallinnan ilman jonkinlaista fyysistä koteloa? Tallinnalla on toinen metafora valmis: "Pane minut kellariin, jossa on Internet-yhteys, ja voisin tehdä paljon vahinkoa", hän sanoo. Sitten hän ottaa pureman risottoa.

Olipa Roomba vai jokin sen maailmassa hallitsevista jälkeläisistä, AI perustuu tuloksiin. Ohjelmoijat määrittelevät nämä tavoitteet ja joukon sääntöjä niiden saavuttamiseksi. Pitkälle edenneelle AI: lle ei välttämättä tarvitse antaa tavoitetta maailman hallitsemisesta sen saavuttamiseksi - se voi olla vain vahingossa. Ja tietokoneohjelmoinnin historia on täynnä pieniä virheitä, jotka ovat aiheuttaneet katastrofeja. Esimerkiksi vuonna 2010 sijoitusrahastoyhtiö Waddell & Reedissä työskentelevä kauppias myi tuhansia futuurisopimuksia. Yrityksen ohjelmisto jätti keskeisen muuttujan algoritmista, joka auttoi suorittamaan kaupan. Tuloksena oli biljoonan dollarin "flash-kaatuminen".

Tallinna-tutkijat uskovat, että jos yli-inhimillisen AI: n palkkiorakennetta ei ole oikein ohjelmoitu, jopa hyvänlaatuisilla tavoitteilla voi olla salaperäisiä loppuja. Yksi tunnettu esimerkki, jonka Oxfordin yliopiston filosofi Nick Bostrom esitti kirjassaan Super Intelligence, on kuvitteellinen agentti, joka on suunnattu tekemään mahdollisimman monta paperileikettä. AI voi päättää, että ihmiskehojen atomit otetaan paremmin käyttöön raaka-aineena heille.

Tallinnan näkemyksillä on oma osuutensa heikentäjistä, jopa AI-turvallisuudesta huolehtivien ihmisten yhteisössä. Jotkut väittävät, että on liian aikaista huolehtia superälykkäiden AI: n rajoittamisesta, kun emme vielä ymmärrä sitä. Toiset sanovat, että vilpillisiin teknologisiin toimijoihin keskittyminen ohjaa huomion kentän kiireellisimpiin ongelmiin, kuten se, että suurimman osan algoritmeista ovat suunnitelleet valkoiset miehet tai ne perustuvat heitä kohtaan puolueelliseen tietoon. "Olemme vaarassa rakentaa maailma, johon emme halua asua, jos emme vastaa näihin haasteisiin lähitulevaisuudessa", sanoo Terah Lyons, AI-kumppanuuden, useiden sidosryhmien organisaation, joka on keskittynyt AI-turvallisuus ja muut kysymykset. (Useat Tallinnan tukemista instituutit ovat jäseniä.) Mutta hän lisää, että jotkut tutkijoiden lähiajan haasteista - kuten algoritmisten puolueiden kitkeminen - ovat edeltäjiä niille, jotka ihmiskunta voi nähdä super älykkään AI: n avulla.

Tallinna ei ole niin vakuuttunut. Hän väittää, että erittäin älykäs AI tuo ainutlaatuisia uhkia. Viime kädessä hän toivoo, että AI-yhteisö voisi seurata ydintorjunnan johtoasemaa 1940-luvulla. Hiroshiman ja Nagasakin pommitusten jälkeen tutkijat ryhtyivät yhdessä yrittämään rajoittaa ydintutkimuksia. ”Manhattan-projektin tutkijat olisivat voineet sanoa: 'Katso, teemme innovaatioita täällä, ja innovaatiot ovat aina hyviä, joten vain syötetään eteenpäin' ', hän sanoo. "Mutta he olivat vastuullisempia kuin se."

Tallinna varoittaa, että kaikista lähestymistavoista ilmailuturvallisuuteen on vaikea saada oikein. Hän selittää, että jos AI on riittävän älykäs, se voi ymmärtää rajoitukset paremmin kuin sen tekijät. Kuvittele, hän sanoo heräävän vankilassa, jonka rakentaa joukko sokeita 5-vuotiaita. "Se voi olla kuin super älykkäälle AI: lle, jonka ihmiset rajoittavat.

Teoreetikko Yudkowsky löysi todisteita siitä, että tämä saattaa olla totta, kun hän aloitti vuodesta 2002 lähtien keskustelutilaisuuksia, joissa hän toimi laatikossa suljetun AI: n roolissa, kun taas muiden ihmisten kierto pelasi portinvartijaa, jonka tehtävänä oli pitää AI: n Kolme viidestä kertaa Yudkowsky on pelkkä kuolevainen sanoo vakuuttaneensa portinvartijan vapauttamaan hänet. Hänen kokeilunsa eivät kuitenkaan ole estäneet tutkijoita yrittämästä suunnitella parempaa laatikkoa.

Tutkijat, jotka Tallinnan rahastot harjoittavat monenlaisia ​​strategioita, käytännöllisestä näennäisesti kaukaisiin. Jotkut teoretikoivat nyrkkeilyn AI: stä joko fyysisesti, rakentamalla todellisen rakenteen sen säilyttämiseksi tai ohjelmoimalla rajoja siihen, mitä se voi tehdä. Toiset yrittävät opettaa AI: n noudattamaan ihmisiä. Harvat työskentelevät viimeisen ojan pois-kytkimen parissa. Yksi kaikista kolmesta rakastava tutkija on matemaatikko ja filosofi Stuart Armstrong Oxfordin yliopistossa. Humanity Institute of Future of Human Human Institute, jota Tallinna kutsuu maailmankaikkeuden mielenkiintoisimmaksi paikkaksi (Tallinnalla on annettiin FHI: lle yli 310 000 dollaria.) Armstrong on yksi harvoista tutkijoista maailmassa, joka keskittyy kokopäiväisesti AI-turvallisuuteen.

Tapasin hänet kahvia varten yhden iltapäivän jälkeen kahvilassa Oxfordissa. Hänellä on rugbypaita, jota napitessaan kauluksessa ei ole, ja hänellä on jonkun näköinen henkilö, joka viettää elämänsä näytön takana. Hän paprikoi selityksensä häiritsevällä sekoituksella, joka sisältää suosittuja - kulttuuriviittauksia ja matematiikkaa. Kun kysyn häneltä, miltä voi näyttää menestyvältä AI: n turvallisuudesta, hän sanoo: "Oletko nähnyt Lego-elokuvan ? Kaikki on mahtavaa."

Yksi Armstrongin tutkimuksen kanta tarkastelee tiettyä nyrkkeilyä koskevaa lähestymistapaa, nimeltään AA. FHI: n perustavan Nick Bostromin kanssa vuonna 2012 laatimassa lehdessä hän ehdotti, että superintelligenssiä ei pidä rajoittaa vain varastosäiliöön, vaan myös rajoittaa se vastaamaan kysymyksiin, kuten todella älykäs Ouija-hallitus. Näilläkin rajoituksilla AI: llä olisi valtava voima muuttaa ihmiskunnan kohtalo muuttamalla hienovaraisesti kuulustelijoita. Armstrong on ehdottanut keskusteluille aikarajojen vähentämistä tai sen kieltämistä, jotka saattavat vaikuttaa nykyiseen maailmanjärjestykseen. Hän on myös ehdottanut antaa oraakkelien välityspalvelimelle ihmisten selviytymisen, kuten Dow Jonesin teollisuuskeskiarvon tai Tokion kadun ylittävien ihmisten lukumäärän, ja käskenyt pitää nämä vakaana.

Viime kädessä Armstrong uskoo, että voi olla tarpeen luoda, kuten hän kutsuu sitä yhdeksi paperiksi, "iso punainen pois -painike": joko fyysinen kytkin tai mekanismi, joka on ohjelmoitu AI: ksi, jotta se sammuttaa itsensä automaattisesti, jos puhjeta. Mutta tällaisen kytkimen suunnittelu on kaikkea muuta kuin helppoa. Ei ole vain, että itsesäilytyksestä kiinnostunut edistynyt AI voi estää painikkeen painettamisen. Se voi myös olla utelias miksi ihmiset suunnittelivat painikkeen, aktivoivat sen nähdäksesi mitä tapahtuu ja tehdä itsestään käyttökelvottoman. Vuonna 2013 ohjelmoija nimeltä Tom Murphy VII suunnitteli AI: n, joka voisi opettaa pelaamaan Nintendo Entertainment System -pelejä. Päättänyt olla menettämättä Tetrisissä, AI yksinkertaisesti painoi taukoa - ja piti pelin jäädytettynä. "Totisesti, ainoa voittava siirto ei ole pelata Murphya huomattuna vihaisesti hänen paperissaan hänen luomuksestaan.

Jotta strategia menestyisi, AI: n ei tarvitse olla kiinnostunut painikkeesta tai, kuten Tallinna toteaa, sen on annettava yhtä suuri arvo maailmalle, jossa sitä ei ole, ja maailmalle, missä sitä on. "Mutta vaikka tutkijat voivat Tämän saavuttamiseksi on muitakin haasteita. Entä jos AI on kopioinut itsensä useita tuhansia kertoja Internetissä?

Lähestymistapa, joka tutkijoita innostaa eniten, on löytää tapa saada AI tarttumaan ihmisarvoihin - ei ohjelmoimalla niitä, vaan opettamalla AI: ta oppimaan ne. Partisanipolitiikan hallitsevassa maailmassa ihmiset asettuvat usein tapaan, jolla periaatteemme eroavat toisistaan. Mutta Tallinnan mukaan ihmisillä on paljon yhteistä: ”Lähes kaikki arvostavat oikeaa jalkaansa. Emme vain ajattele sitä. ”Toivottavasti AI: lle voidaan opettaa erottamaan tällaiset muuttumattomat säännöt.

Prosessissa AI: n tulisi oppia ja arvostaa ihmisten epäloogista puolta: että sanomme usein yhtä ja tarkoitamme toista, että jotkut mieltymyksistä ovat ristiriidassa muiden kanssa ja että ihmiset ovat vähemmän luotettavia humalassa . Mutta tietopolut, jotka me kaikki jätämme sovelluksissa ja sosiaalisessa mediassa, saattavat tarjota oppaan. Tallinnan mielestä haasteista huolimatta meidän on yritettävä, koska panokset ovat niin korkeat. "Meidän on ajateltava muutama askel eteenpäin", hän sanoo. "AI: n luominen, joka ei jaa etujamme, olisi kauhea virhe."

Tallinnan viime yönä Cambridgessä seuraan häntä ja kahta tutkijaa illallisella brittiläisessä pihvihuoneessa. Tarjoilija sijoittaa ryhmämme valkoiseen pestyyn kellariin, jossa on luolamainen ilmapiiri. Hän antaa meille yhden sivun valikon, joka tarjoaa kolme erityyppistä mashia. Pari istuu pöydässä vieressämme, ja sitten muutamaa minuuttia myöhemmin pyytää muuttamaan muualle. "Se on liian klaustrofobista, jota nainen valittaa. Mielestäni Tallinnan kommentista vaurioista, jotka hän voi tehdä, jos hänet lukitaan kellariin, jossa on vain Internet-yhteys. Tässä olemme, laatikossa. Ikään kuin vihjeessä, miehet harkitsevat tapoja saada ulos.

Tallinnan vieraita ovat entinen genomitutkija Seán Ó hÉigeartaigh, joka on CSER: n toimitusjohtaja, ja Matthijs Maas, AI-politiikan tutkija Kööpenhaminan yliopistossa. He vitsailevat ideasta nörttiä toimintokuvaukseen, jonka otsikko on Superintelligence vs. Blockchain! ja keskustella online-pelistä nimeltä Universal Paperclips, joka ristiriidassa Bostromin kirjan skenaarion kanssa. Harjoitteluun kuuluu hiiren toistuva napsauttaminen paperiliittimien tekemistä varten. Se ei ole aivan räikeä, mutta antaa kuitenkin ymmärryksen, miksi kone saattaa etsiä tarkoituksenmukaisempia tapoja toimistotarvikkeiden tuottamiseksi.

Lopulta puhe siirtyy kohti suurempia kysymyksiä, kuten usein Tallinnan ollessa läsnä. AI-turvallisuustutkimuksen lopullinen päämäärä on luoda koneita, jotka ovat, kuten Cambridge-filosofi ja CSER-perustaja Huw Price kerran sanoivat, ”eettisesti ja kognitiivisesti ylikansallisia.” Toiset ovat herättäneet kysymyksen: Jos emme halua AI hallita meitä, haluammeko hallita sitä? Toisin sanoen, onko AI: llä oikeuksia? Tallinnan mukaan tämä on turhaa antropomorfisointia. Se olettaa, että älykkyys on tietoisuutta - väärinkäsitys, joka ärsyttää monia AI-tutkijoita. Aikaisemmin CSER-tutkija Jose Hernandez-Orallo vitsaili, että puhuttaessa AI-tutkijoiden kanssa tietoisuus on ”C-sana” (”Ja” vapaa tahto ”on F-sana”, hän lisäsi.)

LIITTYVÄT: Millaista on työskennellä itsenäisesti ajavassa autossa turvallisuuskuljettajana

Nyt kellarissa Tallinna sanoo, että tietoisuus on kohta: "Ota esimerkki termostaatista. Kukaan ei sano sen olevan tietoinen. Mutta on todella hankalaa kohdata tätä agenttia, jos olet huoneessa, joka on asetettu negatiiviseen 30 asteeseen. "

Ó hÉigeartaigh soittaa. "Olisi hienoa huolehtia tietoisuudesta", hän sanoo, "mutta meillä ei ole ylellisyyttä huolehtia tietoisuudesta, jos emme ole ensin ratkaisseet teknisiä turvallisuushaasteita."

Ihmiset ovat liian huolestuneita siitä, mikä älykäs AI on, Tallinna sanoo. Missä muodossa se tulee? Pitäisikö meidän huolehtia yhden AI: n haltuunotosta vai heidän armeijastaan? "Meidän näkökulmastamme tärkeä asia on, mitä AI tekee", hän painottaa. Ja hän uskoo, että se voi silti olla ihmisten tehtävä - toistaiseksi.

Tämä artikkeli on alun perin julkaistu suositun tieteen Talvi 2018 Danger -numerossa.

Ihmiskunta eteni nopeasti eteenpäin geologisella hetkellä, eikä taaksepäin ole

Ihmiskunta eteni nopeasti eteenpäin geologisella hetkellä, eikä taaksepäin ole

Tämä 1 000-vuotias tammi selvisi hurrikaanista Harvey

Tämä 1 000-vuotias tammi selvisi hurrikaanista Harvey

Tietokausi

Tietokausi