Googles AI mestrer Game of Go et tiår tidligere enn forventet

Google har tatt et strålende og uventet skritt mot å bygge en AI med mer menneskelig intuisjon, og utviklet en datamaskin som er i stand til å slå selv ekspertspillere i det djevelsk kompliserte brettspillet Go.

Målet med Go, et spill som ble oppfunnet i Kina for mer enn 2500 år siden, er ganske enkelt: spillere må vekselvis plassere svarte og hvite steiner på et rutenett med 19 horisontale og 19 vertikale linjer med sikte på å omgi motstanderens brikker, og unngå å ha ens egne brikker omringet. Å mestre Go krever imidlertid uendelig øvelse, samt en finstemt evne til å gjenkjenne subtile mønstre i arrangementet av brikkene spredt over hele brettet.

Googles team har vist at ferdighetene som trengs for å mestre Go ikke er så unikt menneskelige likevel. Dataprogrammet deres, kalt AlphaGo, slo den europeiske Go-mesteren Fan Hui, fem kamper mot null. Og i mars vil det møte en av verdens beste spillere, Lee Sedol, i en turnering som arrangeres i Seoul, Sør-Korea.



Go er det mest komplekse og vakreste spillet som noen gang er utviklet av mennesker, sa Demis Hassabis, leder av Google-teamet, og selv en ivrig Go-spiller, på en pressekonferanse. Ved å slå Fan Hui, la han til, oppnådde programmet vårt en av de langvarige store utfordringene med AI.

Hassabis sa også at teknikkene som ble brukt for å lage AlphaGo ville egne seg til teamets innsats for å utvikle en generell AI. Til syvende og sist ønsker vi å bruke disse teknikkene på viktige problemer i den virkelige verden, sa han. Fordi metodene vi brukte var generelle formål, er vårt håp at de en dag kan utvides til å bidra til å løse noen av samfunnets mest presserende problemer, fra medisinsk diagnostikk til klimamodellering (se Kan AI løse verdens største problemer?).

Hassabis sa at den første måten teknologien kan brukes på hos Google ville innebære utvikling av bedre programvare personlige assistenter. En slik assistent kan lære en brukers preferanser fra hans online oppførsel, og komme med mer intuitive anbefalinger om produkter eller arrangementer, foreslo han.

stenger av gud Kina

Go er langt mer utfordrende for datamaskiner enn for eksempel sjakk av to grunner: antall potensielle trekk hver tur er langt høyere, og det er ingen enkel måte å måle materielle fordeler på. En spiller må derfor lære å gjenkjenne abstrakte mønstre i hundrevis av brikker plassert over brettet. Og selv eksperter sliter ofte med å forklare hvorfor en bestemt stilling virker fordelaktig eller problematisk.

For bare et par år siden trodde faktisk de fleste Go-spillere og spillprogrammerere at spillet var så komplekst at det ville ta flere tiår før datamaskiner kunne nå standarden til en menneskelig ekspertspiller.

AlphaGo ble utviklet av et team kjent som Google DeepMind, en gruppe opprettet etter at Google kjøpte en liten AI UK-oppstart kalt DeepMind i 2014. Forskerne bygde AlphaGo ved å bruke en ekstremt populær og vellykket maskinlæringsmetode kjent som dyp læring kombinert med en annen simuleringsteknikk for modellering av potensielle trekk. Dyp læring innebærer å trene et stort simulert nevralt nettverk for å reagere på mønstre i data. Det har vist seg veldig nyttig for bilde- og lydbehandling, og mange store teknologiselskaper utforsker nye måter å bruke teknikken på.

To dyplæringsnettverk ble brukt i AlphaGo: ett nettverk lærte å forutsi neste trekk, og det andre lærte å forutsi resultatet fra forskjellige arrangementer på brettet. De to nettverkene ble kombinert ved hjelp av en mer konvensjonell AI-algoritme for å se fremover i spillet for mulige trekk. En vitenskapelig artikkel skrevet av forskere fra Google som beskriver arbeidet vises i journalen Natur i dag .

Spillet Go har et enormt søkerom, som er uoverkommelig for brute-force-søk, sier David Silver, en annen Google-forsker som ledet innsatsen. Nøkkelen til AlphaGo er å redusere den søkeplassen til noe mer håndterlig. Denne tilnærmingen gjør AlphaGo mye mer menneskelig enn tidligere tilnærminger.

Da IBMs Deep Blue-datamaskin mestret sjakk i 1997, brukte den håndkodede regler og søkte uttømmende gjennom potensielle sjakktrekk. AlphaGo lærte i hovedsak over tid å gjenkjenne potensielt fordelaktige mønstre, og simulerte deretter et begrenset antall potensielle utfall.

Googles prestasjon har blitt møtt med gratulasjoner og en viss forbauselse av andre forskere på feltet.

På den tekniske siden er dette arbeidet et monumentalt bidrag til AI, sier Ilya Sutskever, en ledende AI-forsker og direktør for en ny ideell organisasjon kalt OpenAI (se Innovators Under 35: Ilya Sutskever ). Sutskever sier at arbeidet var spesielt viktig fordi AlphaGo i hovedsak lærte seg selv hvordan man vinner. Den samme teknikken kan brukes for å oppnå ekstremt høy ytelse på mange andre spill også, sier han.

hvis den nærmeste stjernen er 4,2 lysår unna, da

Michael Bowling , en professor i informatikk ved University of Alberta i Canada som nylig utviklet et program stand til å slå hvem som helst ved heads-up limit poker, var også begeistret over prestasjonen. Han mener at tilnærmingen faktisk bør vise seg nyttig på mange områder der maskinlæring brukes. Mye av det vi tradisjonelt vil tenke på som menneskelig intelligens er bygget rundt mønstertilpasning, sier han. Og mye av det vi vil tenke på som læring er å ha sett disse mønstrene i fortiden, og å kunne innse hvordan de kobles til en nåværende situasjon.

Et aspekt ved resultatet som er verdt å merke seg er at det kombinerer dyp læring med andre teknikker, sier Gary Marcus, professor i psykologi ved New York University og medgründer og administrerende direktør i Geometrisk intelligens , en AI-oppstart som også kombinerer dyp læring med andre metoder (se Can This Man Make AI More Human? ).

Dette er ikke et såkalt ende-til-ende dyplæringssystem, sier Marcus. Det er et nøye strukturert, modulært system med litt gjennomtenkt håndteknikk på fronten. Som er, når du tenker på det, ganske parallelt med menneskesinnet: rik, modulær, med litt justeringer av evolusjon, snarere enn bare en haug med nevroner tilfeldig sammenkoblet og innstilt helt av erfaring.

Google er heller ikke det eneste selskapet som bruker dyp læring for å utvikle en Go-playing AI. Facebook har tidligere sagt at de har en forsker som jobber med et slikt system, og i natt begge deler Yann LeCun , direktør for AI-forskning hos Facebook, og administrerende direktør Mark Zuckerberg la ut oppdateringer om innsatsen. Facebooks innsats er på et tidligere stadium, men den kombinerer også dyp læring med en annen teknikk.

Å se AI-mesteren Go kan også føre til en viss eksistensiell angst. Under pressebriefingen som kunngjorde nyhetene, ble Hassabis møtt med spørsmål om de langsiktige risikoene ved AI-systemene Google utvikler. Han sa at selskapet tok skritt for å redusere disse risikoene ved å samarbeide med akademikere, ved å organisere konferanser og ved å jobbe med et internt etikkstyre.

gjemme seg

Faktiske Teknologier

Kategori

Ukategorisert

Teknologi

Bioteknologi

Teknisk Politikk

Klima Forandringer

Mennesker Og Teknologi

Silicon Valley

Databehandling

Mit News Magazine

Kunstig Intelligens

Rom

Smarte Byer

Blockchain

Feature Story

Alumniprofil

Alumniforbindelse

Mit News-Funksjon

1865

Mitt Syn

77 Mass Ave

Møt Forfatteren

Profiler I Generøsitet

Sett På Campus

Alumnibrev

Nyheter

Valget 2020

Med Indeks

Under Kuppelen

Brannslange

Uendelige Historier

Pandemisk Teknologiprosjekt

Fra Presidenten

Forsidehistorie

Fotogalleri

Anbefalt