Den gemensamma och återkommande synen på de senaste genombrotten inom forskning om konstgjord intelligens är att känsliga och intelligenta maskiner bara är i horisonten. Maskiner förstår muntliga kommandon, skiljer bilder, kör bilar och spelar bättre spel än vi gör. Hur mycket längre kan det vara innan de går bland oss?
Den nya Vita husrapporten om konstgjord intelligens tar en lämpligt skeptisk syn på den drömmen. Det säger att de kommande 20 åren sannolikt inte kommer att se maskiner "uppvisar allmänt tillämplig intelligens som är jämförbar med eller överskrider människans," även om det fortsätter att säga att under de kommande åren "kommer maskiner att nå och överskrida mänsklig prestanda på mer och fler uppgifter. " Men antagandena om hur dessa kapaciteter kommer att utvecklas missade några viktiga punkter.
Som AI-forskare ska jag erkänna att det var trevligt att ha mitt eget fält markerat på den amerikanska regeringens högsta nivå, men rapporten fokuserade nästan uteslutande på det jag kallar "den tråkiga typen av AI." Det avslog i en halv mening min gren av AI-forskning, hur evolution kan hjälpa till att utveckla ständigt förbättrade AI-system och hur beräkningsmodeller kan hjälpa oss att förstå hur vår mänskliga intelligens utvecklades.
Rapporten fokuserar på vad som kan kallas mainstream AI-verktyg: maskininlärning och djupinlärning. Dessa är de olika tekniker som har kunnat spela "Jeopardy!" Tja, och slå mänskliga Go-mästare på det mest komplicerade spelet som någonsin hittats. Dessa nuvarande intelligenta system kan hantera enorma mängder data och göra komplexa beräkningar mycket snabbt. Men de saknar ett element som kommer att vara nyckeln till att bygga de känsliga maskiner vi ser på i framtiden.
Vi måste göra mer än att lära maskiner att lära. Vi måste övervinna gränserna som definierar de fyra olika typerna av konstgjord intelligens, hinder som skiljer maskiner från oss - och oss från dem.
Typ I AI: Reaktiva maskiner
De mest grundläggande typerna av AI-system är rent reaktiva och har förmågan varken att bilda minnen eller använda tidigare erfarenheter för att informera aktuella beslut. Deep Blue, IBMs schackspelande superdator, som slog den internationella stormästaren Garry Kasparov i slutet av 1990-talet, är det perfekta exemplet på denna typ av maskin.
Deep Blue kan identifiera bitarna på ett schackbräde och vet hur var och en rör sig. Det kan göra förutsägelser om vilka rörelser som kan bli nästa för den och dess motståndare. Och det kan välja de mest optimala rörelserna bland möjligheterna.
Men det har inget begrepp om det förflutna, inte heller något minne om vad som har hänt tidigare. Förutom en schackspecifik regel som används sällan mot att upprepa samma drag tre gånger, ignorerar Deep Blue allt före nuvarande ögonblick. Allt det gör är att titta på bitarna på schackbrädan som det står just nu, och välja mellan möjliga nästa drag.
Denna typ av intelligens innebär att datorn uppfattar världen direkt och agerar på det den ser. Det förlitar sig inte på ett internt koncept av världen. I en seminardokument hävdade AI-forskaren Rodney Brooks att vi bara skulle bygga maskiner som det här. Hans huvudsakliga orsak var att människor inte är så bra på att programmera exakta simulerade världar för datorer att använda, vad som kallas i AI-stipendiet en "representation" av världen.
De nuvarande intelligenta maskinerna som vi undrar över har antingen inget sådant världsidé eller har ett mycket begränsat och specialiserat system för sina särskilda uppgifter. Innovationen i Deep Blue design var inte att bredda utbudet av möjliga filmer som datorn betraktade. Snarare hittade utvecklarna ett sätt att begränsa synen, att sluta följa några potentiella framtida drag, baserat på hur det gav sitt resultat. Utan denna förmåga skulle Deep Blue ha behövt vara en ännu kraftigare dator för att faktiskt slå Kasparov.
På liknande sätt kan Googles AlphaGo, som har slagit de bästa mänskliga Go-experterna, inte heller utvärdera alla potentiella framtida drag. Dess analysmetod är mer sofistikerad än Deep Blue och använder ett neuralt nätverk för att utvärdera spelutvecklingen.
Dessa metoder förbättrar AI-systemens förmåga att spela specifika spel bättre, men de kan inte lätt ändras eller tillämpas i andra situationer. Dessa datoriserade fantasi har inget begrepp om den breda världen - vilket betyder att de inte kan fungera utöver de specifika uppgifterna de har tilldelats och lätt luras.
De kan inte interaktivt delta i världen, som vi föreställer AI-system en dag kan. Istället kommer dessa maskiner att bete sig exakt på samma sätt varje gång de stöter på samma situation. Detta kan vara mycket bra för att säkerställa att ett AI-system är pålitligt: Du vill att din autonoma bil ska vara en pålitlig förare. Men det är dåligt om vi vill att maskiner verkligen ska engagera sig i och svara på världen. Dessa enklaste AI-system kommer aldrig att bli uttråkade, intresserade eller ledsna.
Typ II AI: Begränsat minne
Denna typ II-klass innehåller maskiner som kan titta in i det förflutna. Självkörande bilar gör redan något av detta. Till exempel observerar de andra bilarnas hastighet och riktning. Det kan inte göras på bara ett ögonblick, utan kräver snarare att identifiera specifika objekt och övervaka dem över tid.
Dessa observationer läggs till de självkörande bilarnas förprogrammerade representationer av världen, som också inkluderar banmarkeringar, trafikljus och andra viktiga element, som kurvor i vägen. De ingår när bilen bestämmer när man ska byta körfält, för att undvika att stänga av en annan förare eller träffas av en bil i närheten.
Men dessa enkla uppgifter om det förflutna är bara övergående. De sparas inte som en del av bilens bibliotek av erfarenhet den kan lära av, hur mänskliga förare sammanställer erfarenheter över år bakom ratten.
Så hur kan vi bygga AI-system som bygger fullständiga representationer, minns deras erfarenheter och lära sig att hantera nya situationer? Brooks hade rätt i att det är mycket svårt att göra detta. Min egen forskning om metoder inspirerad av Darwinian evolution kan börja kompensera för mänskliga brister genom att låta maskinerna bygga sina egna representationer.
Typ III AI: Sinne
Vi kanske stannar här och kallar detta för den viktiga klyftan mellan de maskiner vi har och de maskiner vi kommer att bygga i framtiden. Det är emellertid bättre att vara mer specifik att diskutera vilka typer av representationer maskiner måste bilda och vad de behöver handla om.
Maskiner i nästa, mer avancerade klass utgör inte bara representationer om världen utan också om andra agenter eller enheter i världen. I psykologi kallas detta "teori om sinnet" - förståelsen att människor, varelser och föremål i världen kan ha tankar och känslor som påverkar deras eget beteende.
Detta är avgörande för hur vi människor bildade samhällen, eftersom de tillät oss att ha sociala interaktioner. Utan att förstå varandras motiv och avsikter, och utan att ta hänsyn till vad någon annan vet om mig eller miljön, är det i bästa fall svårt, i värsta fall omöjligt att arbeta tillsammans.
Om AI-system verkligen någonsin kommer att gå bland oss, måste de kunna förstå att var och en av oss har tankar och känslor och förväntningar på hur vi ska behandlas. Och de måste justera sitt beteende i enlighet därmed.
Typ IV AI: Självmedvetenhet
Det sista steget i AI-utvecklingen är att bygga system som kan bilda representationer om sig själva. I slutändan måste vi AI-forskare inte bara förstå medvetandet, utan bygga maskiner som har det.
Detta är på något sätt en förlängning av "sinnet teori" besatt av art III artificiella intelligenser. Medvetande kallas också "självmedvetenhet" av en anledning. ("Jag vill ha det föremålet" är ett mycket annorlunda uttalande från "Jag vet att jag vill ha det föremålet.") Medvetna varelser är medvetna om sig själva, känner till sina interna tillstånd och kan förutsäga andras känslor. Vi antar att någon som tappar bakom oss i trafiken är arg eller otålig, för det är så vi känner när vi tänker på andra. Utan en tanketeori skulle vi inte kunna göra sådana slutsatser.
Även om vi förmodligen är långt ifrån att skapa maskiner som är självmedvetna, bör vi fokusera våra ansträngningar på att förstå minne, lärande och förmågan att basera beslut på tidigare erfarenheter. Detta är ett viktigt steg för att förstå mänsklig intelligens på egen hand. Och det är avgörande om vi vill designa eller utveckla maskiner som är mer än exceptionella för att klassificera vad de ser framför dem.
Arend Hintze, biträdande professor i integrativ biologi & datavetenskap och teknik, Michigan State University