Klyftan mellan dagens system och de science fiction-system som dominerar den populära fantasin är fortfarande enorm, även om många människor, både lekmän och experter, lyckas underskatta den. Låt oss betrakta IBM:s Watson, som för tillfället kan stå som ett värdigt riktmärke för vår fantasi.
Den är resultatet av en mycket storskalig R&D-process som sträcker sig över många människohundratals intelligenta konstruktioner och den använder tusentals gånger mer energi än en mänsklig hjärna. Dess seger i Jeopardy! var en äkta triumf, som möjliggjordes av de formelmässiga begränsningarna i Jeopardy! reglerna, men för att den skulle kunna tävla måste även dessa regler ses över (en av dessa kompromisser: man ger upp lite mångsidighet, lite mänsklighet, och får en publikfriande show).
Watson är inget bra sällskap, trots vilseledande reklam från IBM som antyder en allmän konversationsförmåga, och att förvandla Watson till en trovärdig multidimensionell agent skulle vara som att förvandla en handräknare till Watson. Watson skulle kunna vara en användbar kärnfunktion för en sådan agent, men mer som en lillhjärna eller en amygdala än en hjärna – i bästa fall ett delsystem för speciella ändamål som skulle kunna spela en viktig stödjande roll, men som inte på långa vägar klarar uppgiften att formulera syften och planer och bygga insiktsfullt på sina samtalsupplevelser.
Varför skulle vi vilja skapa en tänkande, kreativ agent av Watson? Kanske Turings briljanta idé om ett operativt test – det berömda Turing-testet – har lockat oss in i en fälla: strävan efter att skapa åtminstone illusionen av en verklig person bakom skärmen, för att överbrygga den ”kusliga dalen”.”
Faran här är att ända sedan Turing ställde sin utmaning – som trots allt var en utmaning för att lura domarna – har skapare av artificiell intelligens försökt att överbrygga dalen med söta humanoida inslag, disneyfieringseffekter som förtrollar och avväpnar de oinitierade. Joseph Weizenbaums ELIZA, en mycket tidig chattbot, var det främsta exemplet på sådana ytliga illusioner, och det var hans bestörtning över den lätthet med vilken hans skrattretande enkla och ytliga program kunde övertyga människor om att de hade en seriös konversation mellan två hjärtan som först skickade honom på sitt uppdrag.
Han gjorde rätt i att vara orolig. Om det är något vi har lärt oss av de begränsade Turing-testtävlingarna för det årliga Loebnerpriset så är det att även mycket intelligenta människor som inte är insatta i dataprogrammeringens möjligheter och genvägar lätt låter sig luras av enkla knep.
Atttityderna hos människor inom AI till dessa metoder för att dölja i ”användargränssnittet” har varierat från förakt till hyllning, med en allmän uppskattning av att knepen inte är djupa men att de kan vara potenta. En attitydförändring som skulle vara mycket välkommen är ett uppriktigt erkännande av att humanoida utsmyckningar är falsk reklam – något som ska fördömas, inte applåderas.
Hur skulle detta kunna åstadkommas? När vi väl inser att människor börjar fatta beslut om liv eller död till stor del på grundval av ”råd” från AI-system vars inre verksamhet är outgrundlig i praktiken, kan vi se en god anledning till att de som på något sätt uppmuntrar människor att sätta större tillit till dessa system än vad de motiverar bör hållas moraliskt och juridiskt ansvariga.
AI-system är mycket kraftfulla verktyg – så kraftfulla att till och med experter kommer att ha goda skäl att inte lita på sitt eget omdöme framför de ”omdömen” som levereras av deras verktyg. Men om dessa verktygsanvändare ska dra nytta, ekonomiskt eller på annat sätt, av att köra dessa verktyg genom terra incognita, måste de se till att de vet hur de ska göra detta på ett ansvarsfullt sätt, med maximal kontroll och motivering.
Licensiering och borgensåtagande av operatörerna av dessa system, på samma sätt som vi licensierar apotekare, kranförare och andra specialister vars misstag och felbedömningar kan få ödesdigra konsekvenser, skulle, med påtryckningar från försäkringsbolag och andra försäkringsgivare, kunna tvinga skaparna av AI-system att anstränga sig extraordinärt för att leta efter och avslöja svagheter och luckor i sina produkter och att utbilda dem som har rätt att använda dem så att de ser till att se upp för dem.
Man kan föreställa sig ett slags omvänt Turing-test där domaren står inför rätta; tills han eller hon kan upptäcka svagheterna, de överskridna gränserna, luckorna i ett system, kommer ingen licens att utfärdas. Den mentala träning som krävs för att få en certifiering som domare kommer att vara krävande. Drivkraften att tillskriva ett objekt människoliknande tankekraft, vår normala taktik när vi möter något som verkar vara en intelligent agent, är nästan överväldigande stark.
Förvisso är förmågan att motstå lockelsen av att behandla en skenbar person som en person en ful talang, som stinker av rasism eller artrikedom. Många människor skulle finna odlingen av ett sådant hänsynslöst skeptiskt förhållningssätt moraliskt motbjudande, och vi kan förutse att även de mest skickliga systemanvändarna ibland skulle ge efter för frestelsen att ”bli vän med” sina verktyg, om så bara för att lindra sitt obehag i samband med utförandet av sina uppgifter.
Oavsett hur noggrant AI-utvecklarna än tvättar bort den falska ”mänskliga” kontakten med sina produkter, kan vi förvänta oss en blomstring av genvägar, lösningar och tolererade förvrängningar av den faktiska ”förståelsen” hos både systemen och deras användare. De komiskt långa listorna över kända biverkningar av nya läkemedel som annonseras på TV kommer att överskuggas av de obligatoriska avslöjandena om den typ av frågor som inte kan besvaras på ett ansvarsfullt sätt av vissa system, med tunga straff för tillverkare som ”förbiser” brister i sina produkter. (Det är allmänt känt att en betydande del av den ökande ekonomiska ojämlikheten i dagens värld beror på den rikedom som ackumulerats av digitala entreprenörer; vi bör anta lagstiftning som sätter deras djupa fickor i säkerhet för det allmänna bästa).