Zal AI bewustzijn bereiken? Verkeerde vraag

De kloof tussen de huidige systemen en de sciencefiction-systemen die de populaire verbeelding domineren is nog steeds enorm, hoewel veel mensen, zowel leken als deskundigen, erin slagen deze te onderschatten. Laten we eens kijken naar IBM’s Watson, die voorlopig als een waardige mijlpaal voor onze verbeelding kan fungeren.

Hij is het resultaat van een zeer grootschalig R&D-proces dat zich uitstrekt over vele mens-eeuwen van intelligent ontwerp, en hij verbruikt duizenden malen meer energie dan een menselijk brein. Zijn overwinning in Jeopardy! was een echte triomf, mogelijk gemaakt door de formule beperkingen van de Jeopardy! regels, maar om het te laten concurreren, zelfs deze regels moesten worden herzien (een van die trade-offs: je geeft een beetje veelzijdigheid, een beetje menselijkheid, en krijgt een publiek-plezieren show).

Watson is geen goed gezelschap, ondanks de misleidende advertenties van IBM die een algemeen conversatievermogen suggereren, en Watson veranderen in een plausibele multidimensionale agent zou hetzelfde zijn als een handrekenmachine veranderen in Watson. Watson zou een nuttige kernfaculteit kunnen zijn voor zo’n agent, maar meer als een cerebellum of een amygdala dan een geest – in het beste geval een subsysteem voor speciale doeleinden dat een grote ondersteunende rol zou kunnen spelen, maar in de verste verte niet opgewassen tegen de taak om doelen en plannen te formuleren en inzichtelijk voort te bouwen op zijn gesprekservaringen.

Waarom zouden we van Watson een denkende, creatieve agent willen maken? Misschien heeft Turing’s briljante idee van een operationele test – de beroemde Turing-test – ons in een val gelokt: de zoektocht om op zijn minst de illusie van een echt mens achter het scherm te creëren, en zo de “uncanny valley” te overbruggen.”

Het gevaar hier is dat sinds Turing zijn uitdaging stelde – die uiteindelijk een uitdaging was om de juryleden voor de gek te houden – makers van AI hebben geprobeerd om de vallei te bedekken met schattige, humanoïde accenten, Disneyficatie-effecten die de niet-ingewijden zullen betoveren en ontwapenen. Joseph Weizenbaums ELIZA, een zeer vroege chatbot, was het pioniersvoorbeeld van zulke oppervlakkige illusies, en het was zijn ontzetting over het gemak waarmee zijn lachwekkend eenvoudige en oppervlakkige programma mensen ervan kon overtuigen dat ze een serieus gesprek van hart tot hart voerden dat hem voor het eerst op zijn missie stuurde.

Hij had gelijk zich zorgen te maken. Als er één ding is dat we hebben geleerd van de beperkte Turing-testwedstrijden voor de jaarlijkse Loebner-prijs, dan is het wel dat zelfs zeer intelligente mensen die niet op de hoogte zijn van de mogelijkheden en sluipweggetjes van computerprogrammeren, zich gemakkelijk laten inpakken door eenvoudige trucs.

De houding van mensen in de AI-wereld ten opzichte van deze methoden om de “gebruikersinterface” te ontmaskeren varieert van minachting tot feestvieren, met een algemene waardering dat de trucs niet diepgaand zijn, maar wel krachtig kunnen zijn. Een verschuiving in houding die zeer welkom zou zijn, is een openhartige erkenning dat humanoïde versieringen valse reclame zijn – iets om te veroordelen, niet toe te juichen.

Hoe zou dat bereikt kunnen worden? Zodra we inzien dat mensen beslissingen van leven of dood beginnen te nemen die grotendeels gebaseerd zijn op “adviezen” van AI-systemen waarvan de innerlijke werking in de praktijk ondoorgrondelijk is, zien we een goede reden waarom degenen die op enigerlei wijze mensen aanmoedigen om meer vertrouwen in deze systemen te stellen dan ze rechtvaardigen, moreel en juridisch verantwoordelijk moeten worden gehouden.

AI-systemen zijn zeer krachtige instrumenten – zo krachtig dat zelfs deskundigen goede redenen zullen hebben om hun eigen oordeel niet te vertrouwen boven de “oordelen” die door hun instrumenten worden gegeven. Maar als deze gebruikers er financieel of anderszins baat bij hebben om met deze instrumenten terra incognita te doorkruisen, dan moeten ze er wel voor zorgen dat ze weten hoe ze dit op verantwoorde wijze, met maximale controle en rechtvaardiging kunnen doen.

Het verlenen van een vergunning aan de bedieners van deze systemen, net zoals we apothekers, kraanmachinisten en andere specialisten, wier fouten en verkeerde inschattingen ernstige gevolgen kunnen hebben, een vergunning geven, zou, onder druk van verzekeringsmaatschappijen en andere verzekeraars, de makers van AI-systemen ertoe kunnen dwingen buitengewone moeite te doen om zwakke plekken en lacunes in hun producten op te sporen en aan het licht te brengen, en om degenen die gerechtigd zijn ze te bedienen, op te leiden om op die lacunes te letten.

Je kunt je een soort omgekeerde Turing-test voorstellen waarbij de rechter terechtstaat; zolang hij of zij de zwakke punten, de overschreden grenzen, de lacunes in een systeem niet kan ontdekken, wordt er geen vergunning afgegeven om het systeem te bedienen. De mentale training die nodig is om als rechter gecertificeerd te worden, zal veeleisend zijn. De drang om aan een object menselijke denkvermogens toe te schrijven, onze normale tactiek telkens wanneer we een schijnbaar intelligent wezen tegenkomen, is bijna overweldigend sterk.

Het vermogen om weerstand te bieden aan de verlokking om een schijnbaar persoon als een persoon te behandelen, is een lelijk talent, dat riekt naar racisme of species-ism. Veel mensen zouden het cultiveren van zo’n meedogenloos sceptische benadering moreel verwerpelijk vinden, en we kunnen ervan uitgaan dat zelfs de meest bekwame systeemgebruikers af en toe voor de verleiding zouden bezwijken om “bevriend” te raken met hun gereedschap, al was het maar om hun ongemak bij het uitvoeren van hun taken te verzachten.

Hoe nauwgezet de AI-ontwerpers ook de “menselijke” aspecten uit hun produkten witwassen, we kunnen een bloei verwachten van sluipwegen, werkwijzen en getolereerde vervormingen van het werkelijke “begrip” van zowel de systemen als hun gebruikers. De komisch lange lijsten van bekende bijwerkingen van nieuwe geneesmiddelen waarvoor op de televisie reclame wordt gemaakt, zullen in het niet vallen bij de verplichte onthullingen over het soort vragen dat door bepaalde systemen niet op verantwoorde wijze kan worden beantwoord, met zware straffen voor fabrikanten die gebreken in hun producten “over het hoofd zien”. (Alom wordt opgemerkt dat een aanzienlijk deel van de groeiende economische ongelijkheid in de wereld van vandaag te wijten is aan de rijkdom die digitale ondernemers hebben vergaard; we zouden wetgeving moeten invoeren die hun diepe zakken in bewaring geeft voor het algemeen belang.)

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *