L’IA raggiungerà la coscienza? Domanda sbagliata

Il divario tra i sistemi di oggi e i sistemi fantascientifici che dominano l’immaginario popolare è ancora enorme, anche se molte persone, sia laiche che esperte, riescono a sottovalutarlo. Consideriamo Watson dell’IBM, che per il momento può essere un degno punto di riferimento per la nostra immaginazione.

È il risultato di un processo R&D su larga scala che si estende per molti secoli-persona di progettazione intelligente, e usa migliaia di volte più energia di un cervello umano. La sua vittoria a Jeopardy! è stata un autentico trionfo, reso possibile dalle restrizioni formali delle regole di Jeopardy!, ma per poter competere, anche queste regole hanno dovuto essere riviste (uno di quei compromessi: si rinuncia a un po’ di versatilità, un po’ di umanità, e si ottiene uno spettacolo che piace al pubblico).

Watson non è una buona compagnia, nonostante gli annunci fuorvianti di IBM che suggeriscono una generale capacità di conversazione, e trasformare Watson in un agente plausibilmente multidimensionale sarebbe come trasformare una calcolatrice manuale in Watson. Watson potrebbe essere un’utile facoltà di base per un tale agente, ma più come un cervelletto o un’amigdala che una mente – nel migliore dei casi, un sottosistema speciale che potrebbe giocare un grande ruolo di supporto, ma non lontanamente all’altezza del compito di inquadrare scopi e piani e costruire perspicacemente sulle sue esperienze conversazionali.

Perché dovremmo voler creare un agente pensante e creativo da Watson? Forse la brillante idea di Turing di un test operativo – il famoso test di Turing – ci ha attirato in una trappola: la ricerca di creare almeno l’illusione di una persona reale dietro lo schermo, superando la “valle misteriosa”.”

Il pericolo qui è che da quando Turing ha posto la sua sfida – che era, dopo tutto, una sfida per ingannare i giudici – i creatori di IA hanno cercato di coprire la valle con tocchi umanoidi carini, effetti di Disneyfication che incanteranno e disarmeranno i non iniziati. ELIZA di Joseph Weizenbaum, un chatbot molto precoce, è stato l’esempio pionieristico di tale illusione superficiale, ed è stato il suo sgomento per la facilità con cui il suo programma ridicolmente semplice e superficiale poteva convincere le persone che stavano avendo una seria conversazione a cuore aperto che lo ha mandato in missione. Se c’è una cosa che abbiamo imparato dai concorsi ristretti del test di Turing per l’annuale Premio Loebner, è che anche persone molto intelligenti che non sono sintonizzate sulle possibilità e le scorciatoie della programmazione dei computer sono facilmente ingannate da semplici trucchi.

L’atteggiamento delle persone nell’IA verso questi metodi di dissimulazione all'”interfaccia utente” è variato dal disprezzo alla celebrazione, con un apprezzamento generale che i trucchi non sono profondi ma possono essere potenti. Un cambiamento di atteggiamento che sarebbe molto gradito è un candido riconoscimento che gli abbellimenti umanoidi sono una falsa pubblicità – qualcosa da condannare, non da applaudire.

Come si potrebbe realizzare? Una volta che riconosciamo che le persone stanno iniziando a prendere decisioni di vita o di morte in gran parte sulla base di “consigli” da sistemi di IA le cui operazioni interne sono insondabili nella pratica, possiamo vedere una buona ragione per cui coloro che in qualsiasi modo incoraggiano le persone a riporre più fiducia in questi sistemi di quanto essi garantiscano dovrebbero essere ritenuti moralmente e legalmente responsabili.

I sistemi AI sono strumenti molto potenti – così potenti che anche gli esperti avranno buone ragioni per non fidarsi del proprio giudizio rispetto ai “giudizi” forniti dai loro strumenti. Ma poi, se questi utilizzatori di strumenti hanno intenzione di beneficiare, finanziariamente o in altro modo, dal guidare questi strumenti attraverso la terra incognita, devono essere sicuri di sapere come farlo in modo responsabile, con il massimo controllo e giustificazione.

Licenziando e vincolando gli operatori di questi sistemi, proprio come licenziamo i farmacisti, i gruisti e altri specialisti i cui errori e valutazioni errate possono avere conseguenze disastrose, potrebbe, con la pressione delle compagnie di assicurazione e di altri sottoscrittori, obbligare i creatori di sistemi di IA a fare sforzi straordinari per cercare e rivelare le debolezze e le lacune dei loro prodotti, e per addestrare coloro che hanno il diritto di utilizzarli a fare attenzione ad esse.

Si può immaginare una sorta di test di Turing rovesciato in cui il giudice è sotto processo; finché lui o lei non riesce a individuare le debolezze, i limiti oltrepassati, le lacune di un sistema, non verrà rilasciata alcuna licenza per operare. L’addestramento mentale richiesto per ottenere la certificazione come giudice sarà impegnativo. L’impulso di attribuire a un oggetto poteri di pensiero simili a quelli umani, la nostra normale tattica ogni volta che incontriamo ciò che sembra essere un agente intelligente, è quasi prepotentemente forte.

Infatti, la capacità di resistere al fascino di trattare una persona apparente come una persona è un brutto talento, che puzza di razzismo o specie-ismo. Molte persone troverebbero moralmente ripugnante la coltivazione di un approccio così spietatamente scettico, e possiamo anticipare che anche i più abili utenti del sistema soccomberebbero occasionalmente alla tentazione di “fare amicizia” con i loro strumenti, anche solo per placare il loro disagio nell’esecuzione dei loro compiti.

Non importa quanto scrupolosamente i progettisti di IA riciclino i falsi tocchi “umani” dai loro prodotti, possiamo aspettarci una fioritura di scorciatoie, soluzioni alternative e distorsioni tollerate della reale “comprensione” sia dei sistemi che dei loro operatori. Gli elenchi comicamente lunghi degli effetti collaterali noti dei nuovi farmaci pubblicizzati in televisione saranno nanizzati dalle rivelazioni obbligatorie dei tipi di domande che non possono essere responsabilmente risposte da particolari sistemi, con pesanti sanzioni per i produttori che “trascurano” i difetti nei loro prodotti. (È stato ampiamente notato che una parte considerevole della crescente disuguaglianza economica nel mondo di oggi è dovuta alla ricchezza accumulata dagli imprenditori digitali; dovremmo emanare una legislazione che metta le loro tasche profonde in garanzia per il bene pubblico.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *