Va ajunge inteligența artificială la conștiință? Întrebare greșită

Distanța dintre sistemele actuale și sistemele științifico-fantastice care domină imaginația populară este încă uriașă, deși mulți oameni, atât profani cât și experți, reușesc să o subestimeze. Să luăm în considerare Watson de la IBM, care poate reprezenta deocamdată un reper demn de urmat pentru imaginația noastră.

Este rezultatul unui proces R&

D la scară foarte mare, care se întinde pe parcursul mai multor secole de proiectare inteligentă de persoane, și folosește de mii de ori mai multă energie decât un creier uman. Victoria sa la Jeopardy! a fost un adevărat triumf, posibil datorită restricțiilor formulaice ale regulilor de la Jeopardy! dar, pentru ca acesta să poată concura, chiar și aceste reguli au trebuit să fie revizuite (unul dintre acele compromisuri: renunți la puțină versatilitate, la puțină umanitate și obții un spectacol care să placă publicului).

Watson nu este o companie bună, în ciuda reclamelor înșelătoare ale IBM care sugerează o capacitate generală de conversație, iar transformarea lui Watson într-un agent plauzibil de multidimensional ar fi ca și cum ai transforma un calculator de mână în Watson. Watson ar putea fi o facultate de bază utilă pentru un astfel de agent, dar mai mult ca un cerebel sau o amigdală decât o minte – în cel mai bun caz, un subsistem cu scop special care ar putea juca un rol important de susținere, dar care nu este nici pe departe la înălțimea sarcinii de a formula scopuri și planuri și de a construi în mod perspicace pe baza experiențelor sale conversaționale.

De ce am vrea să creăm un agent gânditor și creativ din Watson? Poate că ideea strălucită a lui Turing de a face un test operațional – celebrul test Turing – ne-a atras într-o capcană: căutarea de a crea cel puțin iluzia unei persoane reale în spatele ecranului, depășind „uncanny valley”.”

Pericolul aici este că, încă de când Turing a lansat provocarea sa – care a fost, la urma urmei, o provocare de a păcăli judecătorii – creatorii de IA au încercat să acopere valea cu atingeri umanoide drăguțe, efecte de Disneyfication care să-i încânte și să-i dezarmeze pe cei neinițiați. ELIZA al lui Joseph Weizenbaum, un chatbot foarte timpuriu, a fost exemplul de pionierat al unei astfel de iluzii superficiale, iar consternarea sa față de ușurința cu care programul său ridicol de simplu și superficial putea convinge oamenii că purtau o conversație serioasă de la inimă la inimă a fost cea care l-a trimis pentru prima dată în misiunea sa.

Avea dreptate să fie îngrijorat. Dacă există un lucru pe care l-am învățat din competițiile restrânse ale testului Turing pentru premiul anual Loebner, acesta este faptul că până și oamenii foarte inteligenți care nu sunt acordați la posibilitățile și scurtăturile programării calculatoarelor sunt ușor de păcălit de trucuri simple.

Atitudinea oamenilor din domeniul IA față de aceste metode de disimulare la „interfața cu utilizatorul” a variat de la dispreț la sărbătoare, cu o apreciere generală că trucurile nu sunt profunde, dar pot fi puternice. O schimbare de atitudine care ar fi foarte binevenită este o recunoaștere sinceră a faptului că înfrumusețările umanoide sunt publicitate falsă – ceva de condamnat, nu de aplaudat.

Cum s-ar putea realiza acest lucru? Odată ce recunoaștem că oamenii încep să ia decizii de viață sau de moarte în mare parte pe baza „sfaturilor” oferite de sistemele de inteligență artificială ale căror operațiuni interne sunt de nepătruns în practică, putem vedea un motiv întemeiat pentru care cei care încurajează în vreun fel oamenii să aibă mai multă încredere în aceste sisteme decât o justifică ar trebui să fie trași la răspundere din punct de vedere moral și legal.

Sistemele de IA sunt instrumente foarte puternice – atât de puternice încât chiar și experții vor avea motive întemeiate să nu aibă încredere în propria lor judecată în locul „judecăților” emise de instrumentele lor. Dar atunci, dacă acești utilizatori de instrumente vor beneficia, financiar sau în alt mod, de pe urma conducerii acestor instrumente prin terra incognita, ei trebuie să se asigure că știu cum să facă acest lucru în mod responsabil, cu un control și o justificare maxime.

Licențierea și garantarea operatorilor acestor sisteme, la fel cum autorizăm farmaciștii, operatorii de macara și alți specialiști ale căror erori și greșeli de judecată pot avea consecințe grave, ar putea, sub presiunea companiilor de asigurări și a altor asigurători, să-i oblige pe creatorii de sisteme de inteligență artificială să facă eforturi extraordinare pentru a căuta și a dezvălui punctele slabe și lacunele din produsele lor și pentru a-i instrui pe cei îndreptățiți să le opereze să fie atenți la acestea.

Se poate imagina un fel de test Turing inversat, în care judecătorul este judecat; până când nu poate depista punctele slabe, limitele depășite, lacunele unui sistem, nu va fi eliberat niciun permis de operare. Pregătirea mentală necesară pentru a obține certificarea ca judecător va fi solicitantă. Nevoia de a atribui unui obiect puteri de gândire asemănătoare cu cele umane, tactica noastră normală ori de câte ori întâlnim ceea ce pare a fi un agent inteligent, este aproape copleșitor de puternică.

Într-adevăr, capacitatea de a rezista tentației de a trata o persoană aparentă ca pe o persoană este un talent urât, care miroase a rasism sau a specia-ism. Mulți oameni ar considera că cultivarea unei astfel de abordări sceptice nemiloase este respingătoare din punct de vedere moral, și putem anticipa că până și cei mai pricepuți utilizatori de sisteme ar ceda ocazional tentației de a se „împrieteni” cu instrumentele lor, fie și numai pentru a-și liniști disconfortul legat de executarea sarcinilor lor.

Nu contează cât de scrupulos își spală designerii de inteligență artificială falsele atingeri „umane” din produsele lor, ne putem aștepta la o înflorire a scurtăturilor, a soluțiilor alternative și a denaturărilor tolerate ale „înțelegerii” reale atât a sistemelor, cât și a operatorilor acestora. Listele lungi și comice ale efectelor secundare cunoscute ale noilor medicamente anunțate la televizor vor fi eclipsate de dezvăluirile obligatorii ale tipurilor de întrebări la care anumite sisteme nu pot răspunde în mod responsabil, cu sancțiuni grele pentru producătorii care „trec cu vederea” defectele din produsele lor. (Se observă pe scară largă că o parte considerabilă din inegalitatea economică în creștere din lumea de astăzi se datorează bogăției acumulate de antreprenorii digitali; ar trebui să promulgăm o legislație care să pună buzunarele lor adânci în custodie pentru binele public.)

.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *