Przepaść między dzisiejszymi systemami a dominującymi w wyobraźni systemami science-fiction jest wciąż ogromna, choć wielu ludziom, zarówno laikom, jak i ekspertom, udaje się jej nie doceniać. Weźmy pod uwagę IBM-owskiego Watsona, który na razie może być godnym punktem orientacyjnym dla naszych wyobrażeń.
Jest wynikiem bardzo dużego procesu R&D rozciągającego się na wiele osobo-wieków inteligentnego projektu i zużywa tysiące razy więcej energii niż ludzki mózg. Jego zwycięstwo w Jeopardy! było prawdziwym triumfem, możliwym dzięki formalnym ograniczeniom zasad Jeopardy!, ale aby mógł konkurować, nawet te zasady musiały zostać zmienione (jeden z tych kompromisów: rezygnujesz z odrobiny wszechstronności, odrobiny człowieczeństwa, a dostajesz przyciągające tłumy show).
Watson nie jest dobrym towarzystwem, pomimo mylących reklam IBM, które sugerują ogólną zdolność konwersacyjną, a przekształcenie Watsona w wiarygodnego wielowymiarowego agenta byłoby jak przekształcenie kalkulatora ręcznego w Watsona. Watson mógłby być użyteczną podstawową dziedziną dla takiego agenta, ale bardziej jak móżdżek lub migdałek niż umysł – w najlepszym razie podsystemem specjalnego przeznaczenia, który mógłby odgrywać dużą rolę pomocniczą, ale nie byłby w stanie sprostać zadaniu określania celów i planów oraz wnikliwego budowania na swoich doświadczeniach konwersacyjnych.
Dlaczego chcielibyśmy stworzyć myślącego, kreatywnego agenta z Watsona? Być może genialny pomysł Turinga na test operacyjny – słynny test Turinga – zwabił nas w pułapkę: dążenie do stworzenia przynajmniej iluzji prawdziwej osoby za ekranem, pokonanie „niesamowitej doliny”.”
Niebezpieczeństwo polega na tym, że od czasu, gdy Turing postawił swoje wyzwanie – które było przecież wyzwaniem do oszukania sędziów – twórcy SI próbują zatuszować tę dolinę tandetnymi humanoidalnymi akcentami, efektami Disneya, które oczarują i rozbroją niewtajemniczonych. ELIZA Josepha Weizenbauma, bardzo wczesny chatbot, była pionierskim przykładem takiego powierzchownego tworzenia iluzji i to właśnie jego przerażenie łatwością, z jaką jego śmiesznie prosty i płytki program mógł przekonać ludzi, że prowadzą poważną, serdeczną rozmowę, wysłało go na misję.
Miał rację, że się martwił. Jeśli jest jedna rzecz, której nauczyliśmy się dzięki konkursom ograniczonego testu Turinga o doroczną nagrodę Loebnera, to jest nią to, że nawet bardzo inteligentni ludzie, którzy nie są dostrojeni do możliwości i skrótów programowania komputerowego, łatwo dają się nabrać na proste sztuczki.
Postawy ludzi zajmujących się sztuczną inteligencją w stosunku do tych metod upiększania „interfejsu użytkownika” wahały się od pogardy do celebracji, z ogólnym uznaniem, że sztuczki nie są głębokie, ale mogą być potężne. Zmiana nastawienia, która byłaby bardzo pożądana, to szczere przyznanie, że humanoidalne upiększenia są fałszywą reklamą – czymś, co należy potępić, a nie pochwalić.
Jak można to osiągnąć? Gdy uznamy, że ludzie zaczynają podejmować decyzje dotyczące życia lub śmierci w dużej mierze na podstawie „porad” systemów AI, których wewnętrzne działanie jest w praktyce niezgłębione, możemy dostrzec dobry powód, dla którego ci, którzy w jakikolwiek sposób zachęcają ludzi do pokładania w tych systemach większego zaufania, niż to uzasadniają, powinni być moralnie i prawnie odpowiedzialni.
SystemyAI są bardzo potężnymi narzędziami – tak potężnymi, że nawet eksperci będą mieli dobry powód, by nie ufać własnemu osądowi w stosunku do „osądów” dostarczanych przez te narzędzia. Ale wtedy, jeśli użytkownicy tych narzędzi mają zamiar skorzystać, finansowo lub w inny sposób, z prowadzenia tych narzędzi przez terra incognita, muszą upewnić się, że wiedzą, jak to zrobić odpowiedzialnie, z maksymalną kontrolą i uzasadnieniem.
Licencjonowanie operatorów tych systemów, podobnie jak licencjonujemy farmaceutów, operatorów dźwigów i innych specjalistów, których błędy i pomyłki mogą mieć tragiczne konsekwencje, mogłoby, pod naciskiem firm ubezpieczeniowych i innych ubezpieczycieli, zobowiązać twórców systemów AI do podjęcia nadzwyczajnych wysiłków w celu znalezienia i ujawnienia słabości i luk w swoich produktach oraz przeszkolenia osób uprawnionych do ich obsługi, aby na nie uważały.
Można sobie wyobrazić coś w rodzaju odwróconego testu Turinga, w którym sędzia jest na próbie; dopóki nie będzie w stanie dostrzec słabości, przekroczonych granic, luk w systemie, nie zostanie wydana licencja na jego obsługę. Trening umysłowy wymagany do uzyskania certyfikatu sędziego będzie wymagający. Skłonność do przypisywania obiektowi ludzkich zdolności myślenia, nasza normalna taktyka, gdy tylko napotykamy coś, co wydaje się być inteligentnym agentem, jest niemal obezwładniająco silna.
I rzeczywiście, zdolność do opierania się powabowi traktowania pozornej osoby jako osoby jest brzydkim talentem, cuchnącym rasizmem lub gatunkowizmem. Wielu ludzi uznałoby kultywowanie takiego bezwzględnie sceptycznego podejścia za moralnie odrażające i możemy przewidzieć, że nawet najbardziej biegli użytkownicy systemu od czasu do czasu ulegliby pokusie „zaprzyjaźnienia się” ze swoimi narzędziami, choćby tylko po to, by złagodzić dyskomfort związany z wykonywaniem swoich obowiązków.
Niezależnie od tego, jak skrupulatnie projektanci AI wypiorą ze swoich produktów fałszywe „ludzkie” akcenty, możemy spodziewać się rozkwitu skrótów, obejść i tolerowanych zniekształceń rzeczywistego „zrozumienia” zarówno systemów, jak i ich operatorów. Komicznie długie listy znanych skutków ubocznych nowych leków reklamowanych w telewizji zostaną przyćmione przez obowiązkowe ujawnienia rodzajów pytań, na które poszczególne systemy nie są w stanie w sposób odpowiedzialny odpowiedzieć, z surowymi karami dla producentów, którzy „przeoczą” wady swoich produktów. (Powszechnie zauważa się, że znaczna część rosnących nierówności ekonomicznych w dzisiejszym świecie wynika z bogactwa zgromadzonego przez cyfrowych przedsiębiorców; powinniśmy uchwalić przepisy, które umieszczą ich głębokie kieszenie w depozycie dla dobra publicznego.)