Ostatnie ostrzeżenie Stephena Hawkinga dla ludzkości: AI nadchodzi po nas

Stephen Hawking ma ostateczne przesłanie dla ludzkości: Jeśli roboty nas nie dopadną, zrobi to zmiana klimatu.

Hawking, który zmarł w wieku 76 lat na zwyrodnieniową chorobę neurologiczną na początku tego roku, oferuje swoje pożegnalne myśli w pośmiertnie wydanej książce zatytułowanej „Brief Answers To The Big Questions”, która ukazuje się we wtorek. Jest to przesłanie warte wysłuchania od człowieka, który jest prawdopodobnie najbardziej znanym naukowcem od czasów Einsteina, najbardziej znanym ze swojego odkrycia funkcjonowania czarnych dziur. Książka Hawkinga „Krótka historia czasu” sprzedała się w ponad 10 milionach egzemplarzy i stawiała pytania tak wielkie jak „Jak zaczął się wszechświat?” i „Co się stanie, gdy się skończy?” w języku wystarczająco prostym dla przeciętnego czytelnika.

W fragmencie opublikowanym w weekend w londyńskim Timesie jest zabawny i optymistyczny, nawet gdy ostrzega nas, że sztuczna inteligencja prawdopodobnie nas przechytrzy, że bogaci przekształcą się w gatunek nadludzi, a planeta zmierza w kierunku całkowitego braku możliwości zamieszkania.

Książka Hawkinga to ostatecznie werdykt w sprawie przyszłości ludzkości. Na pierwszy rzut oka werdykt brzmi, że jesteśmy skazani na zagładę. Ale sięgnij głębiej, a znajdziesz tu coś jeszcze – wiarę, że ludzka mądrość i innowacyjność udaremnią naszą zagładę, nawet jeśli wydaje się, że sami do niej doprowadzimy.

Roboty mogą przyjść po nas

Największe ostrzeżenie Hawkinga dotyczy powstania sztucznej inteligencji: Będzie to albo najlepsza rzecz, jaka kiedykolwiek nam się przytrafiła, albo najgorsza. Jeśli nie będziemy ostrożni, bardzo możliwe, że będzie to ostatnia rzecz.

Sztuczna inteligencja niesie ze sobą wielkie możliwości dla ludzkości, obejmując wszystko, od algorytmów Google’a, przez samojeżdżące samochody, po oprogramowanie do rozpoznawania twarzy. Jednak AI, którą mamy dzisiaj, jest wciąż w fazie prymitywnej. Eksperci martwią się o to, co się stanie, gdy ta inteligencja nas wyprzedzi. Albo, jak to ujął Hawking: „Podczas gdy krótkoterminowy wpływ AI zależy od tego, kto ją kontroluje, długoterminowy wpływ zależy od tego, czy w ogóle da się ją kontrolować.”

Może to brzmieć jak fantastyka naukowa, ale Hawking twierdzi, że odrzucenie tego jako takiego „byłoby błędem, i to potencjalnie naszym najgorszym błędem w historii.”

W porównaniu z robotami, my, ludzie, jesteśmy dość nieporadni. Ograniczeni powolnym tempem ewolucji, iteracja zajmuje nam całe pokolenia. Roboty, z drugiej strony, mogą ulepszać swoje własne projekty o wiele szybciej, a wkrótce prawdopodobnie będą w stanie robić to bez naszej pomocy. Hawking mówi, że spowoduje to „eksplozję inteligencji”, w której maszyny mogą przewyższyć naszą inteligencję „o więcej niż nasza przewyższa inteligencję ślimaków.”

Wielu ludzi myśli, że zagrożenie ze strony AI koncentruje się na tym, że stanie się ona złośliwa, a nie dobroczynna. Hawking pozbawia nas tej obawy, mówiąc, że „prawdziwym ryzykiem związanym z AI nie jest złośliwość, ale kompetencje”. Zasadniczo AI będzie bardzo dobra w osiąganiu swoich celów; jeśli ludzie wejdą jej w drogę, możemy mieć kłopoty.

„Prawdopodobnie nie jesteś złym mrówkożercą, który nadepnął na mrówki ze złośliwości, ale jeśli jesteś odpowiedzialny za hydroelektryczny projekt zielonej energii i w regionie, który ma zostać zalany, znajduje się mrowisko, to szkoda mrówek. Nie stawiajmy ludzkości w pozycji tych mrówek” – pisze Hawking.

Dla tych, którzy nadal nie są przekonani, proponuje inną metaforę. „Dlaczego tak bardzo martwimy się o AI? Z pewnością ludzie zawsze są w stanie wyciągnąć wtyczkę?” pyta go hipotetyczna osoba.

Hawking odpowiada: „Ludzie zapytali komputer: 'Czy istnieje Bóg?’ A komputer odpowiedział: 'Teraz już jest’ i wyciągnął wtyczkę.”

Koniec życia na Ziemi?

Jeśli to nie roboty, to „prawie nieuniknione jest, że albo nuklearna konfrontacja, albo katastrofa środowiskowa sparaliżuje Ziemię w jakimś momencie w ciągu następnych 1000 lat” – pisze Hawking.Zmian Klimatu (IPCC), w którym ostrzega, że mamy tylko 12 lat na wprowadzenie zmian na tyle poważnych, aby utrzymać globalne ocieplenie na umiarkowanym poziomie. Bez takich zmian, przedłużające się susze, częstsze burze tropikalne i podnoszący się poziom mórz to dopiero początek.

Gwałtowne zmiany klimatyczne są największym zagrożeniem dla naszej planety, mówi, a my działamy z „lekkomyślną obojętnością wobec naszej przyszłości na planecie Ziemia.”

W rzeczywistości, możemy nie mieć w ogóle przyszłości, mówi, ostrzegając nas, aby nie wkładać wszystkich naszych jaj „do jednego koszyka.” I tak, tym koszykiem jest planeta Ziemia. Nawet jeśli ludzie wymyślą sposób ucieczki, „miliony gatunków, które zamieszkują Ziemię” będą skazane na zagładę, mówi. „I to będzie na naszym sumieniu jako rasy.”

Inne ostrzeżenie nie jest wcale mniej groźne. Wkraczamy w nową fazę „samozaprojektowanej ewolucji”. Ten etap oznacza, że wkrótce będziemy w stanie zrzucić łańcuchy tradycyjnej ewolucji i zacząć zmieniać i ulepszać nasze własne DNA już teraz – nie za setki tysięcy lat.

Tak jak w przypadku AI, zdolność do edycji naszego własnego DNA posiada potencjał do rozwiązania największych problemów ludzkości. Po pierwsze, i prawdopodobnie nie w odległej przyszłości, będziemy w stanie naprawić wady genetyczne, edytując geny dla takich rzeczy jak dystrofia mięśniowa i stwardnienie zanikowe boczne, lub ALS, choroba, którą zdiagnozowano u Hawkinga w 1963 roku. Hawking twierdzi, „e w ciągu tego stulecia będziemy w stanie edytować inteligencję, pamięć i długość „ycia. I właśnie wtedy sprawy mogą się naprawdę skomplikować.

Hawking nazywa ludzi, którzy tego dokonają, „nadludźmi”, i prawdopodobnie będą to bogate elity świata. Zwykli, starzy ludzie nie będą w stanie konkurować i prawdopodobnie „wymrą lub staną się nieistotni”. W tym samym czasie nadludzie będą prawdopodobnie „kolonizować inne planety i gwiazdy.”

Jeśli to wszystko brzmi dość przygnębiająco, to tak właśnie jest. Ale nawet gdy Hawking serwuje apokaliptyczne prognozy dla naszej planety i wszystkich ludzi na niej żyjących, przebija z nich jego optymizm. Wierzy, że „nasza genialna rasa znajdzie sposób na wyswobodzenie się z surowych więzów Ziemi i dzięki temu przetrwa katastrofę.”

Wierzy nawet, że zamiast przerażać, możliwości te są porywające i że „znacznie zwiększają szanse zainspirowania nowego Einsteina. Gdziekolwiek by ona nie była.”

Wynalezienie sposobu na opuszczenie planety Ziemia, a może nawet Układu Słonecznego, jest okazją do zrobienia tego, co zrobiły lądowania na Księżycu: „podnieść ludzkość, zbliżyć ludzi i narody, wprowadzić nowe odkrycia i nowe technologie.”

Zapisz się do newslettera Future Perfect. Dwa razy w tygodniu otrzymasz zestawienie pomysłów i rozwiązań, które pomogą Ci stawić czoła naszym największym wyzwaniom: poprawie zdrowia publicznego, zmniejszeniu cierpienia ludzi i zwierząt, złagodzeniu katastrofalnych zagrożeń i – mówiąc wprost – lepszemu czynieniu dobra.

Wspieraj wyjaśniające dziennikarstwo Vox

Każdego dnia w Vox staramy się odpowiadać na najważniejsze pytania i dostarczać Tobie i naszym odbiorcom na całym świecie informacje, które pozwolą Ci lepiej zrozumieć sytuację. Praca Vox dociera do większej liczby ludzi niż kiedykolwiek, ale nasza charakterystyczna marka dziennikarstwa wyjaśniającego wymaga zasobów. Twój wkład finansowy nie będzie stanowił darowizny, ale umożliwi naszym pracownikom dalsze oferowanie darmowych artykułów, filmów i podcastów wszystkim, którzy ich potrzebują. Prosimy o rozważenie wpłaty na rzecz Vox już dziś, nawet od 3 dolarów.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *