Kategorie

Trendy

Co robi sztuczna inteligencja, kiedy nikt nie patrzy?

Świat cyfrowych maszyn

Znani krytycy ostrzegają przed związanymi ze sztuczną inteligencją zagrożeniami. Czy tego dżina da się w razie czego z powrotem zagonić do butelki?

14.02.2017

 

 

Spróbujmy zmienić pewien szczegół fabuły: załóżmy, że zamiast kosmitów na Ziemi pojawia się jedna lub więcej superinteligentnych maszyn. Mowa o usieciowionych intelektach myślących sprawniej niż cała ludzkość, które stopniowo ulepszają same siebie. Wielu ludzi także taki scenariusz uzna za nieprawdopodobny, jednak mało który z naukowców, choćby hobbystycznie zajmujących się sztuczną inteligencją, wątpi w to, że „technologiczna osobliwość” rzeczywiście nadejdzie, co wiąże się z niemożliwymi do przewidzenia skutkami. Pytanie nie brzmi „czy”, ale „kiedy”. W najgorszym razie mamy jeszcze zaledwie 25 lat, a więc godziny zero dożyją nie tylko ci, którzy dziś są oseskami. Trudno się dziwić, że ten temat rozpala umysły nie tylko specjalistów, ale coraz częściej również laików. W takich warunkach nietrudno o panikę i histerię.

Największa groźba dla ludzkości

Ostrzegawczych głosów nie brakuje. Jednym z pierwszych był brytyjski matematyk Irving Good, który w czasie drugiej wojny światowej wspólnie z Alanem Turingiem rozpracowywał maszynę szyfrującą Enigma. Już w 1965 roku ogłosił, że „ultrainteligentna maszyna to maszyna, która zdecydowanie przewyższa możliwościami intelektualnymi przeciętnego człowieka. Te możliwości obejmują budowanie maszyn, zatem ultrainteligentna maszyna mogłaby budować inne, jeszcze lepsze. Bez wątpienia doszłoby do eksplozji inteligencji, za którą ludzkość pozostałaby daleko w tyle.

 

 

Pierwsza ultrainteligentna maszyna jest więc ostatnim wynalazkiem, jakiego dokona człowiek”. Od tego czasu upłynęło 50 lat. Rozwój sztucznej inteligencji przerwały dwie „długie zimy” – okresy zawiedzionych nadziei i nieudanych projektów. Przyjrzyjmy się protagoniście cyfrowej przyszłości – Elonowi Muskowi. Ten apostoł technologicznego kapitalizmu powołuje do życia wciąż nowe projekty, często zakrawające na fantastykę, a później realizuje je z żelazną konsekwencją, nie oglądając się na to, że kosztują go mnóstwo pieniędzy, a jego podwładnych jeszcze więcej nerwów. Współtworzył on PayPala, zbudował z niczego giganta elektrycznej motoryzacji, czyli Teslę, i wysyła na orbitę rakiety konstruowane przez jego koncern kosmiczny SpaceX. Dla zafascynowanego techniką Muska ziemska egzystencja to za mało – ogłosił już, że chce umrzeć na Marsie, „w miarę możliwości nie przy lądowaniu”.

Czy taki twardziel ma jakieś lęki? Owszem – i to takie, które mogą zirytować wielu wielbicieli Iron Mana z krwi i kości: Musk twierdzi, że sztuczna inteligencja może okazać się groźniejsza od wojny atomowej i określa ją mianem „największego zagrożenia egzystencjalnego ludzkości”. „Tworząc ją, przyzywamy demony” – alarmuje 44-letni wynalazca. Poszukiwanie wyjścia z pułapki sztucznej inteligencji stało się jedną z jego pasji. Oczywiście Muskowi też można sporo zarzucić. Nie jest przecież naukowcem, a tylko przedsiębiorcą, choć dobrze poinformowanym. Podobnie jak jego równie bogaci kumple z Doliny Krzemowej, reprezentuje kalifornijską ideologię, zgodnie z którą postęp to przede wszystkim niszczące innowacje i technologiczne monopole.n

Najwyraźniej osobliwość wydaje mu się zbyt rewolucyjna – kto wie, jak wpłynie na biznes? Steven Hawking, opoka współczesnej fizyki, to gracz z zupełnie innej ligi – nie można posądzać go o brak kompetencji czy niejasne motywy, jest szanowany przez ekspertów i laików. Jego wizje, w których pojawiają się maszyny niezależne od człowieka, są równie alarmujące: „Sztuczna superinteligencja będzie realizować swoje cele z porażającą skutecznością – jeśli nie będą one zgodne z naszymi celami, to mamy problem”. Wraz z tysiącami innych naukowców i prominentów Musk i Hawking podpisali się pod listem otwartym przedstawiającym potencjalne zagrożenia związane ze sztuczną inteligencją.

Pomimo wsparcia znanych osób, jak choćby współzałożyciel Apple’a Steve Wozniak czy aktor Morgan Freeman (lektor popularnych filmów z serii „Tajemnice wszechświata”), problem nie przebił się jednak do publicznej świadomości. „Największe zagrożenie ludzkości” nie budzi zbyt wielkiego zainteresowania mediów ani polityków. Postępy sztucznej inteligencji wciąż są bagatelizowane, a związane z nią ryzyko – wyśmiewane. Źródłem irytującej obojętności jest być może szeroko rozpowszechnione wyobrażenie osobliwości, jakie podziela również Ray Kurzweil.

Ten wynalazca i futurolog słynie z odważnych wypowiedzi: jego zdaniem człowiek i maszyna ręka w rękę zmierzają do wiecznej szczęśliwości. Każdy problem ludzkości zostanie rozwiązany, człowiek stanie się cyfrowy, śmierć przestanie nas ograniczać. Przede wszystkim koncept nieśmiertelności, trącący tanią metafizyką, budzi w krytykach skojarzenia z kazaniami szalonego guru uczącego swoich akolitów nabożnego szacunku dla techniki. Filozof Thomas Metzinger, który zna kilku takich cyfrowych hipisów, nie pozostawia na nich suchej nitki: „Wiele razy byłem w Kalifornii, zdarzyło mi się mieszkać tam przez rok. Ten cały kościół osobliwości i tak zwany transhumanizm to dla mnie stek bzdur”. Chcąc konkurować w walce o rząd dusz z tradycyjnymi religiami, te postnowoczesne ruchy muszą wykształcić równie silny model zaprzeczenia ludzkiej śmiertelności.

Zamiast nieba czy nirwany mamy tu cyfrowy zapis osobowości człowieka w formie awatara oraz digitalne duchy. Nawet gdyby wszystko to było możliwe z technicznego punktu widzenia, Metzinger nie dostrzega w tym sensu: „Brakuje temu filozoficznej głębi. Skoro nie istnieje materialna jaźń, to co mielibyśmy zapisywać? Nasze traumy z dzieciństwa, lęki, nerwice? Nasze cierpienie i żądze? Czemu miałoby to służyć? Ta forma transhumanizmu to jedynie produkt religiopodobny dla maniaków techniki – i nic więcej”. Kurzweil dostrzegł ten problem i obecnie zżyma się, kiedy ktoś mówi o nim „transhumanista”. Jak pisze w książce „Nadchodzi osobliwość”, chciałby być postrzegany przez pryzmat swoich tez dotyczących technologii, a nie ich pseudoreligijnych interpretacji. Mimo to często wielu odrzuca jego wywody jako ezoterykę, nie zagłębiając się w zawarte w nich prognozy i argumenty.

Jeśli Kurzweil wierzy w coś poza postępem technicznym, są to siły wolnego rynku, które jego zdaniem stale dążą do poprawy ludzkiego bytu. Thomas Metzinger uchodzi za jednego z najbardziej wpływowych przedstawicieli nurtu filozofii umysłu. Ten 58-latek bada ludzką świadomość i intensywnie zajmuje się sztuczną inteligencją. Jego krytyka transhumanizmu w żadnym razie nie jest przyzwoleniem na ignorowanie implikacji technologicznej osobliwości.

Strach jest złym doradcą

 

 

Czy powinniśmy obawiać się superinteligencji? „Tak, gdyż nie wiadomo, jakie będą jej cele i preferencje. Strach nie jest jednak dobrym doradcą – musimy podchodzić do sytuacji racjonalnie i bazować na dowodach. Chętnie porównuję to zagrożenie do koncentracji całej władzy finansowej w rękach jednego procenta najbogatszych ludzi: ostrzegano, nie słuchaliśmy, a dziś żaden rząd świata nie jest w stanie kontrolować kumulacji potężnego kapitału – przeciwnie, jest raczej na odwrót”. Zdaniem Metzingera istnieje ryzyko, że coś podobnego stanie się z „władzą kognitywną”, która może zostać skupiona poza ludzkością. Elon Musk pragnie wpłynąć na rozwój sztucznej inteligencji.

W tym celu wspólnie z innymi inwestorami założył OpenAI, spółkę użyteczności publicznej o charakterze start-upu. Ma ona przerodzić się w potężne centrum badawcze, którego prace będą udostępniane całej ludzkości. OpenAI ma już obiecane finansowanie w kwocie miliarda dolarów – i nie oczekuje się, że będzie przynosić zyski. Mimo wszystko Sam Altman, inwestor finansowy zasiadający w radzie nadzorczej, nie postrzega eksplozji inteligencji wyłącznie w ciemnych barwach: „Najprawdopodobniej sztuczna inteligencja doprowadzi do końca świata, ale najpierw nastąpi czas bajecznych interesów”. Czy sztuczną inteligencję w ogóle da się kontrolować? Technologiczna osobliwość przyniosłaby maszyny przewyższające ludzi pod każdym względem.

Nowy monopolista w branży inteligencji raczej nie pozwoliłby na to, żeby krępowały go prawa ułomnej ludzkości. Bożek sztucznej inteligencji Tym zagadnieniem zajmuje się szwajcarska Fundacja Efektywnego Altruizmu: „Z definicji superinteligencja nie może być głupia: gdyby pojawiło się ryzyko, że ktoś wyciągnie jej wtyczkę, początkowo zachowywałaby tak, jak oczekują tego jej twórcy – ale tylko do chwili, kiedy znalazłaby sposób na zminimalizowanie ryzyka niechcianego wyłączenia”. Fundacja opublikowała na swojej stronie (ea-stiftung.org, w języku niemieckim) dokument roboczy, który zawiera zalecenia dotyczące szans i zagrożeń związanych ze sztuczną inteligencją. W jego tworzeniu uczestniczył również Thomas Metzinger. Czy gdyby filozof mógł zapobiec osobliwości, zrobiłby to? „Tak”. Propozycje fundacji to larum, wzywające do nadania problemowi sztucznej inteligencji globalnego priorytetu. Twórcy dokumentu domagają się na przykład zwiększenia finansowania badań nad potencjalnymi zagrożeniami i metodami prewencji. Politycy powinni zaangażować większe zasoby w krytyczne, naukowo-etyczne kierowanie procesami postępu. Wytężona współpraca międzynarodowa miałaby pozwolić na uniknięcie technologicznego wyścigu zbrojeń.

Sztuczna inteligencja przynosi nowe zagadki

Obecna sytuacja przypomina nieco okoliczności wynalezienia broni jądrowej. Każdy z naukowców zaangażowanych w projekt Manhattan wiedział, jak niebezpieczna będzie bomba atomowa, ale nie powstrzymało to badań. Zawsze były powody, by je kontynuować, czy to ze względu na ponurą sytuację polityczną, czy z powodu małostkowej międzyludzkiej rywalizacji. W przypadku sztucznej inteligencji sytuację dodatkowo komplikuje to, że ani jej geneza, ani ostateczna forma nie daje się jednoznacznie opisać, lecz pozostaje zagadkowa.

Wielu sceptyków wskazuje na świadomość, która tworzy ludzki umysł i nigdy nie pokłoni się przed maszyną. Ale czy potężna maszyna myślą- ca koniecznie potrzebuje świadomości? „Tego nie wie nikt – nie mamy teorii świadomości” – mówi Thomas Metzinger. Rozważenie możliwości technologicznej apokalipsy, nawet przy jej niewielkim prawdopodobieństwie, nakazuje zdrowy rozsądek – w końcu na szali leży bardzo wiele. Poza tym już dzisiejsze systemy komputerowe stawiają przed programistami liczne wyzwania etyczne.

Na przykład wojsko: technika nie czyni wojny bardziej „ludzką”, a jedynie bardziej wydajną. Autonomiczne systemy broni, które zastąpią żołnierzy na polu walki, ułatwią swoim właścicielom podjęcie decyzji o rozpoczęciu konfliktu. Maszyny wykonują rozkazy ze stoickim spokojem i bez emocji. Doskonale radzą sobie w nieprzyjaznym otoczeniu i nie wymagają żołdu ani prowiantu. Roboty nigdy się nie męczą, są precyzyjne, nie znają lęku, skrupułów ani żałoby. Nie mają nerwicy ani żony czekającej w ojczyźnie, nie grozi im zespół stresu pourazowego. Nie kwestionują rozkazów i nie narzekają na dowódcę. To dobrze czy źle – i dla kogo?

A transport? W sytuacji nieuniknionego zderzenia autonomiczne samochody muszą podejmować decyzje obarczone dylematem moralnym. Ominąć starszą panią z demencją i staranować młodzieńca na rowerze? Jaka będzie decyzja, jeśli delikatna staruszka ma tylko 10 proc. szans na przeżycie wypadku, a silny młodzian aż 70 proc.? A co jeśli młodzian jest synem kierowcy?

Takie rozważania można snuć w nieskończoność. Być może – ale tylko być może – trzeba przeciąć ten moralny węzeł gordyjski: każdego dnia na polskich drogach ginie 9 osób. Autonomiczne samochody pozwolą znacznie obniżyć tę liczbę – trzeba więc pogodzić się z kilkoma tragicznymi zbiegami okoliczności. To jeszcze przykład z rynku pracy. Inteligentne maszyny coraz częściej odbierają ludziom miejsca pracy. Dawniej zagrożenie dotyczyło przede wszystkim zawodów wymagających siły i zdolności manualnych.

Dziś komputery pozbawiają zatrudnienia również osoby o wyższych kwalifikacjach, często wykonujące pracę umysłową. Poważne obawy o przyszłość mogą mieć na przykład radiolodzy, bo już dziś istnieją maszyny, które analizują wyniki badań obrazowych, dajmy na to tomografii komputerowej, szybciej, taniej, a do tego trafniej od wyspecjalizowanego lekarza. Badacze z Uniwersytetu Oxfordzkiego szacują, że w grupie wysokiego ryzyka dotyczącego zastąpienia żywego pracownika przez roboty w ciągu najbliższych kilku dekad jest 47 proc. amerykańskich miejsc pracy. Nie ma co się łudzić, że wszyscy zwolnieni ludzie znajdą zatrudnienie w nowych branżach. Na szczęściarzy posiadających pracę będą wywierane naciski, żeby zgadzali się na obniżki wynagrodzeń czy rezygnowali ze świadczeń w imię jak najdłuższego utrzymania konkurencyjności.

Praca to przeszłość

Zdaniem Federico Pistono ta równia pochyła prowadzi do systemowej rewolucji. W swojej książce „Robots Will Steal Your Job, But That’s OK” („Roboty ukradną Ci pracę, ale to jest OK”) Amerykanin pisze: „Trzeba wreszcie pożegnać się z utartym poglądem, że każdy musi zarabiać na chleb”. Pistono szuka sposobu, by jak najlepiej wykorzystać nadchodzący model społeczeństwa 99/1: skoro tylko jeden procent społeczeństwa zarabia dzięki swoim maszynom, pozostałym 99 proc. trzeba zapewnić godne życie, wprowadzając dochód podstawowy lub ujemne opodatkowanie. Izraelski historyk ewolucji Yuval Harari skonstatował w wywiadzie prasowym: „Nie możemy po prostu powiedzieć: dobrze, teraz maszyny wykonują również prace umysłowe, więc zajmiemy się czym innym – bo nie ma już nic innego”. Harari sądzi, że większość ludzi nie będzie już pracować, a jedynie konsumować: „To będzie nasze zajęcie. Stany Zjednoczone rozwijają się obecnie w kierunku tej idei, ale jest pewien problem: kłóci się ona z każdym modelem ekonomicznym znanym historii ludzkości. Potrzebujemy nowego modelu, który jeszcze nie istnieje”.

Człowiek do kasacji?

Ludzkość musi liczyć się z tym, że przyszłość przyniesie kolejne wyzwania tego typu. Jednakże zdaniem Thomasa Metzingera mogą one przesłaniać obraz prawdziwego konfliktu między człowiekiem a potężną sztuczną inteligencją: „Ryzyko jest realne i musimy podchodzić do niego racjonalnie. Zapewne jednak debata publiczna będzie się sprowadzała do hermetycznej rozrywki dla ludzi z bogatych krajów, dla których prawdziwe problemy są zbyt trudne. Takim prawdziwym problemem, z jakim przyjdzie ludzkości się zmierzyć, jest struktura naszych umysłów, funkcjonalna architektura mózgów. Trudności polityczne, społeczne i ekonomiczne są w stu procentach realne i istotne, ale to tylko powierzchniowe objawy naszej niezdolności do szybkiej zmiany własnej struktury intelektualnej”.

Wprawdzie krytyczne podejście do sztucznej inteligencji oraz środki prewencyjne są istotne, lecz jasne jest, że człowiek ją stworzy, a więc musi nauczyć się z nią żyć. Być może oznacza to, że jest mu pisana rola mało pojętnego ucznia czarnoksiężnika. Być może najwyższa maszyna przyniesie nam totalny upadek – będzie technologią, która wyśle model homo sapiens na cmentarz historii. Rozsądek – największa utopia Być może jednak będzie zupełnie inaczej. Nie potrzeba wielkich analiz, żeby dostrzec, że świat stworzony przez człowieka jest pod wieloma względami nieracjonalny. A więc całkiem prawdopodobne, że jeszcze przed powstaniem superinteligencji między ludzkością a ambitnymi maszynami myślącymi dojdzie do konfliktu na tle celów rozwoju.

Czy dzięki niemu mamy szansę zdobyć cenną wiedzę, która przyda się, żeby skierować sztuczną inteligencję na przewidywalne tory? „ Oczywiście. Sztuczne inteligencje mogą na przykład zgodnie z zasadami logiki i na podstawie dowodów wykazać, że na świecie będzie coraz mniej cierpienia i coraz więcej szczęścia, jeśli zdecydujemy się stopniowo oddawać w ich ręce naszą autonomię. Naukowo zademonstrują, że już niemal całkowicie utraciliśmy kontrolę nad naszą planetą – i przyjemnie przekonująco pokażą, jak to zmienić.” Jeśli nad całym światem zapanuje jedna sztuczna inteligencja, tzw. jedynak, to zagrożenie może się nie zmaterializować.

Metzinger uważa, że „ Ludzkość jako ograniczony zasób byłaby inaczej traktowana przez grupę jednostek konkurencyjnych względem siebie niż przez pojedynczą jednostkę. Dziś przecież sami niszczymy to, co pozostało z biosfery, bardziej intensywnie, bo konkurujemy ze sobą. Racjonalny rząd światowy nie postępowałby w ten sposób”. W chwili pojawienia się osobliwości sztuczna superinteligencja byłaby nieporównywalnie mądrzejsza od całej ludzkości. Dzięki niej można byłoby na przykład stworzyć bezpieczne, czyste i niewyczerpalne źródło energii albo ruszyć na podbój kosmosu. Są to jednak ludzkie plany, które prędzej czy później uda się zrealizować również bez sztucznej inteligencji. Powstanie wspomnianego wcześniej racjonalnego rządu światowego należy do najbardziej fantastycznych utopii. Niestety, projekt „Rozsądek” jest zbyt wymagający względem człowieka – chcąc doczekać jego realizacji, trzeba dać szansę sztucznej inteligencji. Sceptykom pozostaje szukać ukojenia w ludzkiej superinteligencji Alberta Einsteina: „Nigdy nie myślę o przyszłości – przychodzi dostatecznie szybko”.

| następny >

Zobacz także

Kategorie

© Copyright 1993-2013 Burda Communications Sp. z o.o.
Powered by Treehouse