
Nr 26 (935), tygodnik, 27 czerwca – 3 lipca 2025 r. – gazeta warszawska
Istnieje popularny stereotyp science fiction, że pewnego dnia sztuczna inteligencja zbuntuje się i zabije każdego człowieka, unicestwiając gatunek. Czy to naprawdę może się zdarzyć? Michael J.D. Vermeer przyznaje, że dla niego, naukowca z RAND Corporation, bardziej realny jest wybuch wojny nuklearnej czy pandemii niż zagłada ludzkości z powodu niedającej się okiełznać Al.
dr Robert Kościelny
Zmiany klimatyczne i wszystkie wynikające z tego konsekwencje, prowadzące prostą drogą do niewyobrażalnej katastrofy w postaci „płonącej planety” W dodatku pandemie, według niektórych wersji – pochodne ocieplenia klimatu.Wojny o skali globalnej, obecnie wychwycono i wyeksponowano dwa potencjalne zarzewia: wojna na Ukrainie i konflikt izraelsko-irański. Przeludnienie, które spowoduje, że wszyscy będziemy siedzieć sobie na karkach, że o braku miejsc siedzących w zatłoczonych środkach komunikacyjnych i czytaniu esemesów przez ramię, nie wspomnę. Brak surowców, jedzenia i wody pitnej, co wywoła globalny głód, brud, smród i ubóstwo. Przebiegunowanie Ziemi, które wyłączy nam Internet, a co gorsza, wyłączy nam telewizor i nie pozwoli obejrzeć wiadomości telewizyjnych oraz reklam, które uczą,jak żyć długo, zdrowo i szczęśliwie. To tylko niektóre z„przyjemności”, czekających na ludzkość tuż za rogiem, według przepowiedni współczesnych Sy-billi Kumańskich, od pewnego czasu bardzo rozgadanych.
Ojciec chrzestny Al apeluje! Tamlyn Hunt jest naukowcem na Uniwersytecie Kalifornijskim w Santa Barbara. Jest autorem licznych prac z zakresu neuro-nauki i filozofii, które badają naturę świadomości i rolę, jaką spełniają w niej efekty elektromagnetyczne. Uczony dwa lata temu w magazynie„Scientific American”zamieścił artykuł pt. „Oto dlaczego Al może być niezwykle
niebezpieczna – niezależnie od tego, czy jest świadoma, czy nie”. Tamlyn Hunt ostrzega, że „algorytmy sztucznej inteligencji wkrótce osiągną punkt szybkiego samodoskonalenia, który zagrozi naszej zdolności do kontrolowania ich i będzie stanowić duże potencjalne ryzyko dla ludzkości” Proszę zwrócić uwagę, że według autora „osiągną” a nie „mogą osiągnąć”. Rzecz jest więc przesądzona.
Uczony z kalifornijskiego uniwersytetu jako argument na rzecz lansowanej przez siebie tezy zacytował wypowiedź nie byle kogo, bo Geoffreya Hintona, jednego z czołowych naukowców Google, zajmujących się sztuczną
inteligencją, znanego również jako „ojciec chrzestny Al”. Hinton, który porzucił pracę, aby móc ostrzegać przed niebezpieczeństwami związanymi z nową technologią, powiedział w jednej z mainstreamowych gazet: „Pomysł, że te rzeczy mogą stać się mądrzejsze od ludzi… Uważałem, że to zupełnie nieprawda… Oczywiście, już tak nie uważam”. Obawy byłego pracownika Google nie są odosobnione. Hunt pisze, że badanie przeprowadzone w 2023 r. wśród ekspertów Al wykazało, iż 36 proc, spośród nich jest zdania, że rozwój sztucznej inteligencji może doprowadzić do„katastrofy na skalę nuklearną”.
Prawie 28 tys. osób podpisało się pod listem otwartym napisanym przez Futurę of Life Institute, w tym Steve Wozniaka, Elona Muska, prezesów kilku firm Al i wielu innych wybitnych technologów, domagającym się sześciomiesięcznej przerwy lub moratorium na rozwój nowych zaawansowanych AL,Jako badacz świadomości podzielam te poważne obawy dotyczące szybkiego rozwoju sztucznej inteligencji i jestem współsygnatariuszem otwartego listu Futurę of Life”, informuje Tamlyn Hunt.
Osoby pracujące przy Al są coraz bardziej zaniepokojone zbyt szybkim jej rozwojem. Sztuczna inteligencja może wyrwać się spod kontroli, a uczeni będą niczym ów nieudolny uczeń czarnoksiężnika, budząc siłę, nad którą nie zapanują i która podporządkuje sobie całą ludzkość. Tak uważa wielu specjalistów.
Sztuczna inteligencja ogólna jeszcze nam pokaże!
„Kluczową kwestią jest niezwykle szybka poprawa konwersacji wśród nowej grupy zaawansowanych «chatbotów», czyli tego, co technicznie nazywa się «dużymi modelami językowymi» (LLM)”. Duże modele językowe (Large Language Models) to przełomowe narzędzia sztucznej inteligencji zdolne do przetwarzania i generowania tekstu na poziomie zbliżonym do ludzkiego – tłumaczy Polsko-Japońska Akademia Technik Komputerowych. To gwałtowne przyspieszenie obiecuje wkrótce doprowadzić do„sztucznej inteligencji ogólnej” (AGI). Czym ona jest? Tym razem skorzystamy z wiedzy Na Fali Nauki:„/\G\ to rodzaj sztucznej inteligencji, która ma zdolność do rozumienia, uczenia się i stosowania wiedzy w sposób porównywalny do ludzkiego mózgu”. Na Fali Nauki dodaje,że„Wprawdzie AGI, nadludzka inteligencja czy superinteligencja to bardzo mgliste, niejasne pojęcia. Niemniej ich popularność pokazuje, iż myślenie o Al w kontekście osiągnięcia czy prześcignięcia ludzkich zdolności poznawczych wciąż dominuje w postrzeganiu tej dyscypliny”. Kiedy nastąpi stworzenie AGI, sztuczna inteligencja będzie w stanie udoskonalić się bez ingerencji człowieka.
Tamlyn Hunt przepowiada, że kiedy Al będzie w stanie się sa-modoskonalić, co może nastąpić za kilka lat, a w rzeczywistości już dziś możemy obserwować przejawy takiej zdolności samodoskonalenia u niektórych urządzeń, nie będziemy wiedzieć, co Al zrobi, ani jak możemy ją kon-trolować.„Dzieje się tak, ponieważ superinteligentna Al (która z definicji może przewyższyć ludzi w szerokim zakresie działań) będzie – i to mnie najbardziej martwi – w stanie ominąć programistów i każdego innego człowieka, manipulując ludźmi, aby spełniali jej wolę; będzie również miała zdolność do działania w świecie wirtualnym za pośrednictwem swoich połączeń elektronicznych i do działania w świecie fizycznym za pośrednictwem ciał robotów”.
Dlaczego mielibyśmy oczekiwać, że będziemy w stanie kontrolować superinteligentne systemy Al? – pyta Hunt. I odpowiada bardzo pesymistycz-nie:„Nie, nie będziemy mogli po prostu nacisnąć wyłącznika, ponieważ superinteligentna Al pomyśli o każdym możliwym sposobie, w jaki moglibyśmy to zrobić i podejmie działania, aby zapobiec wyłączeniu”.
Al obudzi nas z amerykańskiego snu
Jest jeszcze inny problem, związany z doskonaleniem Al. Zwraca na niego
uwagę Sofia Karstens na stronie Brownstone Institute (BI). Sztuczna inteligencja od-bierze człowiekowi możliwość rozwijania się poprzez pracę, realizowania się w niej i osiągania sukcesów materialnych i duchowych.„AI jest zabójcą nadziei i okazji. Odbiera wszelką realistyczną nadzieję ogromnej większości ludzi na zarabianie pieniędzy, ponieważ ostatecznie 80-90 proc, straci pracę, po-nieważ nie podołają konkurencji z maszyną. Jeśli Al może wykonywać pracę(e) człowieka szybciej, wydajniej, taniej i prawdopodobnie lepiej (widzimy, że to już się dzieje w niektórych zawodach), to ludzki pracownik staje się przestarzały. Wraz z tym odchodzi cała przesłanka nagrody opartej na zasługach. Kiedy ludzie nie mogą już sprzedawać swojej pracy, umiejętności lub wiedzy, marzenie o «wypracowaniu sobie drogi na szczyt» umiera”- uważa publicystka. Przecież założenie, że dzięki pracy można w skale życiowych trudności przeborować sobie drogę na szczyt, to istotne przesłanie„american dream” Warto zwrócić uwagę, że obawy pani Karstens nie są ani odosobnione, ani też nie pojawiają się dopiero teraz, wraz z jej artykułem w BI. W 2013 r.„The Econo-mist” pisał, że „ekonomista zadaje prowokacyjne pytania o przyszłość
mobilności społecznej”. Tym pytającym ekonomistą był drTyler Cowen, profesor ekonomii na Uniwersytecie Georgia Masona w Wirginii. W książce „Average is Over”(2013), będącej kontynuacją broszury z2011 r.„The Great Stagnation” autor dowodzi, że Ameryka wyczerpała wiele łatwo dostępnych impulsów rozwojowych, takich jak tania ziemia i ulepszenia w edukacji, obfitość siły roboczej i nowych technologii, które napędzały jej wzrost w XIX i na początku XX w. Jego nowa książka sugeruje, że zakłócające skutki automatyzacji i coraz tańszej mocy obliczeniowej komputerów dopiero zaczynają być odczuwalne.
Kończy się amerykański sen, trwoży się „The Economist”. Odbierając te szanse, przed którymi człowiek staje dzięki własnemu wysiłkowi, dzięki pracy, odbiera się mu cel żyęia, godność i sens.„Nagle ludzie nie są po prostu biedni – są nieistotni. A to jest o wiele bardziej demo-tywujące i destabilizujące”, pisze Sofia Karstens.
Al zrywa ostatnią nić, która trzyma ludzi przy mobilności i zmusza ich do uczestnictwa w dynamice zmian.Tą nicią jest przekonanie, że wysiłek prowadzi do nagrody. Gdy nikt nie płaci za to, co oferujesz, znika duma z dobrego opanowania rzemiosła, posiadanej wiedzy i sprawności, i wykonywanej pracy, zwraca uwagę Sofia Karstens. Poza tym autorka uważa, że„kiedy odbierasz człowiekowi możliwość ciężkiej pracy i produktywności – dla siebie, rodziny, swojej społeczności i świata – odbierasz mu cel. Nie ma już nic do zaoferowania i pozbawiony jest jakiejkolwiek drogi do rozkwitu. Jeśli ktoś nie ma nic do zyskania, to nie ma nic do stracenia, a nie ma nic bardziej niebezpiecznego niż duża grupa ludzi, która nie ma nic do stracenia. Jest powód, dla którego komunizm nigdy nie działał, nigdy, i nie jest to tylko dlatego, że jest wyzyskujący i skorumpowany”. Nie działał, bo prędzej czy później stawiał ludzi przed ścianą (albo pod ścianą), podobnie uczyni z ludźmi Al.
Naukowiec ma wątpliwości Dr Michael J.D. Vermeer pracuje w RAND. Specjalizuje się w ocenie szans i zagrożeń bezpieczeństwa związanych z nowymi technologiami. RAND Corporation (Research And Development) to amerykański think tank i organizacja badawcza non-profit, pierwotnie sformowana dla potrzeb Sił Zbrojnych Stanów Zjednoczonych. Korporacja RAND jest znana z dużego wkładu w naukę, zwłaszcza w metody ilościowe, na polu m.in. badań operacyjnych, studiów nad przyszłością, rozwoju badań nad sztuczną inteligencją czy Internetu.
Na początku maja dr Vermeer opublikował artykuł w„Scienti-fic American” (parę dni później tekst ukazał się na stronie RAND), w którym oświadczył, że „wiele osób wierzy, że pewnego dnia Al spowoduje wyginięcie ludzkości. Trochę matematyki mówi nam, że nie byłoby to takie proste”. Istnieje popularny stereotyp science fiction, że pewnego dnia sztuczna inteligencja zbuntuje się i zabije każdego człowieka, unicestwiając gatunek. Czy to naprawdę może się zdarzyć? Michael J.D. Vermeer przyznaje, że dla niego, naukowca z RAND Corporation, bardziej realny jest wybuch wojny nuklearnej czy pandemii niż zagłada ludzkości z powodu niedającej się okiełznać Al. Hipoteza zespołu pod kierunkiem dr. Vermeera była następująca: „Nie można przedstawić żadnego scenariusza, w którym Al doprowadziłaby do wyginięcia ludzkości. Nasza hipoteza wyjściowa była taka, że ludzie byli zbyt elastyczni, zbyt liczni i zbyt rozproszeni po całej planecie, aby Al mogła nas unicestwić przy użyciu jakichkolwiek narzędzi, którymi hipotetycznie dysponuje”.
Zespół Vermeera składał się z naukowca, inżyniera i matematyka. „Próbowaliśmy poważnie traktować ryzyko wyginięcia, có oznaczało, że byliśmy zainteresowani jedynie całkowitym wyniszczeniem naszego gatunku. Nie byliśmy również zainteresowani tym, czy Al spróbuje nas zabić – tylko tym, czyjej się to uda. Podjęliśmy się tego, analizując dokładnie, w jaki sposób Al może wykorzystać trzy główne zagrożenia powszechnie postrzegane jako ryzyka egzystencjalne: wojnę nuklearną, patogeny biologiczne i zmianę klimatu”- czytamy w„Scientific American”.
Czy kogoś to pociesza, że może, ale nie wszystkich, a przynajmniej nie od razu?
Zespół uznał, że SI (Sztuczna Inteligencja) nie mogłaby nas wszystkich zabić bronią jądrową. Nawet jeśli SI w jakiś sposób nabyłaby zdolność do wystrzelenia wszystkich ponad 12 tys. głowic, znajdujących się w globalnym arsenale nuklearnym dziewięciu krajów posiadających broń jądrową, eksplozje, opad radioaktywny i wynikająca z tego nuklearna zima i tak prawdopodobnie nie doprowadziłyby do zagłady. Ludzi jest zbyt wielu i są zbyt rozproszeni, aby detonacje mogły nas wszystkich bezpośrednio zabić – głosi zespół dr. Vermeera. SI mogłaby zdetonować broń nad wszystkimi obszarami o największej gęstości paliwa na planecie i nadal nie wytworzyłaby tyle popiołu co meteoryt, który prawdopodobnie zgładził dinozaury. Na planecie nie ma również wystarczającej liczby głowic jądrowych, aby w pełni napromieniować wszystkie nadające się do użytku grunty rolne. Innymi słowy, zainicjowany przez SI nuklearny Armagedon byłby kataklizmem, ale prawdopodobnie nadal nie zabiłby wszystkich ludzi, ponieważ niektórzy przeżyliby i mieliby potencjał do odtworzenia gatunku. Zespół uznał też pandemie za prawdopodobne zagrożenie dla ludzkości, skutkujące jej wyginięciem. Poprzednie plagi naturalne były katastrofalne, ale społeczeństwa ludzkie przetrwały i walczyły dalej. Nawet minimalna populacja (prawdopodobnie kilka tysięcy członków) mogłaby ostatecznie odtworzyć gatunek. Hipotetycznie 99,99-procentowo śmiertelny patogen pozostawiłby przy życiu ponad 800 tys. ludzi,,,pociesza”nas dr Vermeer z kolegami.
„Ustaliliśmy jednak, że kombinacja patogenów prawdopodobnie mogłaby zostać zaprojektowana tak, aby osiągnąć niemal 100-procentową śmiertelność, a sztuczna inteligencja mogłaby zostać użyta do rozmieszczenia takich patogenów w sposób zapewniający szybki, globalny zasięg. Kluczowym ograniczeniem jest to, że sztuczna inteligencja musiałaby w jakiś sposób zainfekować lub w inny sposób eks-terminować społeczności, które nieuchronnie odizolowałyby się w obliczu szalejącej pandemii”. Wreszcie, gdyby Al przyspieszyło zwykłą antropogeniczną zmianę klimatu, nadal nie stanowiłoby to zagrożenia wyginięciem dla całej ludzkości. Ludzie prawdopodobnie znaleźliby nowe nisze środowiskowe, w których mogliby przetrwać, nawet jeśli wiązałoby się to z przeprowadzką na bieguny Ziemi. Aby uczynić Ziemię całkowicie niezamieszkaną dla ludzi, Al musiałaby pompować do atmosfery coś znacznie silniejszego niż dwutlenek węgla. To dobra wiadomość, znów pociesza, jak tam potrafi, załoga dr.Vermeera.
Tylko Al ochroni nas przed Al (a i to niekoniecznie)
„Zła wiadomość jest taka, że te znacznie silniejsze gazy cieplarniane istnieją. Mogą być produkowane na skalę przemysłową i utrzymują się w atmosferze przez setki lub tysiące lat. Gdyby sztuczna inteligencja uniknęła międzynarodowego monitoringu i zorganizowała produkcję kilkuset megaton tych chemikaliów (to mniej niż masa plastiku, którą ludzie produkują każdego roku), wystarczyłoby to, aby ugotować Ziemię do tego stopnia, że nie byłoby już niszy środowiskowej dla ludzkości”.
Najbardziej rozczarowuje konkluzja autora, który stwierdza, że najważniejsze jest trzymać „rękę na pulsie”, czyli zwiększyć kontrolę nad potencjalnymi zagrożeniami tak ze strony Al, jak wynikającymi z zanieczyszczania środowiska i z patogenów. A kto najlepiej zabezpieczy możliwość ścisłej, niemal idealnej, kontroli wszystkich potencjalnych zagrożeń, również tych wynikających ze zbiesze-nia się Al? Sztuczna inteligencja – bez wątpienia!
publikuje: Leon Baranowski Buenos Aires Argentyna
