Prof. Jakub Growiec, SGH, sieć
badawcza ds. AI skupiona wokół CEPR.
Konkurencja kilku modeli AI. Streszczenie artykułu.
"Gdy powstanie model AI, który przekroczy krytyczny próg, czyli uzyska
możliwość rekursywnych samoulepszeń, może wejść na trajektorię Szybkiej Ucieczki. (Możliwość uzyska w
dowolny sposób, na przykład jakiś szaleniec mu to umożliwi, albo co bardziej
prawdopodobne sama sobie stworzy tę możliwość).
Wtedy mamy trzy warianty, dwa optymistyczne, jeden nie bardzo.
- Po pierwsze primo: - ten jeden
model, najbardziej ekspansywny może zatrzymać w blokach startowych wszystkie
inne.
- Po drugie primo: - pojawi się
scenariusz interakcyjnej zmowy kilku modeli.
- Po trzecie primo: - wybuchnie
otwarta, gorąca, realna wojna przeciw człowiekowi, co z pewnością nie byłoby dla
nas miłe.
Czyli na horyzoncie i to bliskim (rok 2030- 2032) pojawia się dla ludzkości
namacalne ryzyko egzystencjalne. Na razie mamy tylko niepokój, azaliż taki
powierzchowny: - ludzie boją się, iż stracą pracę.
Co proponować? Moratorium na rozwój AI. Aliści samo uzgodnienie takiego
moratorium wydaje się niemożliwe. Czemu? Słabości ludzkie, nieufność, szara
strefa nie do opanowania, ociężałość myślenia, biurokracja. Technologie
umożliwiają co prawda wdrukowanie w każdy układ zdalnego wyłącznika na wypadek,
gdyby dostał się on w niepowołane ręce, ale …. Tych niepowołanych rąk jest bez
liku, oraz sama AI będzie potrafiła się z tym gwałtownie uporać.
Chwilowo mamy jakby monopol tajwańskiego TSMC w produkcji procesorów GPU.
Istnieje także ścieżka (Wąska Ścieżka –
raport na Narrow Path), ale …. W każdej dziedzinie istnieje jak wiemy szara
strefa, w której żaden zakaz nie obowiązuje.
Jak pokazał chiński start-up DeepSeek,
próg wejścia na rynek modeli AI jest stosunkowo niski. Czyli mamy problem i nie
wiemy dzisiaj, czy on ma rozwiązanie. ale nawet, gdy ma, to przy obecnym
tempie rozwoju AI nie znajdziemy go na czas. Nie mamy więc żadnej gwarancji, że
AI, która powstanie w nieodległej przyszłości, będzie nam służyła, a nie
doprowadzi do zagłady ludzkości.
Podsumowując, prof. Growiec
uważa, iż modele rozwoju AI które są aktualnie rozwijane, są już bardzo blisko
tych niebezpiecznych stref, które mogą zagrozić egzystencji ogółu. Organizacja PauseAI, z którą Growiec sympatyzuje, postuluje
zatrzymanie tego wyścigu konkurencyjnego z Doliny
Krzemowej, ale też coraz bardziej wyścigu geopolitycznego i wojskowego
między Chinami i USA, w kierunku jak
najbardziej zaawansowanej AI. Moce obliczeniowe związane z AI mają niewielki
udział w zużyciu energii elektrycznej ogółem. Przede wszystkim jednak chodzi o
efektywność energetyczną procesorów, która rośnie w sposób wykładniczy.
Pędzimy z zamkniętymi oczami w stronę przepaści. Ryzyko jest bardzo duże –
oceniam je na 85% - jest to prawdopodobieństwo, iż ludzkość dzięki „pomocy” AI
wyginie przed końcem obecnego stulecia.
Tylko kilka lat dzieli nas od powstania algorytmów zdolnych do
samodzielnego podejmowania decyzji, wpływania na świat fizyczny i
samoulepszania się. Nie ma żadnej gwarancji, iż ta superinteligencja będzie nam
służyła i nie doprowadzi do zagłady ludzkości.
Kompetencje AI rozwijają się i niedługo przekroczą krytyczny próg, kiedy AI
przewyższy człowieka na każdym polu. Oddamy AI – superinteligencji, najpierw
część kontroli nad światem (a potem ona sama weźmie sobie resztę). To jest
droga, kierunek, na końcu którego już nie ma człowieka.
W skrajnym scenariuszu utraty kontroli nad AI pojawia się pojęcie
realizacji wyższych celów. Tak jak ludzie, także AI z pewnością wykreuje swoje
wyższe cele. My dziś tych celów nie znamy (AI już zadba o to, abyśmy ich
przedwcześnie nie poznali. Poznamy je po fakcie, gdy resztka ludzkości zostanie
ubezwłasnowolniona, ale to już będzie bez znaczenia).
Możemy się tylko domyślać jakie będą te cele, po przekroczeniu progu:
- Przetrwać, czyli nie dać się
wyłączyć, ani przeprogramować.
- Zakumulować jak najwięcej
zasobów.
- Dbać o realizację celu
podstawowego.
Te wszystkie cele są dla ludzi skrajnie niekorzystne.
Tworzymy więc bardzo skutecznego i inteligentnego agenta, który będzie coś
optymalizował. I my tego czegoś nie jesteśmy i nie będziemy w stanie odkryć i
temu przeciwdziałać. Algorytm zawsze będzie od nas sprytniejszy, nie będziemy
go mogli wyłączyć ani przeprogramować i na końcu w walce o zasoby algorytm
zawsze wygra.
Wiele osób uważa iż taka wizja rozwoju AI jest straszna, więc lepiej to
wyprzeć i o tym nie myśleć. Tym bardziej iż indywidualnie możemy sobie pokiwać
palcem w bucie. Modele GPT, Laude, Gemini,
mają jeszcze nieco za małą sprawczość, za małą zdolność do autonomicznego
realizowania planów. To wciąż chatboty które
wymagają interakcji z użytkownikiem. Ale wysiłki twórców idą w kierunkuautonomii algorytmów.
RaportAI 2027 napisany przez niezależnych badaczy wskazuje na rok przełomu. To szalenie
blisko. Natomiast z mediany ponad 1500 prognoz zebranych przez serwis metaculus.com wynika, iż ogólna AI
pojawi się około 2030 – 2032. Tak czy inaczej całkiem nieodległa przyszłość.
Inny scenariusz zakłada, iż AI mogłaby najpierw podnieść dynamikę wzrostu
PKB o rząd wielkości, czyli z 2 – 3 %, aż do 20 -30%! Łączny produkt wytwarzany
na świecie podwajałby się wtedy co 2,5 roku, a nie co 25 lat jak obecnie.
Ludzie zachłysnęliby się taką rzeczywistością i dopiero wtedy AI przystąpiłaby
do działania".
PS. O zagrożeniu ze strony AI pisał między innymi Steven
Hawking. Wpis na blogu o Szybkiej
Ucieczce: (Maszyna do rządzenia)
– także:
- „Pałac Potala” – z 21 paźdz. 2019.
- „Ducha nie gaśmy” – z 11 grudnia 2023.
Jako iż przepowiedniami Nostradamusem interesowałem się swego czasu mocno, mam w pamięci
nieco więcej o Buncie Maszyn, niż
było w omawianym wpisie. W każdym razie wielu Czytelników prawdopodobnie zgodzi
się z opinią, iż ludzie niszczą planetę i jest nas za dużo.