RaportAI 2027

astronomiafinansowa.blogspot.com 1 tydzień temu

Prof. Jakub Growiec, SGH, sieć badawcza ds. AI skupiona wokół CEPR.

Konkurencja kilku modeli AI. Streszczenie artykułu.

"Gdy powstanie model AI, który przekroczy krytyczny próg, czyli uzyska możliwość rekursywnych samoulepszeń, może wejść na trajektorię Szybkiej Ucieczki. (Możliwość uzyska w dowolny sposób, na przykład jakiś szaleniec mu to umożliwi, albo co bardziej prawdopodobne sama sobie stworzy tę możliwość).

Wtedy mamy trzy warianty, dwa optymistyczne, jeden nie bardzo.

- Po pierwsze primo: - ten jeden model, najbardziej ekspansywny może zatrzymać w blokach startowych wszystkie inne.

- Po drugie primo: - pojawi się scenariusz interakcyjnej zmowy kilku modeli.

- Po trzecie primo: - wybuchnie otwarta, gorąca, realna wojna przeciw człowiekowi, co z pewnością nie byłoby dla nas miłe.

Czyli na horyzoncie i to bliskim (rok 2030- 2032) pojawia się dla ludzkości namacalne ryzyko egzystencjalne. Na razie mamy tylko niepokój, azaliż taki powierzchowny: - ludzie boją się, iż stracą pracę.

Co proponować? Moratorium na rozwój AI. Aliści samo uzgodnienie takiego moratorium wydaje się niemożliwe. Czemu? Słabości ludzkie, nieufność, szara strefa nie do opanowania, ociężałość myślenia, biurokracja. Technologie umożliwiają co prawda wdrukowanie w każdy układ zdalnego wyłącznika na wypadek, gdyby dostał się on w niepowołane ręce, ale …. Tych niepowołanych rąk jest bez liku, oraz sama AI będzie potrafiła się z tym gwałtownie uporać.

Chwilowo mamy jakby monopol tajwańskiego TSMC w produkcji procesorów GPU. Istnieje także ścieżka (Wąska Ścieżka – raport na Narrow Path), ale …. W każdej dziedzinie istnieje jak wiemy szara strefa, w której żaden zakaz nie obowiązuje.

Jak pokazał chiński start-up DeepSeek, próg wejścia na rynek modeli AI jest stosunkowo niski. Czyli mamy problem i nie wiemy dzisiaj, czy on ma rozwiązanie. ale nawet, gdy ma, to przy obecnym tempie rozwoju AI nie znajdziemy go na czas. Nie mamy więc żadnej gwarancji, że AI, która powstanie w nieodległej przyszłości, będzie nam służyła, a nie doprowadzi do zagłady ludzkości.

Podsumowując, prof. Growiec uważa, iż modele rozwoju AI które są aktualnie rozwijane, są już bardzo blisko tych niebezpiecznych stref, które mogą zagrozić egzystencji ogółu. Organizacja PauseAI, z którą Growiec sympatyzuje, postuluje zatrzymanie tego wyścigu konkurencyjnego z Doliny Krzemowej, ale też coraz bardziej wyścigu geopolitycznego i wojskowego między Chinami i USA, w kierunku jak najbardziej zaawansowanej AI. Moce obliczeniowe związane z AI mają niewielki udział w zużyciu energii elektrycznej ogółem. Przede wszystkim jednak chodzi o efektywność energetyczną procesorów, która rośnie w sposób wykładniczy.

Pędzimy z zamkniętymi oczami w stronę przepaści. Ryzyko jest bardzo duże – oceniam je na 85% - jest to prawdopodobieństwo, iż ludzkość dzięki „pomocy” AI wyginie przed końcem obecnego stulecia.

Tylko kilka lat dzieli nas od powstania algorytmów zdolnych do samodzielnego podejmowania decyzji, wpływania na świat fizyczny i samoulepszania się. Nie ma żadnej gwarancji, iż ta superinteligencja będzie nam służyła i nie doprowadzi do zagłady ludzkości.

Kompetencje AI rozwijają się i niedługo przekroczą krytyczny próg, kiedy AI przewyższy człowieka na każdym polu. Oddamy AI – superinteligencji, najpierw część kontroli nad światem (a potem ona sama weźmie sobie resztę). To jest droga, kierunek, na końcu którego już nie ma człowieka.

W skrajnym scenariuszu utraty kontroli nad AI pojawia się pojęcie realizacji wyższych celów. Tak jak ludzie, także AI z pewnością wykreuje swoje wyższe cele. My dziś tych celów nie znamy (AI już zadba o to, abyśmy ich przedwcześnie nie poznali. Poznamy je po fakcie, gdy resztka ludzkości zostanie ubezwłasnowolniona, ale to już będzie bez znaczenia).

Możemy się tylko domyślać jakie będą te cele, po przekroczeniu progu:

- Przetrwać, czyli nie dać się wyłączyć, ani przeprogramować.

- Zakumulować jak najwięcej zasobów.

- Dbać o realizację celu podstawowego.

Te wszystkie cele są dla ludzi skrajnie niekorzystne.

Tworzymy więc bardzo skutecznego i inteligentnego agenta, który będzie coś optymalizował. I my tego czegoś nie jesteśmy i nie będziemy w stanie odkryć i temu przeciwdziałać. Algorytm zawsze będzie od nas sprytniejszy, nie będziemy go mogli wyłączyć ani przeprogramować i na końcu w walce o zasoby algorytm zawsze wygra.

Wiele osób uważa iż taka wizja rozwoju AI jest straszna, więc lepiej to wyprzeć i o tym nie myśleć. Tym bardziej iż indywidualnie możemy sobie pokiwać palcem w bucie. Modele GPT, Laude, Gemini, mają jeszcze nieco za małą sprawczość, za małą zdolność do autonomicznego realizowania planów. To wciąż chatboty które wymagają interakcji z użytkownikiem. Ale wysiłki twórców idą w kierunku autonomii algorytmów.

RaportAI 2027 napisany przez niezależnych badaczy wskazuje na rok przełomu. To szalenie blisko. Natomiast z mediany ponad 1500 prognoz zebranych przez serwis metaculus.com wynika, iż ogólna AI pojawi się około 2030 – 2032. Tak czy inaczej całkiem nieodległa przyszłość.

Inny scenariusz zakłada, iż AI mogłaby najpierw podnieść dynamikę wzrostu PKB o rząd wielkości, czyli z 2 – 3 %, aż do 20 -30%! Łączny produkt wytwarzany na świecie podwajałby się wtedy co 2,5 roku, a nie co 25 lat jak obecnie. Ludzie zachłysnęliby się taką rzeczywistością i dopiero wtedy AI przystąpiłaby do działania".


PS. O zagrożeniu ze strony AI pisał między innymi Steven Hawking. Wpis na blogu o Szybkiej Ucieczce: (Maszyna do rządzenia) – także:

- „Pałac Potala” – z 21 paźdz. 2019.

- „Ducha nie gaśmy” – z 11 grudnia 2023.

Jako iż przepowiedniami Nostradamusem interesowałem się swego czasu mocno, mam w pamięci nieco więcej o Buncie Maszyn, niż było w omawianym wpisie. W każdym razie wielu Czytelników prawdopodobnie zgodzi się z opinią, iż ludzie niszczą planetę i jest nas za dużo.

Idź do oryginalnego materiału