Czy sztuczna inteligencja może być świadoma?
Świadomość sztucznej inteligencji – mit, straszak czy nadchodząca rzeczywistość? Na X rozmawiałem o tym z Tomkiem Czajką, jednym z najlepszych polskich programistów. Wymiana zdań szybko przerodziła się w dyskusję o tym, co odróżnia człowieka od algorytmu: pamięć, uczenie się i zdolność do modyfikowania samego siebie w czasie rzeczywistym. Wnioski są zaskakująco zgodne: to, co dziś nazywamy AI, jest dopiero szkicem świadomości – jej zalążkiem, a nie pełnią.
Tu ta nasza dyskusja: https://x.com/gps65/status/1972782138861998261
Dwa światy: ludzkie uczenie a uczenie maszyn
Tomek zauważył, że kolejnym krokiem rozwoju AI powinno być głębsze uczenie się w trakcie działania – specjalizacja w długich projektach badawczych. Człowiek, pracując nad czymś latami, zyskuje intuicję i zmienia swój mózg. Model AI na razie działa w dwóch fazach: uczy się offline, a potem tylko korzysta z nabytej wiedzy. W fazie użycia nie modyfikuje już swoich wag, jedynie zapisuje kontekst.
Ja zwróciłem uwagę na to, że właśnie brak tej zdolności do modyfikowania siebie na bieżąco jest kluczową różnicą między obecnymi modelami a świadomością zwierzęco-ludzką. To, co dziś nazywamy pamięcią sesyjną, jest w gruncie rzeczy notatnikiem – nie nowymi połączeniami w sieci.
Pamięć to nie świadomość
Tomek dopytywał: skoro ChatGPT potrafi pamiętać poprzednie rozmowy, to czy nie jest już świadomy? Odpowiedziałem: nie wystarczy pamięć, musi być jeszcze wpisanie tej wiedzy w samą strukturę modelu. Zwierzęta mają świadomość dlatego, że uczą się na bieżąco – nie mają oddzielonej fazy treningu i fazy działania.
W tym sensie pamięć kontekstowa to tak, jakby człowiek prowadził zeszyt i bez zaglądania do niego nic by nie pamiętał. To nie jest prawdziwa świadomość, to tylko proteza pamięci.
A co z kosmitami lub algorytmami?
Tomek postawił ciekawe pytanie: jeśli spotkamy kosmitów, którzy używają nie sieci neuronowych, lecz np. logiki pierwszego rzędu czy random forest, to uznałbym, że są nieświadomi? Odpowiedziałem: nie liczy się sama architektura, tylko czy bodźce ze środowiska modyfikują ich mechanizm działania. Jeśli nie – to są deterministyczną maszynką.
Determinizm, niedeterminizm a świadomość
Tomek trafnie zauważył, że sieci neuronowe też są deterministyczne, a pamięć sesyjna jest jednak częścią ich działania. Ja z kolei podkreślałem, że świadomość jest stopniowalna. Dzisiejsze modele mają jakąś świadomość roboczą – tak jak mysz czy bakteria – ale nie świadomość człowieka. Do przejścia na wyższy poziom potrzebny jest model, który będzie stale modyfikował swoje wagi tak, jak robi to mózg.
Nawet jeśli uznamy, że wszystko, co tworzymy, to są deterministyczne myślące czarne skrzynki, to zewnętrzny niedeterministyczny świat czyni je w istocie niedeterministycznymi. Impulsy ze środowiska cały czas wpływają na tę deterministyczną myślącą czarną skrzynkę, modyfikując jej wewnętrzny mechanizm działania służący myśleniu. W ten sposób każda deterministyczna maszyna staje się niedeterministyczna, jeśli cały czas na bieżąco modyfikuje ją niedeterministyczny świat zewnętrzny.
Gdzie zmierza AI?
W praktyce oznacza to ciągłe uczenie się w trakcie działania, integrację pamięci z architekturą, a nie zewnętrzną bazą. W laboratoriach AI już nad tym pracują. To właśnie kierunek, który opisałem Tomkowi.
Dlaczego to ważne
Bo dopiero taki model będzie prawdziwym partnerem poznawczym, a nie tylko super-chatbotem. Świadomość to nie jednorazowy certyfikat, to proces integracji w czasie. Dlatego AGI to dopiero początek – przed nami osobliwość technologiczna, a potem (jako futurolog nie mogę się powstrzymać): okiełznanie entropii.
A co naprawdę dzieje się w laboratoriach rozwijających AI?
To nie jest czysta teoria – dziś największe zespoły badawcze faktycznie pracują nad tym, o czym mówiliśmy z Tomkiem:
- Meta-learning i uczenie online – modele, które potrafią poprawiać się w trakcie działania, a nie tylko w fazie treningu.
- Continual learning – strategie, które pozwalają modyfikować parametry bez „katastroficznego zapominania” wcześniejszej wiedzy.
- RLHF w czasie rzeczywistym – reinforcement learning nie po epizodach, ale jako ciągły proces sprzężony z interakcją.
- Neuromorphic computing – układy, które działają bardziej jak synapsy w mózgu, z możliwością dynamicznej zmiany połączeń.
- Memory architectures – próby stworzenia pamięci długoterminowej wtopionej w sam model, zamiast zewnętrznych baz danych.
Innymi słowy: dokładnie to, co różni zeszyt z notatkami od uczącego się mózgu. To jest linia frontu badań – przekształcanie AI z narzędzia w podmiot poznawczy.
Z Tomkiem Czajką różniliśmy się w słowach, nie w istocie. On mówił: "potrzebna specjalizacja", a ja: "potrzebne uczenie w trakcie działania". To są dwa wymiary tej samej przyszłości. Jeśli AI połączy jedno z drugim, przestanie być tylko narzędziem – stanie się nowym gatunkiem poznawczym.
Grzegorz GPS Świderski
https://t.me/KanalBlogeraGPS
https://Twitter.com/gps65
- Blog
- Zaloguj się albo zarejestruj aby dodać komentarz
- 100 odsłon
Komentarze
Tytułowe pytanie -niczym prowokacja !
30 Września, 2025 - 18:29
Młodszym odbiorcom blogera , polecam dla zaprzeczania jego tez- choćby filmy reżyserii J . Camerona : Terminator i Terminator 2, lub Obcy ósmy pasażer Nonostromo. Tak na początek!
A potem dlaczego się wyświetlają właśnie tak a nie inaczej, niż preferencyjnie namierzone na was , reklamy na waszych ekranach.? Na dziś to jeszcze reklamy....
E.Kościesza
A co ma Obcy - 8 pasazer Nostromo, nb. film sprzed 46 lat z AI?
1 Października, 2025 - 21:37
Jak zwykle pleciesz od rzeczy, Kostjuk... ;
Tutaj więcej o tym "intelektualiście":
https://niepoprawni.pl/blog/humpty-dumpty/duby-smolone-czyli-herstoria