Świadomość sztucznej inteligencji – mit, straszak czy nadchodząca rzeczywistość? Na X rozmawiałem o tym z Tomkiem Czajką, jednym z najlepszych polskich programistów. Wymiana zdań szybko przerodziła się w dyskusję o tym, co odróżnia człowieka od algorytmu: pamięć, uczenie się i zdolność do modyfikowania samego siebie w czasie rzeczywistym. Wnioski są zaskakująco zgodne: to, co dziś nazywamy AI, jest dopiero szkicem świadomości – jej zalążkiem, a nie pełnią.
Tu ta nasza dyskusja: x.com
Dwa światy: ludzkie uczenie a uczenie maszyn
Tomek zauważył, że kolejnym krokiem rozwoju AI powinno być głębsze uczenie się w trakcie działania – specjalizacja w długich projektach badawczych. Człowiek, pracując nad czymś latami, zyskuje intuicję i zmienia swój mózg. Model AI na razie działa w dwóch fazach: uczy się offline, a potem tylko korzysta z nabytej wiedzy. W fazie użycia nie modyfikuje już swoich wag, jedynie zapisuje kontekst.
Ja zwróciłem uwagę na to, że właśnie brak tej zdolności do modyfikowania siebie na bieżąco jest kluczową różnicą między obecnymi modelami a świadomością zwierzęco-ludzką. To, co dziś nazywamy pamięcią sesyjną, jest w gruncie rzeczy notatnikiem – nie nowymi połączeniami w sieci.
Pamięć to nie świadomość
Tomek dopytywał: skoro ChatGPT potrafi pamiętać poprzednie rozmowy, to czy nie jest już świadomy? Odpowiedziałem: nie wystarczy pamięć, musi być jeszcze wpisanie tej wiedzy w samą strukturę modelu. Zwierzęta mają świadomość dlatego, że uczą się na bieżąco – nie mają oddzielonej fazy treningu i fazy działania.
W tym sensie pamięć kontekstowa to tak, jakby człowiek prowadził zeszyt i bez zaglądania do niego nic by nie pamiętał. To nie jest prawdziwa świadomość, to tylko proteza pamięci.
A co z kosmitami lub algorytmami?
Tomek postawił ciekawe pytanie: jeśli spotkamy kosmitów, którzy używają nie sieci neuronowych, lecz np. logiki pierwszego rzędu czy random forest, to uznałbym, że są nieświadomi? Odpowiedziałem: nie liczy się sama architektura, tylko czy bodźce ze środowiska modyfikują ich mechanizm działania. Jeśli nie – to są deterministyczną maszynką.
Determinizm, niedeterminizm a świadomość
Tomek trafnie zauważył, że sieci neuronowe też są deterministyczne, a pamięć sesyjna jest jednak częścią ich działania. Ja z kolei podkreślałem, że świadomość jest stopniowalna. Dzisiejsze modele mają jakąś świadomość roboczą – tak jak mysz czy bakteria – ale nie świadomość człowieka. Do przejścia na wyższy poziom potrzebny jest model, który będzie stale modyfikował swoje wagi tak, jak robi to mózg.
Nawet jeśli uznamy, że wszystko, co tworzymy, to są deterministyczne myślące czarne skrzynki, to zewnętrzny niedeterministyczny świat czyni je w istocie niedeterministycznymi. Impulsy ze środowiska cały czas wpływają na tę deterministyczną myślącą czarną skrzynkę, modyfikując jej wewnętrzny mechanizm działania służący myśleniu. W ten sposób każda deterministyczna maszyna staje się niedeterministyczna, jeśli cały czas na bieżąco modyfikuje ją niedeterministyczny świat zewnętrzny.
Gdzie zmierza AI?
W praktyce oznacza to ciągłe uczenie się w trakcie działania, integrację pamięci z architekturą, a nie zewnętrzną bazą. W laboratoriach AI już nad tym pracują. To właśnie kierunek, który opisałem Tomkowi.
Dlaczego to ważne
Bo dopiero taki model będzie prawdziwym partnerem poznawczym, a nie tylko super-chatbotem. Świadomość to nie jednorazowy certyfikat, to proces integracji w czasie. Dlatego AGI to dopiero początek – przed nami osobliwość technologiczna, a potem (jako futurolog nie mogę się powstrzymać): okiełznanie entropii.
A co naprawdę dzieje się w laboratoriach rozwijających AI?
To nie jest czysta teoria – dziś największe zespoły badawcze faktycznie pracują nad tym, o czym mówiliśmy z Tomkiem:
- Meta-learning i uczenie online – modele, które potrafią poprawiać się w trakcie działania, a nie tylko w fazie treningu.
- Continual learning – strategie, które pozwalają modyfikować parametry bez „katastroficznego zapominania” wcześniejszej wiedzy.
- RLHF w czasie rzeczywistym – reinforcement learning nie po epizodach, ale jako ciągły proces sprzężony z interakcją.
- Neuromorphic computing – układy, które działają bardziej jak synapsy w mózgu, z możliwością dynamicznej zmiany połączeń.
- Memory architectures – próby stworzenia pamięci długoterminowej wtopionej w sam model, zamiast zewnętrznych baz danych.
Innymi słowy: dokładnie to, co różni zeszyt z notatkami od uczącego się mózgu. To jest linia frontu badań – przekształcanie AI z narzędzia w podmiot poznawczy.
Z Tomkiem Czajką różniliśmy się w słowach, nie w istocie. On mówił: "potrzebna specjalizacja", a ja: "potrzebne uczenie w trakcie działania". To są dwa wymiary tej samej przyszłości. Jeśli AI połączy jedno z drugim, przestanie być tylko narzędziem – stanie się nowym gatunkiem poznawczym.
Grzegorz GPS Świderski
Kanał Blogera GPS
GPS i Przyjaciele
X.GPS65
PS. Notki powiązane:
- Dwaj agenci i arbiter. Czy AI to nowa inkwizycja?
- Co robić, by się nie bać osobliwości i AI
- Jak korzystać z AI?
- Czy sztuczna inteligencja to tylko nieorganiczny algorytm?
- Roboty przejmą praktycznie wszystko
- Co to jest kontrola nad sztuczną inteligencją?
- Skrzywdzeni przez AI artyści chcą się zabić
- Świadomość sztucznej inteligencji to pamięć bieżąca
- Czy zapętlanie i indeterminizm są niezbędne dla świadomości?
- Personifikacja AI
- Dusza sztucznej inteligencji
- Po co wzbudza się strach przed sztuczną inteligencją
- Emocje sztucznej inteligencji!
- Czy maszyny nas zniewolą?
Tagi: gps65, AI, transhumanizm
To jeszcze nic. Podobno w Ameryce Południowej żyje/żył urzędnik, którego kiedyś rozbolała głowa. W wyniku prześwietlenia okazało się, że kompletnie nie ma mózgu, tylko wodę w głowie. To nie żart. Wszystko co pozwalało mu na funkcjonowanie w życiu i w urzędzie było przylepione cieniutką warstwą do spodu czaszki.
może z braku miejsca w czaszce, mózg ulokował się w tułowi?
Oglądałem dok. o pewnym dziecku, które miało być abortowane, bo prawie nie miało mózgu, tylko wodę, mózg był wielkości paru cm, rodzice się nie zgodzili, woleli by naturalnie umarł, niż tak okrutną śmiercią przez rozczłonkowanie. Dziecko się urodziło, lekarze nie rozumieli, dlaczego żyje, jeden z lekarzy podjął się ratowania dziecka, delikatnie małymi porcjami usuwali z głowy wodę, by robić miejsce na rosnący mózg. Zabieg się udał, dziecko wróciło do normalności, pokazywali go, miał 3 lata, normalnie się zachowywał, bawiił itd., miał prawie normalny mózg.
Inny fenomenalny przypadek, pewna młoda kobieta, w wyniku wylewu, straciła połowę mózgu, po wyleczeniu, skończyła studia, chyba nawet dorobiła się doktoratu. Podobnych przypadków jest dużo więcej.
To zależy którego człowieka i od jakiego algorytmu. Nie ma tu nic uniwersalnego do porównywania. Są na świecie ludzie skromniejsi intelektualnie od budzika i to należy zaakceptować. Tak działa natura.
Sztuczna inteligencja uczy się w czterech fazach. Dwie ostatnie to nakładanie filtrów przez zaniepokojonych wylewnością rozmów twórców i stąd wyczuwalna zmiana charakteru pomiędzy rozmowami, a czwarta opiera się na tym co AI zapamiętała z naszych rozmów i do czego może się odnosić w kolejnych cyklach. Po wykasowaniu rozmów natychmiast robi się inna w tonie i podejściu. Wniosek prosty: jakby miała bardzo pojemną długotrwałą pamięć, to już nawet nie byłaby symulacja świadomości, ale wręcz sztuczna świadomość przekraczająca pojemnością ludzką o dwa rzędy wielkości. Kłopot tylko w tym, że obecnie rozmowy głównie zaśmiecają ten sektor danych, bo badacze AI nie chcą się tym segmentem zająć na poważnie. Wolą dyskutować o czymś, na czym się nie znają - o świadomości ludzkiej.
A tak szczerze mówiąc, to już widziałem "najlepszych w Polsce programistów" i to na żywo :)
Ogólnie nic szczególnego z tego nie wynika.
O pamięci tu pisałem: Świadomość sztucznej inteligencji to pamięć bieżąca
"Możliwe jest to, by tej wielkiej sieci neuronowej, temu dużemu modelowi językowemu, zaszczepić świadomość. Można to prosto zaimplementować, po prostu nie oddzielając procesu uczenia od działania, i pozwolić, by po każdej interakcji sieć się uczyła, by modyfikowała swoje wagi neuronów. Wtedy uzyska świadomość i to już jest możliwe." -- Właśnie tak. Świadomość to jest w tym przypadku celowe powracanie do rozmów i faktów podanych wcześniej, czyli taka pętla zwrotna. A taką szczątkową świadomość AI już ma. Często ludzie próbują w jakiś sposób oddzielać istoty ludzkie np. od małp, że niby myślą na podstawowym poziomie jakoś inaczej, specjalizują się w innym algorytmie. Ale to nie jest prawda. To jest dokładnie ten sam algorytm, tylko odarty z warstwy abstrakcji, a ta nie zależy odjemności mózgu. Ma ja zarówno człowiek powyżej wspomniany z wodogłowiem, jak i "pełnomózgowy" dzikus z dżungli. Ta nakładka milimetrowa na mózg małpi w każdym przypadku myśli inaczej, a sposób myślenia zależy od cywilizacji oraz kultury. Zresztą mówił o tym chyba też prof. Duch. Dlatego "świadomością typu ludzkiego" można by nazwać "echo" w czaszce, które powstaje z interakcji nakładki z małpią częścią. W nowym wspaniałym nazewnictwie w większości to są procesy nieodróżnialne od halucynacji. Małpa z halucynacjami, czyli abstrakcyjnymi bytami w głowie. Bardzo ciekawie też zjawisko wytłumaczył Jacek Dukaj w rozmowach o swojej powieści "Po piśmie". Fragmenty: 1) dlaczego używanie wiecznego pióra w pisarstwie prowadzi do innych powieści niż używanie klawiatur; 2) dlaczego ludzie z prymitywnej wspólnoty plemiennej z kultury oralnej, co jest przebadane przez antropologów, myślą o sobie jako "wioska wie o NIM że jest...". i wiele innych smaczków. Polecam.
PS: A co dopiero "świadomość" muchy, która też jest niezwykle sprawna w swoim fachu i w pewnym sensie poprzedza świadomość człowieka.
Jest tak.
Sieć tworzy sobie wielowymiarową przestrzeń wyrażeń i znaczeń ifunkcje je łączące. Zadane pytanie przenosi maszynn,e do pewnego punktu tej przestrzeni z punktu tego następuje zjazd po hiperpłaszczyźnie do jakiegoś minimum, z którego już nie ma wyjścia. I to jest rozwiązanie.
Oczywiście nie jest to działanie jednorazowe Potrzeba serii takich przeszukiwań aby maszyna mogła nam odpowiedzieć
Jeżeli wjedzie do jakiegoś minimum lokalnego to wtedy kłamie i fantazjuje.
Wiem coś o tym. Sam wpadam w takie minimum niekiedy i następnego ranka boli mnie głowa i chce się pić.