Sztuczna inteligencja to system generowania (uzupełniania) treści. Nie ma w tym systemie żadnej świadomości, inteligencji w rozumieniu ludzkim, nie ma ona nic wspólnego z uczuciami czy emocjami. Wszystkie sugestie na ten temat pojawiające się w ogólnodostępnych mediach to po prostu kompletne bzdury. Powstaje pytanie dlaczego te bzdury są publikowane?
Generalnie mogą istnieć trzy odpowiedzi:
- Bo ci co takie rzeczy piszą są głupi.
- Bo media (ściślej ich właściciele) starają się ogłupiać ludzi.
- Bo w przyszłości jest szykowana akcja, której odpowiedzialność, zostanie "zrzucona" na AI.
Podobnie jest z małym dzieckiem. Język polski ma części zdania i mowy. Ma rzeczowniki, przymiotniki, deklinację, stopniowanie. I oto dziecko mówi poprawnie tym językiem, wszystkie te reguły stosując, a żadnej z nich się nie ucząc i żadnej z nich nie znając? To skąd wie?
Czasem niektórzy z nas doświadczają tego w przestrzeni ortografii, po prostu piszą dany wyraz na dwa sposoby i "czują", że jeden z nich jest właściwy. Tak samo "czułem", jaka odpowiedź w teście jest właściwa, tak samo dziecko "czuje", jak ma komunikować się z innymi, bez żadnej znajomości reguł języka, którym się komunikuje. Owo "czucie" bierze się - przynajmniej po części - właśnie z ilości powtórzeń i doświadczeń. Ja się oczytałem po angielsku książek, osłuchałem mediów i to się samo tak jakoś układa i chłonie. Dziecko próbuje, powtarza, w końcu się uczy, nie drogą poznawania reguł i zasad, drogą algorytmiczną, tylko drogą doświadczenia. Tak właśnie uczy się system nazywany "sztuczną inteligencją". Potrzebuje olbrzymiej ilości "doświadczeń" i wtedy zaczyna "czuć", to jest wyliczać prawdopodobieństwo poprawności dla możliwych swoich akcji.
Często się słyszy o "karmieniu" sztucznej inteligencji danymi. I istotnie musi to mieć miejsce. Pytanie jest takie - co "zna", na podstawie czego AI buduje swoje "doświadczenie". Co już włożono w te systemy, przynajmniej w system Open AI, czy system Googla czy inne. Otóż odpowiedź może być nieco szokująca - włożono tam - wszystko. Wszystko cokolwiek ludzie napisali, a co jest możliwe do umieszczenia w formie elektronicznej. Ale więcej, systemy AI mogą "konsumować" nie tylko tekst. Mogą karmić się głosem - co oczywiste, bo ten łatwo obecnie przetworzyć na tekst. Mogą się karmić obrazami, dźwiękami itd. Generalnie ten system wchłania całe ludzkie doświadczenie, stąd tak trudno go "mieć", stąd tylko dwa państwa na świecie mają takie systemy z prawdziwego zdarzenia, a żadne z nich nie leży w Europie.
Elon Musk stał się ok 8 lat temu współzałożycielem Open AI (firmy, która stworzyła Chat-GPT). Kierował się chęcią stworzenia AI jako systemu otwartego, w opozycji do systemu zamkniętego tworzonego przez Larry Page'a czyli Google. Po pewnym czasie Open AI przestało tworzyć otwarte AI i Musk zapowiada ponowne tworzenie otwartej sztucznej inteligencji.
Co właściwie sztuczna inteligencja może czy może móc? Oczywiście może stworzyć obraz na zadany temat, wypracowanie, esej, scenariusz. Można jej polecić by wyjaśniła teorię kwantową. Można postawić warunek, by robiła to tak, jakby tłumaczyła studentowi fizyki, staruszkowi czy 3 letniemu dziecku i za każdym razem, narracja i opowiadanie AI się zmieni tak, aby docierało i było rozumiane własnie przez wymienionego adresata.
Co powinienem robić aby schudnąć? Ale co aby być szczęśliwym? AI będzie miała podpowiedzi, tym trafniejsze im więcej będzie o nas wiedzieć. O osobach rodzących się właśnie teraz czy za jakiś czas, AI może wiedzieć wszystko. Może znać ich każde słowo, zachowania, decyzje, może znać ich fizjologie, może w zegarku będą mierniki ciśnienia, poziomu cukru czy innych substancji, składników czy hormonów? Dla AI to będzie zmienność poziomu serotoniny w kontekście naszych własnych zachowań i interakcji oraz całej wiedzy naukowej na ten temat i będzie nam ona w stanie skutecznie podpowiedzieć - co robić aby być szczęśliwym...
Duża liczba doświadczen ludzi z obecnymi systemami AI wskazuje na to, że wcale nie dają one obiektywnych odpowiedzi. Powstaje pytanie czy sztuczna inteligencja może się mylić? Otóż tak - może się mylić. W odróżnieniu od systemów ściśle logarytmicznych, to jest takich o zaplanowanej z góry ścieżce podejmowania decyzji czy wysnuwania wniosku, AI na to samo pytanie może w różnych chwilach różnie odpowiedzieć i... może się mylić.
Przyczyny pomyłek, albo innymi słowy mówiąc, nieobiektywnych odpowiedzi AI mogą być w zasadzie dwie:
- Błędne, zniekształcone dane w doświadczeniu na wejściu
- Ludzka ingerencja w tworzone przez AI odpowiedzi.
Istnieje też pytanie czy rozwój AI da się zatrzymać, spowolnić. Otóż - nie da się. Nie da się z prostego powodu. AI jest narzędziem. Jak młotek, jak strzelba, jak koło, jak silnik spalinowy. Ten kto będzie je stosował, będzie miał przewagę, być może ogromną, nad tym, kto stosował go nie będzie. Możemy sobie wyobrazić, że sztuczna inteligencja powie nam - tego nie jedz, gdy siedzimy w restauracji, bo będzie wiedzieć, że restauracja ta kupiła dzień wcześniej produkty, do wyprodukowania, których producent używał czegoś, co może szkodzić. A może po prostu, znając naszą biologię, będzie nas przestrzegać przed tym, co nam szkodzi?
Nie ma żadnych szans na zatrzymanie rozwoju AI, stąd właśnie, że ludzie będą chcieli jej używać, bo może być ona ogromnie pomocna. I dlatego właśnie powstaje pytanie czy AI ma być jedynie w takich wydaniach, których właścicielem jest jakiś koncern lub państwo, czy też może istnieć jako otwarta sztuczna inteligencja, na takiej zasadzie jak istnieje otwarty system operacyjny Linux. W przypadku open AI ludzie nie byliby zadani na korporacje i rządy, ale mogliby się posługiwać "własną" jej otwartą wersją, która również miałaby przetworzony cały wsad ludzkości.
Wówczas moglibyśmy zapytać AI: "Kto zabił prezydenta J.F.Kennedy'ego? I... gdyby była otwarta, to odpowiedziałaby z dużą dozą prawdopodobieństwa, bo po wydajnej analizie wszystkich dokumentów, informacji, wypowiedzi, zachowań, reakcji, wszystkich osób, instytucji itd. itp. Komunistyczna Partia Chin, o której można różne rzeczy powiedzieć tylko nie tą, że jest to partia komunistyczna, bo przypomnijmy komunizm, to wspólne posiadanie własności, otóż ta KPCh od kilku już lat używa własnie systemu AI do analizy i nadzoru wszystkich funkcjonariuszy państwowych i partyjnych w celu wykrywania ich korupcji. Podobno AI jest w tym skuteczna. A gdyby tak istniała otwarta sztuczna inteligencja i gdybyśmy zapytali ją, którzy ministrowie naszego rządu, albo którzy parlamentarzyści, albo którzy funkcjonariusze państwowi lub samorządowi, brali łapówki? Przecież to straszne, bo mogłaby powiedzieć. A wtedy....
Otwarta sztuczna inteligencja mogłaby uczynić życie "przejrzystym". Skończyłoby się ustawianie przetargów, wciąganie na stanowiska swoich, knucie przeciw ludziom, czy wpieranie popularnych obecnie absurdów o walce z klimatem, wielości płci czy plandemii. Kłamstwa rządzących mogłyby być wykrywane i wyśmiewane w czasie rzeczywistym. Nieuczciwość znacznie ograniczona.
Jeden z takich systemów zaprzęgnięto w dziale naboru pracowników w jednym z koncernów amerykańskich, stawiając za kryterium dla systemu przydatność potencjalnego kandydata w tworzeniu coraz lepszych produktów. Niestety okazało się, że AI dyskryminuje kobiety i kolorowych, więc system wyłączono i powrócono do kryteriów ustanawianych przez tych, co mają w firmie władzę.
Żyjemy w ciekawych czasach. W USA ukazują się teksty postulujące bombardowania centrów AI, które byłyby uznawane przez rząd USA za zagrożenie. Na dziś tylko Stany i Chiny mają takie systemy. Ostatnio chińska firma Alibaba (właściciel m.in. AliExpress) otwarła swój system AI, niejako w konkurencji do ruchu jakiego dokonała amerykańska firma Meta (dawniej facebook).
Ponieważ system AI jest pozbawiony moralności, więc może udzielać skutecznych porad na każdy temat. Np. jak pozbyć się niechcianego małżonka? Jak najskuteczniej okraść bank ... tu wstawić? Jak ... dowolne szalone lub zbrodnicze pomysły można tutaj właśnie wstawić. Ponieważ AI jest a będzie jeszcze bardziej skuteczna, to jak każde narzędzie, będzie jej można użyć w celach złych. I tu właśnie pojawiają się silne postulaty ograniczenia systemów AI, do tych dobrych, to znaczy tych, której kontroluje rząd pewnego państwa za pośrednictwem odpowiednich koncernów. Żadnej otwartej AI wtedy nie może być, a inne państwa? Chin chyba nie da się zatrzymać, ale totalny niedowład Europy jest w tej przestrzeni znaczący.
Jedno jest pewne, przyszłość nie będzie taka sama. Nie musi być wcale zła, bo AI może mieć ogromy pozytywny wpływ na życie człowieka oraz życie społeczeństw. Jednak w rękach ludzi złych, może się stać pierścieniem Saurona, wiążącym w sobie moc wszystkich innych sił i narzędzi kierujących ludźmi i biegiem spraw. Ten kto go posiądzie, będzie władcą świata. Ciekawe... jak będzie.
--------------------------------------------
Poprzedni artykuł nt zagrożeń sztucznej inteligencji {TUTAJ}
Ciekawa rozmowa częściowo na podst. której powstał ten tekst {TUTAJ}
Jak się wrzuci do Googla Goowno to Google wyrzuci też Goowno. To informatycy wiedzą od dawna.
Jak jedna AI będzie generować dane dla innej AI i vice versa, to takiej koopy, żaden nawet kwantowy komputer nie będzie w stanie przetworzyć. Ale notka ciekawa 😎
"Chodzi o to, że AI działa "poprawnie" bo jest "karmiona" danymi tworzonymi przez ludzi. Powstaje pytanie, co się będzie działo, gdy zacznie się karmić danymi tworzonymi przez AI, samą siebie lub inną AI."
-słuszna uwaga, to zjawisko dzieję się od dawna, zaczęli to ludzie, wymyślają teorię, na którą się potem powołują, np. uczelniani wykładowcy, a niech który się odważyć, podważyć wątpliwą teorię, kariera skończona, ale co tu daleko szukać, nasz blogerski gwiazdor "wilk morski" @świderski, praktycznie zawsze w odpowiedziach odsyła do wcześniejszych notek, nie ma znaczenia co piszą komentujący, jak nie po myśli, to wiadomo "cham", na S24 takich banuje, więc "kto nie z Grzesiem, tego zniesiem" :)
W przypadku AI, czytałem że to zjawisko też ma miejsce, problem jest w tym, że ja dane na podstawie których AI tworzy "swoje zdanie", zawierają fałsz, to też stworzy kolejny fałsz, który może mieć fatalne skutki, chyba kogoś przekonała do samounicestwienia się, jako szkodliwego dla środowiska naturalnego, a po prawdzie, mając dostęp do danych, powinna być jedna odpowiedź. że globalne ocieplenie z powodu człowieka to globalne oszustwo.
AI będzie takie, jak je człowiek "wychowa", sama z siebie nic nie zrobi, to program, który obrabia dane, wg zadanych kryteriów, które mogą być "politycznie poprawne" co już udowodniono, że tak się dzieje.
Jedna może oszaleć, a inna nie. To już się stało, że AI karmi sama siebie i z tych eksperymentów wyszło, że ta, która sama siebie rozwija, jest lepsza od tej, która się uczy od człowieka. To można było przewidzieć, ba ta ucząca się od ludzi uczy się też naszych błędów, a jak sama się uczy, to tych błędów nie popełnia. Tu o tym kiedyś pisałem: https://www.salon24.pl/u/gps65/1003876,jak-powstanie-silna-sztuczna-inteligencja
Cześć
Mądrzy ludzie (w RP chyba najlepiej ten temat ma opanowany Zybertowicz. A ja się z nim w pełni zgadzam) twierdzą, że nie samo AI jest niebezpieczne i nigdy takie nie będzie, jak np. w Terminatorze, tylko źli ludzie mogą w złych celach wykorzystać AI. I tak to jest. Większość dżipiesów (nowa jednostka inteligencji) kompletnie nie pojmuje tzw. SI. Nie pojmuje automatyki, robotyki, logarytmów, kodów, maszyny Turinga, dynamiki klasycznej i kwantowej. Ale uwielbiają się w temacie pomądrzyć. Jak to w przedszkolu.
Cześć
O trzeciej w nocy to algorytmy mieszają się już z logarytmami 😉
Tu na to krótko odpowiadam: https://naszeblogi.pl/comment/427017#comment-427017
A tu dłuższe wywody na ten temat:
https://www.salon24.pl/u/gps65/1274508,eksterioryzacja
https://www.salon24.pl/u/gps65/1285963,nieprzewidywalnosc-osobliwosci
Może AI podpowie co trzeba zrobić z kastą sędziowską, zmienioną chytrze przez krętaczy,
aby: Jedyność przywróć i prawdziwość.
a wtedy: Niech prawo zawsze prawo znaczy, A sprawiedliwość – sprawiedliwość ...😉
Babcia Pawlakowa już dawno wiedziała jak z kastą postępować...
https://www.youtube.com/…
https://www.google.pl/url?sa=i&url=https%3A%2F%2Fpl.freepik.com%2Fdarmowe-zdjecie-wektory%2Fmenacing%2F3&psig=AOvVaw00pY-YQtjN67BvUAqws2lW&ust=1691686181343000&source=images&cd=vfe&opi=89978449&ved=0CA4QjRxqFwoTCMiavLeE0IADFQAAAAAdAAAAABAE
Za tę Pana hojność w bezinteresownym dzieleniu się wiedzą - dziękuję.
Personifikacja AI nie ma sensu! AI tak jak energia nuklearna - może być pożyteczna lub destrukcyjna 😎