Otrzymane komantarze

Do wpisu: AI i koniec człowieczeństwa
Data Autor
spike
Moje wybieraki dobrze działały, cho trudno powiedzieć, jak by się spisywały w innych konfiguracjach, były Siemensa chyba z 1924 roku, leżały w magazynie, jako zapas nikomu już niepotrzebne, a mi się przydały:) Z kalkulatora zrobiłem zegar ciemniowy, który miał nieograniczony zakres odliczania czasu.
Silentium Universi
Wybieraka raz próbowałem użyć do sterowania kalkulatorem, ale ani zipło 😁. Za dużo odbić na stykach. A szkoda, miałbym kalkulator programowany w latach siedemdziesiątych 
spike
@sake "Co warte jest pokazywanie wyższości intelektualnej w akademickich wykładach i dyskusjach a jednocześniei poniża się innego człowieka tak jak pan Drabowicz?" to jest tylko pokazywanie mniemanej wyższości intelektualnej, której tacy nie posiadają, teraz ładnie się to nazywa "wykształciuch", czyli prostak z dyplomem zdobytym nie wiedzą, a za świniaka, najczęściej z protekcji. Czuć to od wielu polityków, jak Kosiniak, Miller, Trzaskowski, Kropiwnicki, Budka, Lubnauer, etc. lista o zgrozo b.długa.
sake2020
Wznoszenie się na wyżyny intelektualizmu,akademicki wykład i dyskusja oraz podziękowania za tę piekną dyskusję i wykład wniosło cokolwiek? Tylko tyle ,że łatwiej jest o człowieczeństwie uczenie mówić i pisać niż ją po prostu starać się dostrzec wokół siebie.Czy ta dyskusja swoją rozbudowaną formą ma przesłonić fakt ,że człowieczeństwo uchodzi bezpowrotnie,a przykłady tego mamy na co dzień.Pan dr.hab.Tomasz Drabowicz wykładowca UŁ i zarazem kierownik Katedry Socjologii Struktur i Zmian Społecznych -intelektualista też zapewne takimi pięknymi słowami wykłada i dyskutuje o czlowieczeństwie.Tymczasem daje do sieci publicznie tekst ubliżający b,Rzecznikowi MSZ T.Jasinie w odpowiedzi na jego anons w prasie o poszukiwaniu pracy.,,Zajmij się kochana dla odmiany jakąś uczciwą pracą.Bo ja wiem,męską prostytucją na prawicy nasz już ogarnietą,albo załóż konto na Only Fans''.Dziennikarz T.Grzywaczewski zwrócił sie do władz UŁ z prośbą o komentarz Władze zareagowały zdawkowo wpisem o wzajemnym poszanowaniu się.Człowieczeństwo to także stosunek człowieka do człowieka.Jakie więc człowieczeństwo tu jest reprezentowane? Czy  słowo człowiek to  rzeczywiście ,,brzmi dumnie'' ?Czy intelektualiści uważają że wystarczy pięknie mówić i pisać a że nie ma w tym przełożenia na rzeczywistość to nic wielkiego? Łtwiej pisać jak świadomość odbiera słowo ,,drzewo'' niż pojęcie człowieczeństwa szukać wokół ? Czy raczej postrzegać go takim jakie jest a nie jak to mówi teoria.Autor pisze ,,oni nienawidzą człowieczeństwa''.Jacy oni? Nienawidzą czy nie rozumieją?Ten przydługi wykład i komentarze też nie dają odpowiedzi. czym jest człowieczeństwo,bo nie zniża się do poziomu ogółu społeczeństwa. by być przez niego zrozumiane.Co warte jest pokazywanie wyższości intelektualnej w akademickich wykładach i dyskusjach a jednocześniei poniża się innego człowieka tak jak pan Drabowicz?
spike
@silentium Nie bez powodu mówi się, że "potrzeba jest matką wynalazków". Jeszcze za "łebka" mając znajomości, udało mi się zdobyć części ze starej centrali telefonicznej, miałem wybieraki skokowe, numeryczne, przekaźniki, tarcze telefoniczne etc. zebrałem tego chyba z 10 kg. Mając te części, zbudowałem zamek szyfrowy 4 cyfrowy, pamięć wybieranych numerów była oparta na przekaźnikach, co ciekawe zamek miał zabezpieczenie, błędnie wprowadzony kod, blokował system na kilkanaście min. Podobała mi się jego praca, słychać było wybieranie numeru przez wybierak, tak, tak, tak, ti, ti ti   tak -zapis, potem znowu. Zamek spodobał się mojemu przyjacielowi i go podarowałem, teraz mi go szkoda. Miałem też inne "wynalazki", które raczej były "ponownym odkryciem Ameryki", ale za młodu tak się zdobywało wiedzę i umiejętności.
spike
@henry już za niedługo "nikt nie będzie mógł kupić ni sprzedać, kto nie ma znamienia – imienia Bestii lub liczby jej imienia", fiskus wkracza z głośnym, ale z wyciszonym przez "rząd" przytupem.
spike
@Imć no to mąkę już mamy, ale jak z niej otrzymać chleb, nie zapominając o popitce :) Jakby nie patrzeć, my nic nowego nie tworzymy, jedynie co nam zostaje, to inżynieria odwrotna, coś na podobieństwo AI, która operuje w dostępnym zbiorze danych. Tak mi się przypomniał pewien hinduski geniusz matematyczny, który nie zdobywał swojej wiedzy krok po kroku, ale dostał olśnienia z dnia na dzień, a który zrewolucjonizował naszą naukę, a to nie jeden taki przypadek. Zatem, gdzie jest ukryta tajemnica, czy ktoś ją nam porcjuje?
NASZ_HENRY
  @Imć Waszeć Co za poczucie humoru! Też jestem pod wrażeniem ;-)  Tylko nie wiem czy Zbyszkowi też się spodobało😉    
NASZ_HENRY
  @spike "on znał się nie tylko na programowaniu, ale także na elektronice, potrafił zaplanować, zaprojektować, wykonać i zaprogramować urządzenie, to rzadkość" - to fakt! A takich którzy potrafią swoje wymysły, tfu pomysły jeszcze wyprodukować i sprzedać to na blogach ze świecą szukać 🌼    
Silentium Universi
A to ciekawe. Około 1985 roku zrobiliśmy z kolegami mikrokomputer do sterowania diaporamą - czterema rzutnikami uzywajacy przerobionego magnetofonu szpulowego do synchronizacji i odtwarzania muzyki. Jeden z nas projektował założenia zestawu i przebudowywał magnetofon dorabiając mu drugą głowicę (!), drugi pisał schemat  blokowy kodu (ponad 30 stron A4 - z jednym błędem poważnym i jednym drobnym, absolutne mistrzostwo świata), ja robiłem elektronikę, system operacyjny - wielozadaniowy z podziałem czasu i implementowalem schemat blokowy. BINARNIE. System uruchomieniowy nie miał asemblera. Trochę ponad 8 kB kodu (w tym jeden znany błąd, dziwny, dalo się z nim żyć - licznik synchronizacji liczył od 39 zamiast od zera). Do tej pory pamiętam niektóre kody asemblera Z80. W tych czasach to było powszechna praktyką wśród amatorów 
Dark Regis
Czemu ma nie być? ;)) Oto lista mnemoników dla rozkazów procesora X64 i zaczynamy testowanie :] https://www.felixcloutie… Jest tam support dla kryptografii, teorii liczb, albo pierwiastki dla pierścieni liczbowych jak w pysk strzelił ;). https://www.felixcloutie… https://www.felixcloutie… https://www.felixcloutie…
spike
@EzE tylko że z "tej mąki" zagrychy i popitki nie będzie. ale jak napisano, "nie samym chlebem żyje człowiek .." :))))
spike
Byś się zdziwił, swego czasu przyjaciela, pewien mój znajomy niemiecki biznesmen proponował mu pracę w Niemczech, wysoka pensja + mieszkanie, służbowy samochód z opcją stałego pobytu, okazuje się, że mało jest takich ludzi, tym bardziej, że on znał się nie tylko na programowaniu, ale także na elektronice, potrafił zaplanować, zaprojektować, wykonać i zaprogramować urządzenie, to rzadkość.
Edeldreda z Ely
@Panowie Winszuję i dziękuję. Jestem pod wrażeniem Waszej dzisiejszej dyskusji.    
tricolour
Tylko prehistoryczne - do Z80, Intela 8086, 8051 oraz prekursora wszelkich riscow Rockwella 6502.
Dark Regis
Przykład: Tensor token = ff.embedding(input, llama_config.vocab_size, llama_config.hidden_size, AGGR_MODE_NONE, use_full_precision ? DT_FLOAT : DT_HALF, NULL, embed_init, "tok_embeddings"); Tensor w2 = nullptr; for (int i = 0; i < llama_config.num_hidden_layers; i++) { // set transformer layer id ff.set_transformer_layer_id(i); // step 1: attention Tensor att_norm = nullptr; Tensor token_att_norm[2] = {nullptr, nullptr}; if (i == 0) { att_norm = ff.rms_norm( token, llama_config.rms_norm_eps, llama_config.hidden_size, DT_NONE, std::string("layers_" + std::to_string(i) + "_attention_norm") .c_str()); } else { ff.residual_rms_norm( token, w2, token_att_norm, llama_config.rms_norm_eps, llama_config.hidden_size, DT_NONE, std::string("layers_" + std::to_string(i) + "_attention_norm") .c_str()); token = token_att_norm[0]; att_norm = token_att_norm[1]; } Tensor mha; switch (mode) { case BEAM_SEARCH_MODE: { mha = ff.spec_inc_multihead_self_attention( att_norm, llama_config.hidden_size, llama_config.num_attention_heads, llama_config.hidden_size / llama_config.num_attention_heads, llama_config.hidden_size / llama_config.num_attention_heads, 0.0f, /*dropout*/ false, /*qkv_bias*/ false, /*final_bias*/ false, /*add_zero_attn*/ DT_NONE, /*data_type*/ NULL, /*kernel_initializer*/ true, /*apply_rotary_embedding*/ false, /*scaling query*/ 1.0f, /*scaling factor*/ true, /*qk_prod_scaling*/ false, /*position_bias*/ std::string("layers_" + std::to_string(i) + "_attention") .c_str() /*name*/ ); break; } case TREE_VERIFY_MODE: { mha = ff.inc_multihead_self_attention_verify( att_norm, llama_config.hidden_size, llama_config.num_attention_heads, llama_config.hidden_size / llama_config.num_attention_heads, llama_config.hidden_size / llama_config.num_attention_heads, 0.0f, /*dropout*/ false, /*qkv_bias*/ false, /*final_bias*/ false, /*add_zero_attn*/ DT_NONE, /*data_type*/ nullptr, /*kernel_initializer*/ true, /*apply_rotary_embedding*/ false, /*scaling query*/ 1.0f, /*scaling factor*/ true, /*qk_prod_scaling*/ false, /*position_bias*/
spike
@tri 01000000 01110100 01110010 01101001 generalnie nie o to mi chodziło, a o samo operowanie kodem binarnym, dlatego opracowano języki programowania wyższego poziomu, by łatwo je przyswoić. Znasz Asembler ?
Dark Regis
Tak. Widział Pan schemat uczenia LLM-a? Tak jak napisałem, jeden automat sprawdza co probabilistycznie najlepiej pasuje do budowanego dynamicznie kontekstu,, zaś inny automat pakuje to w "sreberka", czyli w schematy odpowiedzi, które trafiają do użytkownika. Na pewno nie jest to robione w jednym cyklu, jak w abstrakcyjnych sieciach neuronowych, bowiem twórcy AI otwarcie mówią o stałym "douczaniu". https://arxiv.org/html/2… Krótko mówiąc wystarczy zapoznać się z tymi repozytoriami na GitHubie, żeby wyrobić sobie pogląd na wieloetapowość uczenia sieci i segmentowanie tego (post)procesu. Wygląda to wręcz jak jakaś nadrzędna sieć konkurencyjna "kto da lepszą odpowiedź?". Czyli wracając do mojego schematu tworzony jest jakiś wzorzec schematu wypowiedzi "PPTTPPTPPPTP" np. obejmujący wstęp, listę pros, listę cons i krótkie podsumowanie. W efekcie miejsca P muszą zostać wypełnione gadką szmatką w stylu "To bardzo fajnie, że interesujesz się LLM-ami....", albo "bo nawiasem mówiąc jest to sposób na", albo "przynajmniej tak sądzą niektórzy badacze". Nazwałem je P od "placeholder". Zaś T to miejsca "biorące", czyli ustalone miejsca, gdzie pojawiają się ważne informacje, tokeny (bo mają pewną wartość dla budowanego kontekstu), które właściwie stanowią rdzeń tego kontekstu. Z tym, że zadając kolejne pytanie możemy rozwinąć dany placehoilder w kolejną serię tokenów, przykładowo "A jacy to naukowcy tak sądzą?" Oczywiście z uwagi na ograniczenia w liczbie tokenów do wykorzystania maszyna nie może trzymać wszystkich tokenów w nieskończoność i pewne z nich znów muszą wypadać, żeby zrobić miejsce innym. Skąd takie moje podejrzenie? Ze sposobu wpadania AI w halucynacje, gdzie miesza moje dane ze swoimi w losowy sposób. Albo zaczyna "rozumować" powtarzając moje słowa jako swoją odpowiedź "merytoryczną" czyli jako tokeny (obecna wersja 4o tak robi). Jeszcze raz powtórzę, że tokenem nie tyle są słowa, tylko fragmenty kontekstu, a w szczególności słowa "rzadkie", np. nazwiska w twierdzeniach, sformułowania z danej dziedziny nauki itp. Taki "ślad" pozwala na odtwarzanie kontekstu po prostu i dlatego rozmowę można kontynuować po kilku miesiącach. Fragmenty kontekstu zaś to muszą być bardzo złożone struktury, ale raczej mi nie powiedzą jakie. Widać to nieco w tych repozytoriach w Pythonie.
Władysław Ludendorf
@Imć, ależ pan zawiesza wysoko poprzeczkę. Ale chyba łapię, co panu chodzi po głowie. W skrócie całe to LLM oparte na back propagation, sigmoidach i softmaxach de facto jest automatem Buchi'ego (jak dla mnie to nieco bardziej skomplikowanym regexpem). Więc LLM generuje sobie tekst, którego sensu nie musi znać, ale musi mieć wartość TRUE (wtedy tekst ma sens w jakimś sensie :) ). To generowanie to po prostu operacje na symbolach (tokenach którymi są słowa). Coś jak "król" to p a "mężczyzna" to q i p => q :). Trenowanie to tak naprawdę ustalanie wag tych śmiesznych operatorów/kwantyfikatorów "prawie zawsze", "ostatecznie" i innych U (until), kwadracików i rombów. No nie wiem, wygląda jak powrót do lat 60-tych XX wieku tylko winny sposób.
tricolour
No dobra, czas zakończyć spór klasy małżeńskiej... 11 1101 11001
spike
@tri - Bruner ty już wiesz co :))) ogólnie powiem, że właściwie mówimy podobnie, tylko inaczej formujemy pojęcia, ja posłużyłem się określeniem "język maszynowy", odnoszący się wprost do procesora, jak całego systemu, który pracuje tylko i wyłącznie na kodzie - zapisie binarnym, każdy inny zapis komend jest zapisem wyższego poziomu. Czy teraz rozumiesz "co autor miał na myśli" ? tak więc jeszcze raz, zapisz=napisz swój nick w postaci binarnej. :))
Dark Regis
Jeśli chcę sprawdzić czy coś jest zerem, to można wykorzystać też operacje arytmetyczne, które ustawiają flagę ZF, można dodać zero do akumulatora, wykonać operacje logiczną, shift, skok "zerowy" w oparciu o rejestr. Wszystko zależy od kontekstu i od tego czy można zniszczyć zawartość rejestru. Jest też taka sprytna technika programowania, która polega na stworzeniu dispatchera. Chodzi o to, żeby wywołać procedurę na podstawie zawartości jakiegoś rejestru, który adresuje tablice adresów procedur możliwych do wykonania. Taka zabawka służy do przetwarzania języków w tym przy pisaniu analizatorów i kompilatorów. W przypadku robienia procedury rekurencyjnej, która w przypadku C/C++ będzie budować ramki stosu na ramkach stosu, w sumie gigantyczną strukturę w pamięci, która w większości będzie zawierać nieistotne dane. Można to obejść w ten sposób, że przechowuję wartości rejestrów i argumentów na stercie w odpowiednim bloku pamięci, gdzie można robić operacje na nich, np. usuwanie niepotrzebnych danych w celu skrócenia drogi w górę drzewa wywołań, albo dokonać ich modyfikacji w taki sposób, żeby zmienić samo drzewo wywołań wstecz. Nie wiem czy ktokolwiek z programistów jeszcze potrafi tak kombinować, bo to był myk znany w języku Forth. W Forth są bowiem dwa stosy: roboczy stos danych, na którym się wszystko wykonuje, oraz stos adresów. Tam właśnie jest pojęcie "konstruowania asemblerów" ;))
Marek Michalski
Problem jest tylko jeden: udała się manipulacja i ludzie wierzą, że program komputerowy jest inteligencją i powtarzają to błędne pojęcie. W konsekwencji powstaje fałszywa teza jakoby człowiek mógł zastąpić Boga w dziele stworzenia. W rzeczywistości ta propaganda sztucznej inteligencji ma na celu : - personifikację systemów informatycznych - nadanie osobowości prawnej, z prawami autorskimi włącznie, co prowadzi do opodatkowania i rozszerzenia cenzury pod pozorem praw autorskich - stworzenie obawy, że nam AI zagrozi i trzeba zwiększyć kontrolę, - alibi dla procesów decyzyjnych (nie trzeba AI, wystarczy zadzwonić na infolinię, żeby zostać spławionym przez system państwowo-korporacyjny)
tricolour
@spike Ponawiam pytanie - co to znaczy "zapisać"? Mało tego, że ponawiam pytanie, to jeszcze oczekuję odpowiedzi. Mało tego, że oczekuję odpowiedzi, to informuję, że brak odpowiedzi uznam za przyznanie się do niezrozumienia pytania przez zadającego pytanie. :PP
spike
@tri trudno ci będzie zapisać = napisać, skoro nie zrozumiałeś mojego komentarza. :)))))) Kod ASCII jest w kodzie procesora ? człowiek się uczy całe życie :))