Re: Tropiciel nieprawomyślności
: 13 paź 2024, 13:22
Ale co to znaczy częściowo? W 1/10, 1/5, czy może w 5%, a może w 20%+-10%? Bo częsciowo to bardzo ogólne stwierdzenie.
Niech przemówi Lem:
Niech przemówi Lem:
Miejsce spotkań ludzi takich jak Ty!
https://introwertyzm.pl/
Niemożliwe. Dlatego też jeśli to rozwiązanie jest wpuszczane na produkcję, to oznacza ni mniej, ni więcej niż tyle, że są odpowiedni ludzie, którzy wiedzą, jak to działa. Weźmy np. takie data science. Wcześniej i tak było to top informatyki, ale nie było tam za bardzo rozwiązań AI, a teraz bez nich branża mocno by podupadła. Są już konkretne biblioteki, które trzeba znać, ludzie, którzy mogą w tym przeszkolić nowicjusza i tyle. Problem w tym, że wymagania na wejściu są tak wysokie, że pojawia się pytanie, jak w ogóle można zacząć to robić. I na to pytanie nie umiem odpowiedzieć. Być może trzeba spędzić kupę czasu, wykorzystując wszechwiedzące encyklopedie AI, żeby nauczyła nas samej siebie. Inne rozwiązanie - oprócz wybrania się na kierunkowe studia i konkretną specjalizację - mi do głowy nie przychodzi.tonerek pisze: 12 paź 2024, 16:43Jak możliwe jest żeby wpuścić na produkcję rozwiązanie które nikt nie wie dlaczego działa?
A to fakt. Pamiętam, że w jakimś 2019 zapoznawałem się z osiągnięciami Boston Dynamics i do tej pory niewiele się zmieniło. No dobra, może i powstały modele, które potrafią w jakiś sposób skakać między przeszkodami jak małpy, ale nadal nie radzą sobie w nowych środowiskach, do których nie są zaprogramowane. Identyczny problem istnieje właśnie przy autonomicznych samochodach. Kombinacji różnych sytuacji na drogach jest tyle, że bez jakiegoś pomysłu na efektywne uczenie się algorytmów, nie ma co mówić o jakimkolwiek bezpieczeństwie. Co najwyżej można zaprogramować je w ten sposób, żeby wybierały "mniejsze zło": https://www.moralmachine.net/ I teraz t ... d-examplestonerek pisze: 12 paź 2024, 16:43Jak można mówić o AGI bez robotyki? Moim zdaniem nie można. Co oddala datę AGI. Popatrzcie tylko jako nawet najnowsze roboty (typu Figure) są niezdarne. I jak one mają zastąpić poruszających się jak frygi kelnerów w restauracjach?
Gdzie są miliony autonomomicznych samochodów? Okazuje się że nawet ta czynność, zaliczona pewnie przez Kahnemena jako przykład myślenia szybkiego nie jest w stanie być opanowana przez AI na tyle, żeby 4 i 5 stopień autonomiczności został osiągnięty.
Akurat do tematu religii wnosi bardzo dużo. Właśnie dlatego, że to ją łączy z religią, że jej postulatów nie da się w pełni udowodnić. Pamiętam, że jako ateista, obcując z filozofami (z wykształcenia, lub ludźmi, którzy nie tyle się tym po prostu interesowali, co przyjmowali to jako najwyższą mądrość i kierunkowskaz życia), cały czas miałem wrażenie, że wśród nich nie ma twardych ateistów. Powiedzenie, że coś "na pewno nie istnieje", dla nich było po prostu zbyt daleko posuniętym dogmatem.tonerek pisze: 12 paź 2024, 16:43Pomijam jakieś metapoziomy tłumaczeń tego, bo przyznam się szczerze że filozofię mam głęboko w d i uważam że nic albo prawie nic nie wnosi.
Niech przemówi, Lema warto posłuchać, ale "nauka nie potrafi odpowiedzieć na prawie żadne pytanie" to kompletna bzdura. Już w roku, w którym to mówił, wcale tak nie było, a co dopiero dalej. Gdyby dokończył to np. w ten sposób: "nauka nie potrafi odpowiedzieć na prawie żadne pytanie filozoficzne lub religijne", dopiero wtedy miałoby to sens. Czy to miał na myśli? Nie wydaje mi się. W książce "Śledztwo", puenta miała przekonać czytelnika, że próba rozumowania przyczynowo-skutkowego, korelacyjnego i w ogóle cała statystyka to bujdy na resorach. Cały czas obcując z jego wypowiedziami, miałem wrażenie, że posiadał on bardzo duże rozumienie filozofii nauki, ale nie samej nauki, przez co bardzo otwierało to głowę, ale nie uczyło niczego "twardego". Krótko mówiąc, Lem to antyteza typu "hard" sci-fi.
To prawda. Wydaje mi się, że o ile z prawidłami np. fizyki i biologii walczyć nie możemy, o tyle mamy bardzo duże pole manewru, jeśli chodzi o tzw. życie osobiste czy "styl życia". Zresztą, to raczej na tej podstawie ocenia się ludzi, czyli według tego, jak przebiegają ich życia osobiste, interakcja ze społeczeństwem, sposób pokazania się, indywidualne wybory itd. Oczywiście według np. wzrostu czy predyspozycji do bycia chudym/grubym również, patrz rynek matrymonialny, który jest dość bezlitosny. Ale fakt faktem, że sporo możemy wybrać na poziomie bardziej kulturowym. Problem polega na tym, że zaraz i tak przyszedłby kulturoznawca czy socjolog, i powiedziałby Ci o mechanizmach, które warunkują całe społeczeństwa, narody, subkultury, grupy/klasy itd. I zacząłbyś te uwarunkowania zauważać. Przykładowo, mogę znajdować wiele argumentów za tym, że nie pasuję do polskiego społeczeństwa, albo za tym, że mam w sobie wiele cech płci przeciwnej, ale gdyby tak jednak próbować ludzi pogrupować, okazałoby się, że nie mogę walczyć z tym, że jestem mężczyzną z Polski.Fairytaled pisze: 11 paź 2024, 7:51Skoro już piszemy o człowieku, to tu trzeba wziąć pod uwagę to, że jakoś możemy na siebie wpływać, wiadomo, że w ograniczonym stopniu. Jakbyśmy odeszli na chwilę od biologicznego organizmu, który nas zmusza do pewnych rzeczy; można sobie np. wybrać fryzurę, to, w co się ubierzemy, itd. Problem z wolną wolą pojawia się w momencie istnienia jakiegoś ciężkiego nałogu, ale ludzie i tak mogą próbować z tym walczyć.
Wiesz, jeśli za każdym razem, kiedy udaje się dokonać jakiegoś nowego odkrycia, okazuje się, że polega na to na obracaniu się trybików, niezależnie od ich rodzaju, to można zacząć w ten sposób postrzegać świat. A jeśli coś nie jest do wyjaśnienia koncepcją trybików, to przyjmuje się to jako najbardziej prawdopodobną opcję, czekając cierpliwie na wyjaśnienie w ten sposób. Problem polega na tym, że prawie zawsze to wygrywa. Czy to mecz piłkarski, szachy, polityka, czy cokolwiek innego.Fairytaled pisze: 11 paź 2024, 7:51Są osoby, które twierdzą, że wszystko i tak jest wcześniej z góry zdeterminowane (tutaj po stronie ewolucji, jak i kreacjonizmu). Kojarzy się to siłą rzeczy z kartezjańską koncepcją mechanicyzmu. Jakieś trybiki się obracają i tyle? Moim zdaniem to zbyt dalece posunięte uproszczenie.
Raz to zrobiłem, zostało przyjęte do czasopisma z MIT, ale poza tą grupką ludzi nikomu nie chciało się w to zagłębiać. Tyle to jest warte. To już lepiej pisać popularnonaukowe posty na forach internetowych, jest z tego większa frajda, większe grono odbiorców (siłą rzeczy, czytających jest dość sporo) i zdecydowanie większe pole do dyskusji, w dodatku bardziej rozwijającej. Tutaj nauki bronił nie będę, jej formalna strona (uczelnie, czasopisma, tytuły) to morderstwo na ciekawości poznawczej, dokonane z premedytacją i ze świadkami dookoła, którzy nie chcą zeznawać.Fairytaled pisze: 11 paź 2024, 7:51Mój detektor intencji sugeruje, że masz ochotę podzielić się jakąś swoją kreacją. Please share![]()
Może i życie tego prostego organizmu jest nudne, ale nuda lub jej brak nie mogą być kryteriami skuteczności ewolucyjnej. Weźmy tych rozwiniętych ludzi. Nudna ścieżka rozwoju i zawodowa, nudny związek z tylko jedną osobą, nudna opieka nad dziećmi (w porównaniu do innych, bardziej "hedonistycznych" działań) i nudne dążenie do zarabiania pieniędzy i bezpieczeństwa (np. zdrowotnego) - maksymalna korzyść ewolucyjna. "Ciekawe" zmiany zawodowe, zmiany partnerów, działania ryzykowne - niekorzyść ewolucyjna.Fairytaled pisze: 11 paź 2024, 7:51Dlaczego nie? To sugeruje, że organizmy ewoluują w stronę większych zdolności kognitywnych, a jak już wcześniej ustaliliśmy, zgodnie z tą teorią, zawsze trzeba coś wcześniej poświęcić (tutaj owa nieśmiertelność), by uzyskać daną przewagę. Życie jako jeden nieśmiertelny prostszy organizm jakoś wydaje mi się nudne. Trzeba założyć, że celem ewolucji byłoby zróżnicowanie, ewentualnie coraz mocniej rozbudowane poznanie natury rzeczywistości. Rozumiem, że Tobie przeszkadza śmiertelność, czy też różne wady naszych biologicznych avatarów, stąd uważasz, że "inteligentny projekt" jest niedoskonały. W sumie można by się na tym zatrzymać, ale jak ktoś się uprze, to dojdzie też do wniosku, że niedoskonałość mogła zostać wpisana w całość, zatem jest jedynie pozorną zmienną, której nie ogarniamy z naszego punktu widzenia.
Wydaje mi się to pochodną tych wyżej rozwiniętych zdolności poznawczych i niczym innym. Generuje to masę problemów, przez co jest "ciekawiej", ale mniej korzystnie.Fairytaled pisze: 11 paź 2024, 7:51Da się to rozszerzyć na teorię ewolucji? Może to jest właściwe wytłumaczenie, być może w tym wszystkim chodzi m.in o bardziej złożone emocje?
A jednak wpuszczamy na produkcję ludzi bo mamy ufność w to że ich procesy kognitywne są wystarczające do danego zadania. Jednak nie wiemy jak dokładnie takie procesy kognitywne działają. Być może plusem rozwoju AI będzie ich głębsze poznanie.Patrycjusz pisze: 15 paź 2024, 21:05Niemożliwe. Dlatego też jeśli to rozwiązanie jest wpuszczane na produkcję, to oznacza ni mniej, ni więcej niż tyle, że są odpowiedni ludzie, którzy wiedzą, jak to działa.tonerek pisze: 12 paź 2024, 16:43Jak możliwe jest żeby wpuścić na produkcję rozwiązanie które nikt nie wie dlaczego działa?
Zmieniło się, powstały duże LLM-y (swoiste mózgi dla sterowanych algorytmami nie bazującymi na uczeniu maszynowym jak zdaje się w przypadku Boston Dynamics, albo przynajmniej nie w takim stopniu), które niestety halucynują i tak naprawdę chodzi o te parę procent sytuacji które model sam musiałby wykoncypować bez danych treningowych.A to fakt. Pamiętam, że w jakimś 2019 zapoznawałem się z osiągnięciami Boston Dynamics i do tej pory niewiele się zmieniło. No dobra, może i powstały modele, które potrafią w jakiś sposób skakać między przeszkodami jak małpy, ale nadal nie radzą sobie w nowych środowiskach, do których nie są zaprogramowane. Identyczny problem istnieje właśnie przy autonomicznych samochodach. Kombinacji różnych sytuacji na drogach jest tyle, że bez jakiegoś pomysłu na efektywne uczenie się algorytmów, nie ma co mówić o jakimkolwiek bezpieczeństwie.
AI-bias to inna bajka, ludzie też są niezmiernie moim zdaniem zbiasowani. Na obecnym etapie AI już potrafi rozpoznawać ludzkie emocje. Skąd wiadomo że nie może ich odczuwać? I co to w ogóle by dokładnie znaczyło? Duże modele językowe wykazują cechy emergentne, które pozwalają im na nabywanie umiejętności których nie były uczone. Może zatem rozumienie ich może w jakiś sposób doprowadzić do ich odczuwania?Aktywnie badany jest AI-bias: https://www.ibm.com/think/topics/sheddi ... d-examples
W jakimś sensie faktycznie algorytmy są psychopatami, dlatego że nie ma tu mowy o posiadaniu emocji, uczuć itd.
Ja pisałem na zasadzie: jeżeli wiarę opieramy na jakiś logicznych przesłankach to potkniemy się na pierwszym kamieniu. I możemy to uzasadniać jak kolega Fairytailed że Bóg jest poznawalny tylko częsciowo (co to miałoby znaczyć itd.). Filozofia nie podoba mi się na podobnej zasadzie co religia: buduje niefalsyfikowalne lub wewnętrznie sprzeczne konstrukty.Akurat do tematu religii wnosi bardzo dużo. Właśnie dlatego, że to ją łączy z religią, że jej postulatów nie da się w pełni udowodnić. Pamiętam, że jako ateista, obcując z filozofami (z wykształcenia, lub ludźmi, którzy nie tyle się tym po prostu interesowali, co przyjmowali to jako najwyższą mądrość i kierunkowskaz życia), cały czas miałem wrażenie, że wśród nich nie ma twardych ateistów. Powiedzenie, że coś "na pewno nie istnieje", dla nich było po prostu zbyt daleko posuniętym dogmatem.
Wydaje mi się że miał na myśli to że obecna nauka nie jest w stanie dalej odpowiedzieć na bardzo wiele pytań, które mogłaby sobie postawić. I tak na przykład już 100 lat fizyka buja się z połączeniem ogólnej teorii względności i mechaniki kwantowej. Nie wiemy jak działa mózg itp. itd. A jakby sobie postawić takie pytanie że być może nasza ludzka inteligencja ma w sobie ograniczenia takie że nie jest w stanie tego po prostu wymyślić? I dopiero nasi robotyczni następcy będą to w stanie zrobić?Niech przemówi, Lema warto posłuchać, ale "nauka nie potrafi odpowiedzieć na prawie żadne pytanie" to kompletna bzdura. Już w roku, w którym to mówił, wcale tak nie było, a co dopiero dalej. Gdyby dokończył to np. w ten sposób: "nauka nie potrafi odpowiedzieć na prawie żadne pytanie filozoficzne lub religijne", dopiero wtedy miałoby to sens. Czy to miał na myśli? Nie wydaje mi się. W książce "Śledztwo", puenta miała przekonać czytelnika, że próba rozumowania przyczynowo-skutkowego, korelacyjnego i w ogóle cała statystyka to bujdy na resorach. Cały czas obcując z jego wypowiedziami, miałem wrażenie, że posiadał on bardzo duże rozumienie filozofii nauki, ale nie samej nauki, przez co bardzo otwierało to głowę, ale nie uczyło niczego "twardego". Krótko mówiąc, Lem to antyteza typu "hard" sci-fi.
Nawet jeśli, nie byłoby to w ogóle pożądane. Emocje powodują właśnie m.in. wspomniane biasy, które są nieobiektywne i niepożądane poznawczo, a co dopiero mówić o działaniu AI. Jasne, byłyby wtedy bardziej "ludzkie", ale tego się od nich oczekuje, żeby przejmowały te najlepsze umysłowe cechy, a nie takie, które mogą spowodować błędy. Emocje są bardzo złym doradcą w sprawach czysto intelektualnych: nauce, biznesie, prawie itd. Dlatego też AI siłą rzeczy będzie najlepsze w dziedzinach ścisłych, rozumowaniu naukowym, obliczaniu strategii biznesowych, argumentowaniu tez itd.tonerek pisze: 16 paź 2024, 19:47AI-bias to inna bajka, ludzie też są niezmiernie moim zdaniem zbiasowani. Na obecnym etapie AI już potrafi rozpoznawać ludzkie emocje. Skąd wiadomo że nie może ich odczuwać? I co to w ogóle by dokładnie znaczyło? Duże modele językowe wykazują cechy emergentne, które pozwalają im na nabywanie umiejętności których nie były uczone. Może zatem rozumienie ich może w jakiś sposób doprowadzić do ich odczuwania?
W takim razie nie powinna też podobać Ci się matematyka, której nie można samej w sobie za bardzo udowodnić empirycznie. Tworzy też ona właśnie wewnętrznie sprzeczne konstrukty, tj. matematyczne paradoksy, weźmy chociażby zwykłe liczby urojone, które są nimi obarczone. A to mnie właśnie w matematyce fascynuje, że jest taka abstrakcyjna, jak i ta cała filozofia. Szczególnie świetne jest jej zastosowanie w epistemologii, czyli tutaj w poznaniu matematycznym.tonerek pisze: 16 paź 2024, 19:47Filozofia nie podoba mi się na podobnej zasadzie co religia: buduje niefalsyfikowalne lub wewnętrznie sprzeczne konstrukty.
Bez przesady, dobrze wiemy, po prostu nie wiemy wszystkiego, zdecydowanie większy jest ten obszar niewiedzy w porównaniu do innych narządów. Ale i tak jest nieźle, przykładowo programy do analizy danych neuroobrazowych mają już zaimplementowane informacje o tym, jak dzielą się te obszary i za co odpowiadają. A zadaniem neuronaukowca jest bardziej powiązanie ich ze sobą i skorelowanie z funkcjami poznawczymi/wykonawczymi.
Można rozumieć emocje jako skrótowce w myśleniu: gdy nie ma pełnej wiedzy o czymś (a tak jest zazwyczaj) kierujemy się emocją. Nie wiem czy są niepożądane poznawczo, niektórzy twierdzą że możliwość popełniania błędów - szczególnie na wczesnym etapie uczenia - jest niezbędne do prawidłowego rozwoju AI, trochę jak u ludzi. I nie uważam jakoby AI miałoby być czymś w rodzaju "nieomylnego frankensztajna" - dodanie komponentu psychiczno-emocjonalnego uczłowieczyłoby moim zdaniem androidy i szybciej wkomponowałoby je w społeczeństwo.Patrycjusz pisze: 20 paź 2024, 1:10
Nawet jeśli, nie byłoby to w ogóle pożądane. Emocje powodują właśnie m.in. wspomniane biasy, które są nieobiektywne i niepożądane poznawczo, a co dopiero mówić o działaniu AI. Jasne, byłyby wtedy bardziej "ludzkie", ale tego się od nich oczekuje, żeby przejmowały te najlepsze umysłowe cechy, a nie takie, które mogą spowodować błędy. Emocje są bardzo złym doradcą w sprawach czysto intelektualnych: nauce, biznesie, prawie itd. Dlatego też AI siłą rzeczy będzie najlepsze w dziedzinach ścisłych, rozumowaniu naukowym, obliczaniu strategii biznesowych, argumentowaniu tez itd.
Emocje potrzebne są do sztuki, dlatego też ta generatywna zawsze będzie pod tym względem słaba. Dobrze "zmałpuje" cechy sztuki ludzkiej, nawet wzbudzi te emocje, ale czegoś będzie tam brakowało. I tego akurat będę się trzymał do usranej śmierci.
Z tego co się orientuję to wiedza ta bardziej ogranicza się bardziej do wiedzy o tym które części mózgi aktywują się przy określonych czynnościach mózgu. Brakuje natomiast wiedzy jak dokładnie poszczególne części mózgu współpracują ze sobą i dlaczego. Zresztą jak mielibyśmy taką wiedzę, to być może szybciej łatwiej byłoby konstruować roboty. Yann leCun (twórca sieci konwolucyjnych) proponuje architekturę Jepa, która miałaby naśladować ludzkie procesy kongitywne - ale co z tego wyjdzie - nie wiadomo. Na razie AI to bardziej eksplorowanie architektury transformerów, która nie wiadomo dlaczego dokładnie działa.Bez przesady, dobrze wiemy, po prostu nie wiemy wszystkiego, zdecydowanie większy jest ten obszar niewiedzy w porównaniu do innych narządów.
Niekoniecznie od razu emocją. Te skrótowce to heurystyki myślenia, które są szybkimi "obliczeniami" pozwalającymi na zaoszczędzenie czasu i energii, ale nie są bezpośrednio powiązane z emocjami. Dlatego można zaimplementować te heurystyki w algorytmach i tyle. Ale nikt tego nie robi, dlatego że wprowadzają one błędy.tonerek pisze: 20 paź 2024, 11:27Można rozumieć emocje jako skrótowce w myśleniu: gdy nie ma pełnej wiedzy o czymś (a tak jest zazwyczaj) kierujemy się emocją.
A dlaczego popełnianie błędów miałoby być związane z emocjami? Jasne, negatywna reakcja emocjonalna jest bezpośrednio powiązana z błędami, ale tak naprawdę można jej uniknąć i przyjąć negatywną informację zwrotną "na sucho". A przynajmniej tak potrafią algorytmy.tonerek pisze: 20 paź 2024, 11:27Nie wiem czy są niepożądane poznawczo, niektórzy twierdzą że możliwość popełniania błędów - szczególnie na wczesnym etapie uczenia - jest niezbędne do prawidłowego rozwoju AI, trochę jak u ludzi. I nie uważam jakoby AI miałoby być czymś w rodzaju "nieomylnego frankensztajna" - dodanie komponentu psychiczno-emocjonalnego uczłowieczyłoby moim zdaniem androidy i szybciej wkomponowałoby je w społeczeństwo.
Ta współpraca poszczególnych miejsc mózgu ze sobą jest częściowo poznana, ale to fakt, że tutaj obszar niewiedzy jest największy. Za to posiadanie kompletnej wiedzy na ten temat może nie wnieść prawie nic do rozwoju AI, dlatego że "sztuczne sieci neuronowe" nie mają zbyt wiele wspólnego z tym, jak działają neurony biologiczne (potencjał czynnościowy, neuroprzekaźniki, neuroplastyczność i te wszystkie cechy związane z ich biologiczną naturą). To byłaby ślepa uliczka, żeby konstruować algorytmy na tej podstawie, znacznie lepiej sprawdzają się same obliczenia.tonerek pisze: 20 paź 2024, 11:27Z tego co się orientuję to wiedza ta bardziej ogranicza się bardziej do wiedzy o tym które części mózgi aktywują się przy określonych czynnościach mózgu. Brakuje natomiast wiedzy jak dokładnie poszczególne części mózgu współpracują ze sobą i dlaczego. Zresztą jak mielibyśmy taką wiedzę, to być może szybciej łatwiej byłoby konstruować roboty. Yann leCun (twórca sieci konwolucyjnych) proponuje architekturę Jepa, która miałaby naśladować ludzkie procesy kongitywne - ale co z tego wyjdzie - nie wiadomo. Na razie AI to bardziej eksplorowanie architektury transformerów, która nie wiadomo dlaczego dokładnie działa.
Ale że co? Heurystyk się nie używa? Oczywiście że używa np. Monte Carlo do obliczeń, cały data science to jedna wielka heurystyka. Nie zawsze potrzebna nam jest super dokładna odpowiedź, czasem wystarczy rozwiązanie przybliżone (np. lokalne minimum funkcji zamiast globalnego).
Gry takie jak go czy szachy mają że tak powiem "pełną wiedzę o świecie". Jeżeli mamy niepełną wiedzę o świecie (co dzieje się zazwyczaj) to błędy będą popełniane i tutaj właśnie potrzebne są emocje, Post factum można powiedzieć że inna decyzja była bardziej racjonalna, ale jeżeli mamy do wyboru dwie równie racjonalne decyzje a nie wiemy jak sytuacja dokładnie wygląda, to kierujemy się emocją. Poza tym emocje są potrzebne w tego rodzaju sytuacjach:A dlaczego popełnianie błędów miałoby być związane z emocjami? Jasne, negatywna reakcja emocjonalna jest bezpośrednio powiązana z błędami, ale tak naprawdę można jej uniknąć i przyjąć negatywną informację zwrotną "na sucho". A przynajmniej tak potrafią algorytmy. ....
Potrzebne są metody śledzenia na jakiej podstawie są takie a nie inne odpowiedzi udzielana. W tym celu trzeba by mieć jakieś abstrakty obiektów świata rzeczywistego i ich interakcji. Rozumiem że taka odpowiedź mogłaby wyglądać np. tak: ponieważ zostałem wcześniej nauczony że to i to, to obiekt X skojarzył mi się z tym i z tym. Póki co, mamy potwierdzenie że wychwytywanie statystycznych zależności w tekście może prowadzić do mądrze brzmiących i często właściwych odpowiedzi. Ale nie możemy temu zaufać w pełni. Ale ludziom też nie możemy zaufać w pełni. Natomiast myślę że poznanie ludzkiego sposobu myślenia pozwoliłoby na rozwój takuch technik śledzenia jak LLM-y udzielają odpowiedzi (np. jak to chce robić leCun w projekcie Jepa).Za to posiadanie kompletnej wiedzy na ten temat może nie wnieść prawie nic do rozwoju AI, dlatego że "sztuczne sieci neuronowe" nie mają zbyt wiele wspólnego z tym, jak działają neurony biologiczne (potencjał czynnościowy, neuroprzekaźniki, neuroplastyczność i te wszystkie cechy związane z ich biologiczną naturą). To byłaby ślepa uliczka, żeby konstruować algorytmy na tej podstawie, znacznie lepiej sprawdzają się same obliczenia.
Polskie czołgi pod Kurskiem strzelają do Koreańczyków północnych. Niet analoga w mirze. Nie wiem czy umysł SI to ogarnie, wszak to są prawdziwe szachy 5d, ale świat to ma trochę polewkę z Rosji, choć być może właśnie ten kto leży na podłodze i turla się ze śmiechu jest zaszachowany. Więcej info w moim temacie o hegemoniach.tonerek pisze: 25 paź 2024, 19:04 Mocna gospodarka pozwoli szybko odbudować klasyczny arsenał wojskowy, a posiadanie zasobów broni masowego rażenia szachuje przeciwnika - co zresztą widać np. po Rosji która pomimo że ma duże zasoby broni jądrowej ma gospodarkę na poziomie powiedzmy Włoch.
Tak, ale te rozwiązania przybliżone to nadal operacja matematyczna. Minimum funkcji było chyba na matmie już w liceum. Monte Carlo to zwykłe prawdopodobieństwo (z losowaniem). Też było w liceum. A data science to jedna wielka... statystyka. Która z założenia ma dawać przybliżony obraz rzeczywistości, np. ignorując obserwacje odstające i tzw. dźwignie.tonerek pisze: 25 paź 2024, 19:04Ale że co? Heurystyk się nie używa? Oczywiście że używa np. Monte Carlo do obliczeń, cały data science to jedna wielka heurystyka. Nie zawsze potrzebna nam jest super dokładna odpowiedź, czasem wystarczy rozwiązanie przybliżone (np. lokalne minimum funkcji zamiast globalnego).
Nadal nie wiem, gdzie tu jest miejsce na potrzebną rolę emocji. Przy niepełnej wiedzy o świecie (fakt, że zawsze poza systemem zamkniętym taka sytuacja ma miejsce), błędy popełniane są przez brak tej wiedzy i zgadywanie. Jeśli ktoś będzie musiał zgadnąć (np. w 1 z 10) odpowiedź na zadane pytanie, to z pewnością mogą mu pomóc heurystyki, ale emocje już niekoniecznie. Jest to broń obosieczna - zbyt duży lęk może paraliżować zawodnika, a zbyt duża pewność siebie prowadzić do zbyt ryzykownych zachowań w grze. Same problemy.tonerek pisze: 25 paź 2024, 19:04Gry takie jak go czy szachy mają że tak powiem "pełną wiedzę o świecie". Jeżeli mamy niepełną wiedzę o świecie (co dzieje się zazwyczaj) to błędy będą popełniane i tutaj właśnie potrzebne są emocje, Post factum można powiedzieć że inna decyzja była bardziej racjonalna, ale jeżeli mamy do wyboru dwie równie racjonalne decyzje a nie wiemy jak sytuacja dokładnie wygląda, to kierujemy się emocją.
Dlaczego? Taki bot musiał zostać zaprogramowany w sposób "zawsze ustępuj". Gdyby było odwrotnie, czyli na zasadzie "nigdy nie ustępuj", mogłoby co prawda dojść do odwrotnej sytuacji, czyli przepychania się do przodu, ale w jakimś sensie jest to "sukces ewolucyjny".
Co prawda AI też kosztuje, jak każda infrastruktura informatyczna, ale czym są te koszty przy infrastrukturze "analogowej"? Można też oczywiście zniszczyć nośniki danych, zakłócić połączenia, złamać hasła itd., ale jest to jednak znacznie trudniejsze niż zwykłe spowodowanie szkód pozacyfrowych.tonerek pisze: 25 paź 2024, 19:04Więc nie wiem czy to jest najlepszy pomysł pakować nie wiadomo ile pieniędzy w technologie wojskowe.
Tego już prawie nie ma. Są tam dwie "ścieżki": neuro i algorytmiczna. Neuro przeszła do biologii, a ta druga do informatyki. Cieszy mnie to, bo takimi trudnymi zagadnieniami powinni zajmować się specjaliści od nauk ścisłych, a nie ludzie z bazowym wykształceniem filozoficznym.