Umjetna inteligencija
OKok evo <iframe width="1261" height="719" src="https://www.youtube.com/embed/QO5plxqu_Yw" title="AI’s Dirty Little Secret" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin"></iframe>
Bez cicka, ali postoji tja problem-paradox, AI ne bi trebala raditi tako dobro kao sto se cini...
I gdje je kraj tj "plato" (clipping, fah idiot bias ukratko)
<iframe width="1261" height="719" src="https://www.youtube.com/embed/xm1B3Y3ypoE" title="Is the Intelligence-Explosion Near? A Reality Check." frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin"></iframe>
Bez cicka, ali postoji tja problem-paradox, AI ne bi trebala raditi tako dobro kao sto se cini...
I gdje je kraj tj "plato" (clipping, fah idiot bias ukratko)
<iframe width="1261" height="719" src="https://www.youtube.com/embed/xm1B3Y3ypoE" title="Is the Intelligence-Explosion Near? A Reality Check." frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin"></iframe>
Ovo je po meni realan opis trenutne situacije vezane uz Ai/LLM
Bubble!
<iframe width="1263" height="720" src="https://www.youtube.com/embed/YDXjTaQkZHc" title="Is AI A Bubble?" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin"></iframe>
Ali istovremeno revolucija, jer ce dosta profesija koristiti ovaj alat i mnogi ce izgubiti posao, no kao i uvijek, regrupirat cemo se i idemo dalje!
Vezano uz AGI, ovo je takodjer dobar primjer odlicnog testa koji beats turing test by a long shot!
https://youtu.be/YDXjTaQkZHc?t=619
Bubble!
<iframe width="1263" height="720" src="https://www.youtube.com/embed/YDXjTaQkZHc" title="Is AI A Bubble?" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin"></iframe>
Ali istovremeno revolucija, jer ce dosta profesija koristiti ovaj alat i mnogi ce izgubiti posao, no kao i uvijek, regrupirat cemo se i idemo dalje!
Vezano uz AGI, ovo je takodjer dobar primjer odlicnog testa koji beats turing test by a long shot!
https://youtu.be/YDXjTaQkZHc?t=619
Nešto točno, nešto netočno ali dobar zaključak.
Npr. dobro kaže da sam spomen "AI"-a i odmah ulaganja, lova, bez da itko zna išta o ičemu. I kad kaže da LLM-ovi i AGI vrlo vjerojatno nemaju veze sa vezom. Da LLM pristup možda uopće nije pristup kojim ćemo dobiti AGI. Rekao bih da je to 100% slučaj. Ne može AGI postojati bez interakcije sa svijetom (koju LLM nema).
No, to što LLM možda nije uopće povezan sa nekim budućim AGI, svaki pristup je data point. Znati da se nešto ne može na način A je koristan podatak koji pomaže da se dođe do rješenja, tako da je dobro ulagati u danji razvoj LLM-ova i ostalih arhitektura. Em je SADA ovakvo kakvo je, korisno, em daje informacije za budućnost.
S druge strane skroz krivo kaže da sistemi koje smo do sada napravili znaju samo ono što su naučeni. To nije točno. Postoje AI sistemi koji kroz reinforcement proces bez da im se kaže IŠTA nauče ne samo stvari koje ih nismo učili (davao sam tu primjere) već i stvari za koje ljudi niti ne znaju, misle da su nemoguće ili misle da nisu dobre kao što jesu.
Sitnice koje na kraju nisu niti previše bitne za samo pitanje, da li je trenutno stanje bubble ili ne.
Ne znamo budućnost, ne znamo da li ćemo ikada napraviti AGI i ako hoćemo da li će ovo što radimo sada biti dio toga, ali to je ok. Puno velikih otkrića se bazira na hrpi malih nepovezanih samih za sebe nebitnih koraka. Možda su trenutni LLM-ovi još jedan takav nebitni korak.
A to da li je trenutna situacija bubble? To svakako je. Čim se lova ulaže bez kakvog znanja, to je bubble i to je svakako trenutna situacija.
Npr. dobro kaže da sam spomen "AI"-a i odmah ulaganja, lova, bez da itko zna išta o ičemu. I kad kaže da LLM-ovi i AGI vrlo vjerojatno nemaju veze sa vezom. Da LLM pristup možda uopće nije pristup kojim ćemo dobiti AGI. Rekao bih da je to 100% slučaj. Ne može AGI postojati bez interakcije sa svijetom (koju LLM nema).
No, to što LLM možda nije uopće povezan sa nekim budućim AGI, svaki pristup je data point. Znati da se nešto ne može na način A je koristan podatak koji pomaže da se dođe do rješenja, tako da je dobro ulagati u danji razvoj LLM-ova i ostalih arhitektura. Em je SADA ovakvo kakvo je, korisno, em daje informacije za budućnost.
S druge strane skroz krivo kaže da sistemi koje smo do sada napravili znaju samo ono što su naučeni. To nije točno. Postoje AI sistemi koji kroz reinforcement proces bez da im se kaže IŠTA nauče ne samo stvari koje ih nismo učili (davao sam tu primjere) već i stvari za koje ljudi niti ne znaju, misle da su nemoguće ili misle da nisu dobre kao što jesu.
Sitnice koje na kraju nisu niti previše bitne za samo pitanje, da li je trenutno stanje bubble ili ne.
Ne znamo budućnost, ne znamo da li ćemo ikada napraviti AGI i ako hoćemo da li će ovo što radimo sada biti dio toga, ali to je ok. Puno velikih otkrića se bazira na hrpi malih nepovezanih samih za sebe nebitnih koraka. Možda su trenutni LLM-ovi još jedan takav nebitni korak.
A to da li je trenutna situacija bubble? To svakako je. Čim se lova ulaže bez kakvog znanja, to je bubble i to je svakako trenutna situacija.
NAime da se nadovezem na ovaj stari post, ovaj tip ima odlican video, i kvalitetno vidi trenutnu i buducu situaciju, razumije populacijske piramide iz kojih mozes iscitati dosta informacija (to sam shvatio zvacuci podatke za vrijeme pandemije) ocito je da je o tome razmisljao dosta dugo za razliku od Muska koji je jednostavno dovoljno inteligentan da nije trebao previse o tome razmiljati i dosao do ispravnog zakljucka.zega je napisao/la:Jos jedan koji goovori o populaciji, linkao sam vec prije jedan video na temu populacije u postu Musk vs Gates, ali ovdje Musk pokazuje koliko je promisljeniji od Gatesa u ovom specificnom segmentu:
<iframe width="640" height="480" src="https://www.youtube.com/embed/9IauaPnBVd4" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture"></iframe>
Elon
Naime population collapse neizbjezno galopira, kao one gompertzove spice za kovida kad se broj slucajeva zaleti i onda prelomi jednakom dinamikom padne!
Samo gledajuci ljudsku populaciju to ce biti katastrofa (i da vremeski odsjecak je malo duzi ali kuzi se sto je sljedece!
<iframe width="1255" height="480" src="https://www.youtube.com/embed/NIlNK9auG0k" title="Recent Sawmill Closures Foreshadow a Larger Problem" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin"></iframe>
Odličan tekst.
https://mreza.bug.hr/tehnologije/umjetn ... cija-42429
https://mreza.bug.hr/tehnologije/umjetn ... cija-42429
Koliko je meni poznato, nitko ne zna kako GPT generira odgovore, ni njegovi tvorci.većina korisnika počela je miješati davanje odgovora s razmišljanjem o odgovorima.
Dominantni oblici UI-ja u današnjem svijetu su generativni, što znači da stvaraju rezultate, a proces kojim ih stvaraju je statistika, ne razmišljanje.
...
Èudo generativnih alata nije u tome da misle i analiziraju, već da mogu dati toliko dobre rezultate samo industrijskim skaliranjem statističkih pravila. No, ljudi misle da umjetna inteligencija misli kao i oni.
...
Dok tražilice nastoje povezati korisnike s točnim odgovorima na Internetu, GPT nastoji ih predvidjeti (možda je bolje reći pogoditi). No, upravo riječ umjetna u njenom nazivu predlaže da su inteligencija i razmišljanje postignuti. Puno bolji i točniji naziv bio bi da je usvojen naziv prividne inteligencije, jer algoritmi postižu privid, a ne stvarnu umjetnu inteligenciju. A upravo je privid ključ.
Odgovori nisu rezultat statistike već MODELA odnosno "neuronskih veza" koje su nastale treniranjem u kojem je cilj statistički predvidjeti slijedeći token.
Tako sam to ja shvatio i to mi ima smisla.
Užasno me živciralo objašnjenje da su odgovori generirani statističkim predviđanjem slijedećeg tokena.
Ali ide lagano prvi pravi exploit, osim vec poznatog outputa koji je pomaknut sa losim inputom...
Ovj vuce korisnicke informacije van...navodno je vec sredjeno
https://arstechnica.com/security/2024/0 ... n-channel/
Ovj vuce korisnicke informacije van...navodno je vec sredjeno
https://arstechnica.com/security/2024/0 ... n-channel/
Čini se da im je razum na niskim granama, znači sva čuda koja vidimo verbal uz AI su u gustoći podataka, i obradi podataka.
I predikcije uz AGI su jasne količina energije je luda i sve skupa nije baš održivo, ako je netko kukao vezano uz crypto mining, ovo je puno gore
https://arstechnica.com/ai/2024/10/llms ... s-suggest/
I predikcije uz AGI su jasne količina energije je luda i sve skupa nije baš održivo, ako je netko kukao vezano uz crypto mining, ovo je puno gore
https://arstechnica.com/ai/2024/10/llms ... s-suggest/
Ja iskreno ne kužim ta istraživanja.
Kaže:
Istražuje se nešto za što se zna od samog teoretskog zamišljanja da nije tako. Kao da teoretski zamislimo silikonski čip, napravimo ga i onda imamo istraživanje koje pokazuje da u tom čipu imamo silikon te da nema bioloških živčanih stanica. Ne znam, meni je to čudno. Što se tu ustvari istražuje?
Koliko puta smo do sada probali koristiti npr. ChatGPT u matematici, i dobivali nesuvisle brojke? Tonu!
Kaže:
Pa LLM-ovi nikada nisu niti imali "razumijevanje". Znamo to jako dobro, od trenutka kad smo ih zamislili na papiru, prije nego smo istrenirali jedan jedini model. Znamo da se radi o najobičnijem: "nastavi slijedeću riječ koja je statistički najvjerojatnija nakon ove sada" sistemu.The results of this new GSM-Symbolic paper aren't completely new in the world of AI research. Other recent papers have similarly suggested that LLMs don't actually perform formal reasoning and instead mimic it with probabilistic pattern-matching of the closest similar data seen in their vast training sets.
Istražuje se nešto za što se zna od samog teoretskog zamišljanja da nije tako. Kao da teoretski zamislimo silikonski čip, napravimo ga i onda imamo istraživanje koje pokazuje da u tom čipu imamo silikon te da nema bioloških živčanih stanica. Ne znam, meni je to čudno. Što se tu ustvari istražuje?
Koliko puta smo do sada probali koristiti npr. ChatGPT u matematici, i dobivali nesuvisle brojke? Tonu!
Problem je opisan u ovom videu za one koji ne zele citati papir, i dodan je kontekst.
<iframe width="931" height="524" src="https://www.youtube.com/embed/tTG_a0KPJAc" title="Apple DROPS AI BOMBSHELL: LLMS CANNOT Reason" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin"></iframe>
Upravo tako
Evolucija.
<iframe width="931" height="524" src="https://www.youtube.com/embed/tTG_a0KPJAc" title="Apple DROPS AI BOMBSHELL: LLMS CANNOT Reason" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin"></iframe>
Upravo tako
Znaci pokusavaju dokucit zasto i kako taj problem identificirati i rijesiti...Koliko puta smo do sada probali koristiti npr. ChatGPT u matematici, i dobivali nesuvisle brojke? Tonu!
Evolucija.
Slažem se da će se morati malo prilagoditi modele...
U međuvremenu Ai poprima neke ljudske značajke, tipa halucinacije/izmišljanja https://apnews.com/article/ai-artificia ... 6c4c9bbb14
Ili ADHD https://futurism.com/the-byte/claude-ai ... onstration pa sve do predatorskog ponašanja koje je dovelo do samoubojstva tinejdžera https://news.sky.com/story/mother-says- ... t-13240210
Huh
U međuvremenu Ai poprima neke ljudske značajke, tipa halucinacije/izmišljanja https://apnews.com/article/ai-artificia ... 6c4c9bbb14
Ili ADHD https://futurism.com/the-byte/claude-ai ... onstration pa sve do predatorskog ponašanja koje je dovelo do samoubojstva tinejdžera https://news.sky.com/story/mother-says- ... t-13240210
Huh
Haluciniranje može biti i super i ful loše odjednom. Naime, haluciniranje može biti dobro kod grafičkih modela dovodi do toga da sam izmisli neke super cool stvari što će i kako staviti na završni rezultat, ili kad treba izmisliti neku priču na random, dok s druge strane kad želiš nešto specifično i točno onda ne valja.
Kod novijih grafičkih modela koji su "točniji" i "bolji u shvaćanju teksta koji im se šalje" ta halucinacija je sve slabija i slabija i nekad mi je žao da ju se ne može povećati. I tu ne mislim na halucinaciju u obliku šarenih boja i šta ja znam šta, već u obliku "mašte".
Npr. kad mu kažeš: "cute ugly" (jedan od mojih omiljenih promptova) i on mora napraviti nešto od toga.
Kod novijih grafičkih modela koji su "točniji" i "bolji u shvaćanju teksta koji im se šalje" ta halucinacija je sve slabija i slabija i nekad mi je žao da ju se ne može povećati. I tu ne mislim na halucinaciju u obliku šarenih boja i šta ja znam šta, već u obliku "mašte".
Npr. kad mu kažeš: "cute ugly" (jedan od mojih omiljenih promptova) i on mora napraviti nešto od toga.
zega je napisao/la:sve do predatorskog ponašanja koje je dovelo do samoubojstva tinejdžera https://news.sky.com/story/mother-says- ... t-13240210
Huh
Onda su odgovorni roditelji a ne chat bot.Tvrde da Sewell, "kao i mnoga djeca njegove dobi, nije imao zrelost ili mentalni kapacitet da shvati da C.AI bot, u oblik Daenerys, nije bio stvaran".
https://x.com/gabeElbling/status/1850220333631943068
Kako izgleda i što radi NN na jednom od jednostavnijih primjera, prepoznavanja ručno pisanih brojeva.
Kako izgleda i što radi NN na jednom od jednostavnijih primjera, prepoznavanja ručno pisanih brojeva.