De Beurs vandaag part 2
TIP
-
the_bishop
- Sr. Member

- Berichten: 444
- Lid geworden op: 12 jan 2014
- Contacteer:
Re: De Beurs vandaag part 2
Er is geen enkele reden waarom de centrale banken de rente zouden verhogen.
Die inflatie is geen gevolg van een hoge vraag of een verhitte economie, maar door disruptie van aanvoerketens.
De VS hebben daar minder last van dan Europa, de groei op jaarbasis blijft hoog, terwijl de arbeidsmarkt afkoelt (grotendeels door AI ontslagen).
Die afkoelende arbeidsmarkt maakt zelfs ruimte voor renteverlagingen ipv verhoging, zowel in de VS als in Europa.
-
the_bishop
- Sr. Member

- Berichten: 444
- Lid geworden op: 12 jan 2014
- Contacteer:
Re: De Beurs vandaag part 2
En terwijl KleineSpaarder loopt te mekkeren dat er in Europa geen groei meer is terwijl de prijzen stijgen omdat Europa zijn energiebeleid niet op orde heeft....
KNALT WALLSTREET NAAR NIEUWE RECORDS !!!
Verse records... weeral maar eens
De Nasdaq knalt voor het eerst ooit door de grens van 25.000 punten !
-
the_bishop
- Sr. Member

- Berichten: 444
- Lid geworden op: 12 jan 2014
- Contacteer:
Re: De Beurs vandaag part 2
Dat wordt morgen weer hard werken voor mij...
met poenscheppen
De schop en troffel staan al klaar...

met poenscheppen
De schop en troffel staan al klaar...

Re: De Beurs vandaag part 2
Omdat het hier af en toe ook over AGI gaat.chesini schreef: ↑25 april 2026, 14:55 Omdat het hier af en toe ook over AGI gaat. (ref: Hands-On Large Language Models: Language Understanding and Generation
Engelstalige uitgave Jay Alammar (auteur), Maarten Grootendorst (auteur) ISBN-13 978-1098150969)
In een notendop samengevat hoe een LLM Large Language Model te werk gaat.
1. De input tekst bvb "Hoeveel is 1 + 1" wordt opgesplitst in tokens (stukken tekst) - in dit geval 5 tokens
2. Elk token krijgt een tokenID - in dit geval 5 tokenIDs - de lijst van alle mogelijke tokens is de woordenschat van het model - bvb 128.000.
Tokens kunnen delen van een woord zijn, het zijn niet noodzakelijk volledige woorden.
3. Elk token krijgt een statische embeddingsvector. Deze vector heeft bvb 4096 gewichten die de basisbetekenis van het individuele token weergeven. Bvb is het een werkwoord? over welk domein gaat het? etc etc. De basisgewichten voor de ganse woordenschat van 128.000 tokens zijn bepaald tijdens het trainen van het model.
4. Aan elke token wordt de positioneringinfo in de specifieke input-zin toegevoegd.
5.Het specifieke verband tussen de tokens in de zin wordt bepaald. Hoe kijken de tokens in deze specifieke context/zin naar mekaar. Via het mechanisme bekend als self-attention. De waarden in de embeddingsvector worden aangepast. Dit gebeurt ook obv van gewichten die tijdens het trainen van het model bepaald zijn.
6.De feitenkennis/wereldkennis mbt tot elk token in de zin wordt aangevuld in de vector. Dwz dat de waarden in de embeddingsvector opnieuw worden aangepast. Dit gebeurt ook opnieuw obv gewichten die tijdens het trainen van het model bepaald zijn. Het eindresultaat is een contextuele embeddingsvector. Deze stap is ook gekend als Feed Forward FFD.
7.Voor elk token van de volledige woordenschat (128.000) wordt nu berekend wat de kans is dat dit token het volgende token in de zin zal zijn. En het token met de hoogste kans wordt weerhouden. In dit geval wordt dat dus "2".
Dus het model doet geen berekening van 1+1 = 2 maar voorspelt dat na "1+1" "2" volgt obv van de miljoenen voorbeelden in de trainingsdata.
Een model van vandaag heeft meer dan 1miljard gewichten. De gewichten van Gemini en GPT zijn bedrijfsgeheim. Maar los daarvan, zelfs al zou je ze kunnen bemachtigen, dan sta je wellicht nog niet ver. Want je weet niets over de gebruikte trainingsdata en testdata, je weet ook niets over de specificiteiten van het model.
Bij gelegenheid zullen we nog wat dieper ingaan op self-attention en feed forward. Deze stappen 5. en 6. zijn bekend als Transformer (Generative Pretrained Transformer GPT).
Je kan een en ander proberen volgen door de nodige vragen te stellen/stappen op te vragen aan het LLM zelf.
Hoe werkt 5. self-attention in LLM's? Zie https://jalammar.github.io/illustrated-transformer/.
§Paragraaf§ Self-Attention in Detail.
De embeddingsvectoren (van elke token/woorddeel van de input) worden door 3 matrices gejaagd: Query, Key, Value. Dit door gewoon te vermenigvuldigen. De QKV-matrices zijn ingevuld tijdens de training van het model. Het resultaat is een vector die de context/betekenis van de inputzin begrijpt.
Zie ook https://www.youtube.com/watch?v=eMlx5fFNoYc met heel visuele uitleg.
Ik vrees dat er geen deftige video of manual bestaat in het Nederlands. Wat we zelf doen, doen we beter zei Gaston Geens. Maar het is tijd dat Gaston eens terug komt om op tafel te kloppen en het ingeslapen Vlaanderen wakker te schudden...