De Beurs vandaag part 2
TIP
Re: De Beurs vandaag part 2
De beurs heeft altijd gelijk. Dat wilt niet zeggen dat er morgen geen crash zou kunnen ontstaan. Maar voorlopig hebben de oorlogen de beurs enkel maar omhoog gestuwd. De S&P500 staat opnieuw op 4% in de plus.
Re: De Beurs vandaag part 2
Voorlopig valt dat allemaal wel mee, grotere energie afnemers werken met termijncontracten, die betalen nog niet de huidige marktprijs. Voor contract hernieuwing is men aan het afwachten, men gaat er nog steeds van uit dat dit maar een tijdelijk fenomeen is. De enigen die direct de volle pot betalen zijn de consumenten aan de pomp en ook die liggen er niet echt wakker van gezien het zo goed als ongewijzigd auto gebruik. Het zal pas gaan wegen indien dit nog maanden aanhoudt, er zal dan een noodgedwongen rush op energie ontstaan na het huidig uitstellen, pas dan zal de schaarste de prijs nog verder opdrijven. Europa bv zou nu al volop zijn gasreserves voor volgende winter moeten aanvullen, wordt allemaal wat uitgesteld of in zeer beperkte mate gedaan. Tevens zit de periode van het jaar mee, de zomer komt er aan op het noordelijk halfrond, energie consumptie is dan wat lager waardoor de verminderde aanvoer wat minder weegt.Charlesvdw schreef: ↑22 april 2026, 21:58 Moet zeggen dat ik de reactie van de beurzen niet begrijp. Is het niet zo dat - zelfs al stopt morgen de oorlog in Iran - er nog maanden schade gaat zijn aan de economie ?
Dat moet toch wegen op de rendabiliteit van de bedrijven.
- MeneerParmentier
- Sr. Member

- Berichten: 474
- Lid geworden op: 06 aug 2024
- Contacteer:
Re: De Beurs vandaag part 2
Op korte termijn is er totaal geen verband tussen de beurs en de economie. Er is een verband tussen bedrijfswinsten en de beurs, maar slechts op lange termijn. De leukste vergelijking is deze: "The relationship between the economy and the stock exchange is like a man walking his dog. The man walks slowly, the dog runs back and forth". Een uitspraak van Andre Kostolany.Charlesvdw schreef: ↑22 april 2026, 21:58 Moet zeggen dat ik de reactie van de beurzen niet begrijp. Is het niet zo dat - zelfs al stopt morgen de oorlog in Iran - er nog maanden schade gaat zijn aan de economie ?
Dat moet toch wegen op de rendabiliteit van de bedrijven.
Re: De Beurs vandaag part 2
Nadat er eerst een correctie was natuurlijk.. en duidelijk gestuurd…
Elect a clown, expect a circus. Make America Go Away. En neem die Romeinse Pipo ineens ook maar mee.
Re: De Beurs vandaag part 2
Heeft er iemand AMD?
Re: De Beurs vandaag part 2
Omdat het hier af en toe ook over AGI gaat. (ref: Hands-On Large Language Models: Language Understanding and Generation
Engelstalige uitgave Jay Alammar (auteur), Maarten Grootendorst (auteur) ISBN-13 978-1098150969)
In een notendop samengevat hoe een LLM Large Language Model te werk gaat.
1. De input tekst bvb "Hoeveel is 1 + 1" wordt opgesplitst in tokens (stukken tekst) - in dit geval 5 tokens
2. Elk token krijgt een tokenID - in dit geval 5 tokenIDs - de lijst van alle mogelijke tokens is de woordenschat van het model - bvb 128.000.
Tokens kunnen delen van een woord zijn, het zijn niet noodzakelijk volledige woorden.
3. Elk token krijgt een statische embeddingsvector. Deze vector heeft bvb 4096 gewichten die de basisbetekenis van het individuele token weergeven. Bvb is het een werkwoord? over welk domein gaat het? etc etc. De basisgewichten voor de ganse woordenschat van 128.000 tokens zijn bepaald tijdens het trainen van het model.
4. Aan elke token wordt de positioneringinfo in de specifieke input-zin toegevoegd.
5.Het specifieke verband tussen de tokens in de zin wordt bepaald. Hoe kijken de tokens in deze specifieke context/zin naar mekaar. Via het mechanisme bekend als self-attention. De waarden in de embeddingsvector worden aangepast. Dit gebeurt ook obv van gewichten die tijdens het trainen van het model bepaald zijn.
6.De feitenkennis/wereldkennis mbt tot elk token in de zin wordt aangevuld in de vector. Dwz dat de waarden in de embeddingsvector opnieuw worden aangepast. Dit gebeurt ook opnieuw obv gewichten die tijdens het trainen van het model bepaald zijn. Het eindresultaat is een contextuele embeddingsvector. Deze stap is ook gekend als Feed Forward FFD.
7.Voor elk token van de volledige woordenschat (128.000) wordt nu berekend wat de kans is dat dit token het volgende token in de zin zal zijn. En het token met de hoogste kans wordt weerhouden. In dit geval wordt dat dus "2".
Dus het model doet geen berekening van 1+1 = 2 maar voorspelt dat na "1+1" "2" volgt obv van de miljoenen voorbeelden in de trainingsdata.
Een model van vandaag heeft meer dan 1miljard gewichten. De gewichten van Gemini en GPT zijn bedrijfsgeheim. Maar los daarvan, zelfs al zou je ze kunnen bemachtigen, dan sta je wellicht nog niet ver. Want je weet niets over de gebruikte trainingsdata en testdata, je weet ook niets over de specificiteiten van het model.
Bij gelegenheid zullen we nog wat dieper ingaan op self-attention en feed forward. Deze stappen 5. en 6. zijn bekend als Transformer (Generative Pretrained Transformer GPT).
Je kan een en ander proberen volgen door de nodige vragen te stellen/stappen op te vragen aan het LLM zelf.
Engelstalige uitgave Jay Alammar (auteur), Maarten Grootendorst (auteur) ISBN-13 978-1098150969)
In een notendop samengevat hoe een LLM Large Language Model te werk gaat.
1. De input tekst bvb "Hoeveel is 1 + 1" wordt opgesplitst in tokens (stukken tekst) - in dit geval 5 tokens
2. Elk token krijgt een tokenID - in dit geval 5 tokenIDs - de lijst van alle mogelijke tokens is de woordenschat van het model - bvb 128.000.
Tokens kunnen delen van een woord zijn, het zijn niet noodzakelijk volledige woorden.
3. Elk token krijgt een statische embeddingsvector. Deze vector heeft bvb 4096 gewichten die de basisbetekenis van het individuele token weergeven. Bvb is het een werkwoord? over welk domein gaat het? etc etc. De basisgewichten voor de ganse woordenschat van 128.000 tokens zijn bepaald tijdens het trainen van het model.
4. Aan elke token wordt de positioneringinfo in de specifieke input-zin toegevoegd.
5.Het specifieke verband tussen de tokens in de zin wordt bepaald. Hoe kijken de tokens in deze specifieke context/zin naar mekaar. Via het mechanisme bekend als self-attention. De waarden in de embeddingsvector worden aangepast. Dit gebeurt ook obv van gewichten die tijdens het trainen van het model bepaald zijn.
6.De feitenkennis/wereldkennis mbt tot elk token in de zin wordt aangevuld in de vector. Dwz dat de waarden in de embeddingsvector opnieuw worden aangepast. Dit gebeurt ook opnieuw obv gewichten die tijdens het trainen van het model bepaald zijn. Het eindresultaat is een contextuele embeddingsvector. Deze stap is ook gekend als Feed Forward FFD.
7.Voor elk token van de volledige woordenschat (128.000) wordt nu berekend wat de kans is dat dit token het volgende token in de zin zal zijn. En het token met de hoogste kans wordt weerhouden. In dit geval wordt dat dus "2".
Dus het model doet geen berekening van 1+1 = 2 maar voorspelt dat na "1+1" "2" volgt obv van de miljoenen voorbeelden in de trainingsdata.
Een model van vandaag heeft meer dan 1miljard gewichten. De gewichten van Gemini en GPT zijn bedrijfsgeheim. Maar los daarvan, zelfs al zou je ze kunnen bemachtigen, dan sta je wellicht nog niet ver. Want je weet niets over de gebruikte trainingsdata en testdata, je weet ook niets over de specificiteiten van het model.
Bij gelegenheid zullen we nog wat dieper ingaan op self-attention en feed forward. Deze stappen 5. en 6. zijn bekend als Transformer (Generative Pretrained Transformer GPT).
Je kan een en ander proberen volgen door de nodige vragen te stellen/stappen op te vragen aan het LLM zelf.
Laatst gewijzigd door chesini op 25 april 2026, 15:13, 7 keer totaal gewijzigd.
- VincentVega
- VIP member

- Berichten: 1140
- Lid geworden op: 21 jan 2022
Re: De Beurs vandaag part 2
Het is goed weer … de zon schijnt … misschien moet je eens even buiten een frisse neus gaan halen 
Schoonheid vinden in de lelijkheid der dingen
Re: De Beurs vandaag part 2
Het is maar wat je onder (artificiële) intelligentie verstaat. Natuurlijk had chesini beter eerst uitgelegd wat de verschillen zijn tussen de verschillende AI's. Het LLM model waaronder ChatGPT is er één van en eigenlijk enkel maar waardevol als human interface om te communiceren met fact based AI's. De hybride AI's (een LLM in combinatie met fact based AI's) zijn veel interessanter, als je daar aan vraagt wat is 1+1 gaan die niet het meest waarschijnlijke antwoord genereren maar effectief de correcte berekening maken.
Re: De Beurs vandaag part 2
Ik probeer het te schetsen.
AI is een tak van de informatica die zich bezighoudt met het bouwen van systemen die taken kunnen uitvoeren waarvoor normaal gesproken menselijke intelligentie nodig is.
AIMA
Het is een ganse wetenschap op zich geworden. Men maakt gebruik van talloze mechanismes: algoritmes, waarschijnlijkheidsberekeningen, optimalisatieberekeningen (bvb vindt het optimum van een kostfunctie zoals het aantal afgelegde km's), feedback-terugkoppelinglussen, matrixvermenigvuldiging, parallelverwerking, differentiaalvergelijkingen ea ea ea. Laat het ons de toolbox noemen.
Een goed beeld geeft AIMA Artificial Intelligence a Modern Aproach ISBN-13: 978-0134610993. Dit is de bijbel met een van de beste overzichten van de toolbox. Het is eerder de neerslag van de klassieke AI, dwz de AI gebaseerd op wiskunde en algoritmes en waar het meestal nog mogelijk is te bewijzen dat het algoritme een optimum heeft bereikt. Men noemt het daarom ook de logische AI, de rule-based AI.
Nvdr: AIMA is zware kost. Dat is typisch iets voor een gans semester van een master. 1151 pagina's.
De AI-revolutie
Tot 2012 was er evolutie, maar niemand lag er echt wakker van. Een tak aan de boom deep neural networks sliep namelijk verder oa omdat men er niet in geloofde, men geen krachtige chips had ea ea. Tot in 2012 AlexNet de ImageNet competitie (beeldherkenning) afgetekend won. AlexNet is een neural netwerk.
Sindsdien is AI geëxplodeerd.
Een neural netwerk dankt zijn naam aan de hersenen en hun werking.
Knopen. Het bestaat uit honderden lagen van knopen. In 1 laag zitten tot 12.000 knopen. Dwz een paar miljoen (2.000.000) knopen in totaal. Op zich nog niets om te panikeren. De intelligentie van een knoop is ook beperkt. Bvb een S-functie: S(input) = 1/(1+e-input). Dat is dus een S-curve tussen 0 en 1.
Verbindingen. De knopen in de lagen zijn met elkaar verbonden. Elke verbinding heeft een gewicht. GPT4 heeft er 1.700miljard. Deze gewichten zijn de intelligentie van het model.
De gewichten worden geoptimaliseerd met enorme hoeveelheden trainingsdata. De kostfunctie of de errorfunctie wordt geoptimaliseerd zodat de kost/fout minimaal is. Dit minimaliseren is een wiskundig algoritme dat in kleine stapjes werkt om zo het optimum te vinden.
Het resultaat na training is een neural netwerk dat goed is in beeldherkenning, in taalherkenning ea. Het netwerk herkent patronen en dat komt voor ons over als intelligentie.
De neural netwerks zijn nu zo goed geworden dat ze de menselijke intelligentiescores benaderen en zelfs overtreffen. Dit is enkel mogelijk geweest omdat men afstapte van de klassieke theoretische logisch-sluitende AI naar neurale netwerken. En het gebruik van processorkaarten die parallelprocessing ondersteunden. Dwz Nvidia GPU's. Dus een geluk dat Jensen Huang bleef geloven in parallelprocessing.
Conclusie: neural networks werken, we staan nog maar aan het begin (gezien de doorbraak pas kwam in 2012), AI is geen hype.
Waarom is mythos van Anthropic zo gevaarlijk? Het is een LLM (Large Language Model) zoals ChatGPT maar is getraind op het vinden van securitybugs. Maar het kan ook een stappenplan uitvoeren. En de resultaten van elke stap weer meenemen naar de volgende. En het kan complexe IT-architectuurschema's lezen en interpreteren. Het leert ook obv de softwarecode, kan het verschil in code tussen voor en na de bugfixing distilleren en weet dus wat de bug was en hoe die gefixt werd, het leert uit documenten van beveiligingslekken, ea.
Het model kan zichzelf zelfs trainen. Het voert een stap uit en evalueert dan of het een securitylek heeft gevonden of niet, en indien niet, probeert een andere strategie/stap.
Het gedraagt zich maw als een heel gevaarlijke hacker.
Bij het testen vond mythos duizenden kritische bugs.
Wat mbt bedrijven die niet mee zijn in AI? Hardware- en softwarebedrijven die niet mee zijn, gaan moeilijke tijden tegemoet. Google is mee, Meta is mee, Microsoft zit wat tussen de wal en het schip, Apple is niet mee. Nvidia is uiteraard mee met GPU, ook ARM met zijn AGI CPU.
Andere sectoren staan eveneens voor grote uitdagingen. Bvb medische beeldvorming. Elke scanner zal gekoppeld worden aan diagnostische beeldherkenning die uit de beelden ziektepatronen zal aangeven als er zijn. De arts blijft natuurlijk in de lead.
Bij deze.
Laatst gewijzigd door chesini op 26 april 2026, 12:47, 2 keer totaal gewijzigd.
Re: De Beurs vandaag part 2
Dat klopt uiteraard. Ik focuste op de neural networks zelf. AIMA beschrijft quasi alle bestaande fact-based, logica-based systemen met zero foutmarge. Die komen echter dikwijls in de problemen bvb mbt het doorzoeken van alle bestaande oplossingen. Ze scalen niet goed.vortex schreef: ↑26 april 2026, 10:59Het is maar wat je onder (artificiële) intelligentie verstaat. Natuurlijk had chesini beter eerst uitgelegd wat de verschillen zijn tussen de verschillende AI's. Het LLM model waaronder ChatGPT is er één van en eigenlijk enkel maar waardevol als human interface om te communiceren met fact based AI's. De hybride AI's (een LLM in combinatie met fact based AI's) zijn veel interessanter, als je daar aan vraagt wat is 1+1 gaan die niet het meest waarschijnlijke antwoord genereren maar effectief de correcte berekening maken.
De combinatie van LLM's en fact-based is een van de ideale oplossingen.
Bvb AlphaGo van Google Deepmind. Voorspelt de voor de hand liggende volgende zetten in Go. Dan wordt wiskundig via Monte Carlo Tree Search berekend welke volgende zet het beste resultaat geeft. En verslaat zo de wereldkampioen Go.
Bvb een LLM krijgt een formule in de input. Ipv de uitkomst te raden genereert de LLM de softwarecode (bvb in Phyton) van de formule en wordt de echte waarde berekend.
Ik ben nog andere mechanismes tegengekomen, bvb de uitkomst/output eerste cross-checken tov het web; als trainingsdata je eigen databank van geverifieerde data/documenten/ea gebruiken.
Maw, de hybride systemen lijken de volgende tak aan de AI-boom te worden die gaat exploderen.
Re: De Beurs vandaag part 2
Amai, was zeer interessant maar ik ga me nog wat meer moeten inlezen. Beiden bedankt voor de uitleg!
Re: De Beurs vandaag part 2
Zoals gezegd kan je bvb aan Gemini vragen stellen welke stappen het model volgt. Meestal krijg je een vrij helder antwoord. Best is veel extra vragen te stellen. Zo simpel mogelijk. Dan moet het model zo simpel mogelijk antwoorden.
Bvb: geef mij de inhoud van een bol met straal 33,33cm en geef mij ook alle stappen weer die je uitvoert.
Dan herkent het model de essentie van de vraag, namelijk inhoud berekenen en het object is een bol, de straal is de parameter.
En leidt het model dan de juiste formule af die moet toegepast worden: 4/3 x 𝝅 x r3 omdat deze de allerhoogste waarschijnlijkheid heeft obv de context van de vraag.
Dit wil dus zeggen dat de juiste formule nog steeds voorspeld wordt obv gewichten die zijn vastgelegd bij de training van het model. Ttz bij de training heeft het model heel veel formules gekregen, ook die van de inhoud van een bol. En van zodra de woorden inhoud en bol opduiken in de vraag, is de kans van het antwoord 4/3 x 𝝅 x r3 dus vrijwel 100% - want het model is nu eenmaal zo getraind. De formules zitten als het ware opgeslagen in de miljarden getrainde gewichten van het model.
De uitkomst van de formule zelf wordt echter niet meer voorspeld maar het model genereert Phyton-code (Phyton-script) en voert die uit:
<code>
import math
# Ik definieer de variabelen op basis van jouw vraag
r = 33.33
# Ik pas de formule toe in computertaal
volume = (4/3) * math.pi * (r**3)
print(volume)
En plakt het resultaat dan in het antwoord als een token van het antwoord dat je krijgt.
Je kan zo al zien aankomen dat LLM's het klassieke programmeerwerk volledig gaan overnemen. Want een programmeertaal is ook maar een taal. Een programmeermodel heeft tijdens de training miljarden lijnen code (bvb ganse GitHub) verwerkt en vertaald in gewichten. Plus komt daarbij dat een programmeertaal veel gestructureerder is dan een gesproken taal. Dus het genereren van code verloopt in principe nog makkelijker dan het genereren van gesproken en geschreven taal.
Maar er kunnen uiteraard bugs in optreden. Maar het model, dwz de agent die het model aanstuurt kan de gegeneerde code testen en als die crasht de code automatisch aanpassen tot de crash opgelost is. Net zoals Mythos van Anthropic code voor een security hack genereert en test en aanpast als de hack niet succesvol is en zo uren kan doorgaan.
Voorbeelden van reeds bestaande coderingsmodellen: GPT-4o (OpenAI), Claude 3.5 Sonnet (Anthropic), Gemini 1.5 Pro (Google). Tegen betaling.
De hamvraag die soms opduikt is: werkt dat allemaal wel die neurale netwerken en LLM's? Het antwoord is eenduidig ja. En de gelijkenis met menselijk denken dwz hersenen wordt heel groot. Onze hersenen werken ook, wij stellen ons niet continu de vraag of ze wel werken en waarom ze werken, wij gebruiken ze elke seconde.
Zoals gezegd, we zitten nog maar in de aanloopfase.
Bij deze.

