Koopwaardige aandelen
TIP
Re: Koopwaardige aandelen
Jep, buyback uitvoeren is imo geen enkel probleem.jens_dev schreef: ↑6 februari 2026, 20:35$1,3B net cash nu + pak $1,2B FCF in 26 en 27. Toch wel dan héBRT schreef: ↑6 februari 2026, 20:14
Exact, dit bedrijf staat geprijsd alsof het in de afgrond wordt gestort maar de cijfers zeggen iets heel anders. Het was echter wachten op een reactie van het management op de ingestorte koers, en die is er nu gekomen met een zéér ambitieus buy back programma. Eentje dat ze helaas niet met FCF kunnen financieren maar theoretisch wel 50% van de shares mee kunnen vernietigen. Stralend van zelfvertrouwen. Ik kocht alvast bij.![]()
Al is die net cash grotendeels afkomstig van de convertible natuurlijk. Dacht een dikke 1B aan 0% rente tem sep 2030, met conversion price van 210 USD? Ofwel verwatering moest de koers herstellen tegen dan, ofwel schulden terugbetalen natuurlijk.
Ik hoop dat SBC nog wat verder daalt (niet alleen als %sales maar ook nominaal), maar vermoed dat hier sinds uitstap van Starboard minder op gehamerd wordt. Dus die theoretische 50% zal wat lager zijn omdat er nog verwatering gecompenseerd moet worden. Ben benieuwd of men in Q4 ook nog heeft teruggekocht? Wanneer is het vorige programma geëindigd?
edit;
From July 1, 2025 to September 30, 2025, the company has repurchased 1,300,000 shares, representing 2.33% for $175 million. With this, the company has completed the repurchase of 1,946,000 shares, representing 3.49% for $275 million under the buyback announced on February 27, 2025.
Re: Koopwaardige aandelen
Conclusie1: AIMA of ook zgn GOFAI (good old fashion AI) kan de complexiteit en de onzekerheid van de wereld niet aan. Machine Learning, Deep Learning, LLM's zijn noodzakelijk. Ze (dwz ML,DL,LLM's) worden wel volop bijgestuurd.Umi schreef: ↑4 februari 2026, 20:45Dat klinkt als zeer zware lectuurchesini schreef: ↑4 februari 2026, 12:19
Maar intussen is de focus verschoven naar LLM's. Die kunnen wel hallucineren.
Om LLM's beter te begrijpen en te kunnen inschatten tov de GOFAI's worstel ik dus even door de canon AIMA. De eerste 4 hfdstukken van AIMA zijn in elk geval heel soliede. Dat is gebetonneerde wiskundig onderbouwde logica. Maar intussen zijn LLM's the next big thing. Ik zal er nog wel een paar weken over doen (grrr grrr grrr): to LLM or to AIMA, that is the question.
![]()
Ik ben benieuwd naar het verdict binnen enkele weken![]()
Conclusie2: wie denkt dat AI zal verdwijnen of een hype is, zit er kompleet naast. AI is een wetenschap, AI is een vak. Weliswaar in volle evolutie. Maar zal nooit meer teruggedraaid worden.
Conclusie3: huidige producten/software/hardware/processen ea zitten reeds vol AI-toepassingen. Alleen weten we het niet altijd.
Even recapituleren: er is de klassieke AI, beschreven in AIMA (Artificial Intelligence:A Modern Aproach). Van deze kunnen we uitgaan dat ze gebaseerd is op wiskunde, logica, algoritmes ea en dat ze steeds correcte of toch benaderend correcte resultaten zal geven. Klassieke of ook wel GOFAI - Good Old Fashioned AI genoemd.
Het resultaat is ofwel een 100% correct voorspelbare uitkomst (Symbolische AI met logica & algoritmes) of een waarschijnlijkheid (Probalistische AI).
Het grote verschil tussen de klassieke AI uit AIMA en de moderne "Deep Learning" (zoals LLM's) zit in de transparantie:
• AIMA (White Box): Je kunt precies herleiden waarom een beslissingsboom tot een conclusie kwam. Het is een logisch pad.
• Moderne AI (Black Box): Gebaseerd op miljarden parameters in neurale netwerken. De wiskunde erachter (statistiek en calculus) klopt nog steeds, maar het is voor mensen bijna onmogelijk om te zien waarom het model specifiek dat ene antwoord geeft.
Indien men een chip maakt met alle relevante AIMA algoritmes - een zgn universele GOFAI chip - dan zou deze chip:
• vastlopen owv de "Combinatorial Explosion" (de explosie van het aantal mogelijke toestanden)
• vastlopen owv de starheid: eén ontbrekende regel of eén tegenstrijdig feit kan het hele redeneerproces van een universele GOFAI agent doen vastlopen
• niet goed kunnen omgaan met ruis of onzekerheid
Een robottaxi obv een universele GOFAI chip zou op een kruispunt dus onmiddellijk vastlopen.
De moderne AI-wereld is juist weggegaan van de "Universele GOFAI chip" en beweegt naar neurale netwerken omdat die beter zijn in het herkennen van patronen in chaos, iets wat lastig in harde logische regels te vangen is.
Het risico:
In Hoofdstuk 12 introduceert AIMA de onzekerheid. Zodra een model gaat werken met waarschijnlijkheden (P(x)), geeft het een antwoord dat "waarschijnlijk" is, ook als het niet 100% zeker is. Een hallucinatie is in feite een model dat een hoge waarschijnlijkheid toekent aan een onjuist feit.
In Hoofdstuk 21: Deep Learning (Overfitting). Hier wordt het risico fysiek. Deep Learning-modellen leren patronen uit enorme hoeveelheden data. De oorzaak van hallucinatie: Russell en Norvig bespreken hier overfitting. Wanneer een model te complex is, begint het "ruis" in de trainingsdata te zien als een universele waarheid. Het resultaat: Het model 'verzint' een verband dat er in de werkelijkheid niet is. Dit is de fundering van een hallucinatie: het model vertrouwt op een patroon dat niet strookt met de feiten.
In Hoofdstuk 24: Deep Learning for NLP (Transformers) Dit is het "epicentre" van het hallucinatie-risico. Hier worden de Large Language Models en de Transformer-architectuur behandeld. Probabilistische tekstgeneratie: Het model is getraind om het volgende meest logische woord te voorspellen (de zogenaamde likelihood). Waar het misgaat: Russell legt uit dat deze modellen geen intern "wereldmodel" of database van feiten hebben, maar een statistisch model van taal. Als het model een zin begint over een onderwerp waar het weinig data over heeft, zal het de zin afmaken op een manier die grammaticaal en statistisch correct klinkt, maar feitelijk onjuist is.
In Hoofdstuk 25 worden technieken besproken om deze fouten te beperken, zoals RAG (Retrieval-Augmented Generation):
• Retrieval-Augmented Generation (RAG). Retrieval (Ophalen): De vraag van de gebruiker wordt gebruikt om te zoeken in een externe bron (zoals Wikipedia, een database of jouw eigen documenten). Augmentation (Verrijken): De gevonden relevante informatie wordt samen met de oorspronkelijke vraag in de "context window" van het model geplakt. Generation (Genereren): Het model krijgt de instructie: "Gebruik alléén deze tekst om het antwoord te formuleren."
• Fine-tuning met RLHF: (Reinforcement Learning from Human Feedback). Mensen straffen het model af als het liegt, waardoor de "neiging" om te hallucineren wordt onderdrukt.
• Chain-of-Thought (CoT) Prompting: Het model dwingen om stap-voor-stap te redeneren. Dit haalt de nadruk af van "het volgende woord gokken" en legt de focus op de logische consistentie (terug naar de principes uit de eerdere hoofdstukken over logica!).
• Verificatiesystemen: Een tweede model (of een klassiek algoritme uit Deel II) laten controleren of de output van het eerste model feitelijk klopt.
De ironie van AIMA:
Het grappige is dat de oplossing voor de problemen van de "moderne" AI (LLM's) vaak ligt in de "oude" AI uit de eerste hoofdstukken: logica, feitencontroles en gestructureerde data.
If any questions, just ask.
Re: Koopwaardige aandelen
Voor wie een beter zicht wil hebben op AI, hierbij de inhoud van AIMA in telegramstijl.
AIMA (Artificial Intelligence:A Modern Approach. ISBN-13 9781292401133)
1.Inleiding
2.Intelligente Agents (Agent die interageert met Omgeving via Waarnemingen/Sensors v/d Omgeving en Acties naar de Omgeving)
3.Problemen oplossen via Zoeken en Zoekalgoritmes
4.Zoeken in Complexe Omgevingen
5.Omgevingen met Randvoorwaarden
6.Omgevingen met Tegenstanders en Games/Spellen
7.Logisch denkende Agents / Agents met een Kennisbank(feiten,regels,relaties,beweringen) en met een Inference Engine(die conclusies kan trekken op basis van beschikbare informatie die het heeft,die kan redeneren,die kan voorspellen,die kan afleiden)(gebaseerd op propositionele logica, dwz IF THEN ELSE, True/Flase logica)
8.Eerste Orde Logica (Objecten,Eigenschappen,Relaties,Quantoren)(logica,kennisbanken,kennis structureren,kennisengineering,expertsystemen,inference)(Knowledge engineering = het omzetten van menselijke expertise in gestructureerde, machine-leesbare kennis)( een knowledge engineer gaat de kennis en het denkproces van een expert (zoals een arts, advocaat of ingenieur) capteren en omzetten in regels waar een computer mee kan werken)(nvdr:dit is geen machine learning)(dit zijn strakke IF-THEN regels gekoppeld aan een kennisbank)(bvb IBM Watson Health (nu Merative), InView (Wolters Kluwer))(hier zie je duidelijk de breuklijn tussen klassieke expertsystem met harde regels die veilig en uitlegbaar zijn en moderne AI met machine learning die leert van data wat flexibiliteit geeft)(momenteel trend naar hybride systemen die Expertsystemen koppelen met Machine Learning)
9.Inference in Eerste Orde Logica (Prolog,de taal bij uitstek voor ExpertSystemen)(Prolog is 100% harde logica, er is geen nuance; de knowledge engineer moet alle regels opschrijven en in de database stoppen)(Moderne AI leert echter zelf de regels door miljoenen voorbeelden te bekijken)(Moderne AI:deep learning, gebruikt waarschijnlijkheden,leert zelf de regels,gebruikt geen symbolen en regels maar getallen en gewichten, dwz matrices, gebruikt patroonherkenning,maar het is een black box, dwz het antwoord is praktisch niet meer te reconstrueren)(de meest recente trend zijn combinatiesystemen: zij combineren patroonherkenning met logisch redeneren/harde logica)
10.De voorstelling van kennis (ontologie:klassen,instanties,relaties/eigenschappen,axiomas; hierarchische takennetwerken voor planningsystemen, Bayesiaanse netwerken voor redeneren met onzekerheden, Markov modellen voor redeneren met tijdgebonden systemen, diepe neurale netwerken voor beeld/geluid/andere data)(Google Knowledge Graph is een ontologie van Google gebruikt in Google Search; is een bron van harde feiten oa gebaseerd op Wikipedia, gelicencieerde data ea; inmiddels meer dan 800 miljard feiten over 5 miljard entiteiten; razendsnelle, feitelijk correcte antwoorden zonder door te klikken; een gigantische grafische database (Graph Database) – een netwerk van punten(nodes) en lijnen(relaties) en hun eigenschappen(properties))(ook bvb Facebook en LinkedIn gebruiken Graph Databases; ook websites gebruiken Graph Databases voor hun aanbevelingen)
11.Automatische Planning (van Acties, dwz van vertrektoestand naar gewenste eindtoestand gaan)(gebaseerd op PDDL: Planning Domain Definition Language)(Planningalgoritmes)(Planning van de Mars Rovers wordt gemaakt met PDDL)
12.Omgaan met onzekerheid (probabilistisch redeneren)(regel van Bayes: stelt ons in staat om de kans op een oorzaak te berekenen als we het gevolg zien)
13.Redeneren met onzekerheid (Bayesiaanse netwerken)(netwerk van knopen en pijlen met CPT(Conditional Probality Tables) die de kanstabellen weergeven van elke knoop)(Markov-ketens oa Google Page Rank, oa voorspellen van beurskoersen)(benaderende inferentie met Gibbs Sampling)(Markov-keten: de toekomst hangt enkel af van het nu, niet van het verleden; het stelt ons in staat om extreem complexe processen (zoals het weer, aandelenkoersen of taal) te modelleren met relatief simpele wiskunde, omdat we de enorme berg data uit het verleden mogen negeren en ons kunnen focussen op het huidige moment)(meest gebruikte Bayesiaanse netwerken zijn oa de diagnose-repair modules in Microsoft Windows oa de Printer Wizard)( MCMC Markov Chain Monte Carlo: een krachtige klasse van algoritmen die gebruikt wordt om te samplen uit complexe kansverdelingen waar je niet direct uit kunt rekenen)( MCMC is een manier om moeilijke kansvragen te beantwoorden door een slimme, willekeurige wandeling te maken door alle mogelijke antwoorden)
14.Redeneren met onzekerheid in de tijd (Hidden Markov Modellen, Kalman Filters, Dynamische Bayesiaanse netwerken)(particle filtering wordt gebruikt in zelfrijdende auto’s: Initialisatie: de auto weet ongeveer dat hij in een bepaalde straat is. Hij genereert duizenden "deeltjes" (virtuele spookauto's) verspreid over die straat op zijn digitale kaart. Voorspelling: Transition Model: De auto rijdt 1 meter vooruit. De software verplaatst álle duizenden deeltjes ook 1 meter vooruit op de kaart. Meting: Sensor Model: De LiDAR-sensor van de auto ziet een lantaarnpaal op precies 2,4 meter rechts. Weging (Updating): De computer kijkt naar alle deeltjes. Een deeltje dat op de kaart náást een lantaarnpaal staat, krijgt een hoog gewicht.Een deeltje dat volgens de kaart midden op een kruispunt staat (waar geen lantaarnpaal is) of dat in een gebouw staat, krijgt een gewicht van nul want ze kloppen niet met de waarneming. Resampling: De deeltjes met een laag gewicht worden verwijderd. De deeltjes met een hoog gewicht worden "gekopieerd".Het resultaat: Na een paar seconden rijden zijn alle deeltjes weg, behalve een klein "wolkje" op één specifieke plek. De auto zegt dan: "Ik ben hier.")
15.Eenvoudige beslissingen nemen (in een wereld met onzekerheden)( "Wat moet een agent nu doen, gegeven zijn huidige onzekere overtuigingen en zijn voorkeuren?" Dit is de wereld van de Decision Theory)( Decision Theory = Probability + Utility; Probability = Hoe waarschijnlijk zijn de verschillende uitkomsten? en Utility = Hoeveel waarde hecht de agent aan die uitkomsten?`)(De Axioma's van Nut (Constraints on Preferences) Als een agent zich "rationeel" gedraagt, dan moeten zijn voorkeuren aan 6 strikte regels voldoen (Orderability, Transitivity, etc.). Als hij dat niet doet, kan iemand een "money pump" tegen hem gebruiken (hem dwingen steeds geld te betalen voor een cirkel aan keuzes)( Decision Networks (Influence Diagrams): zijn Bayesiaanse Netwerken met extra knopen: Decision Nodes: De keuzes die de agent kan maken. Utility Nodes: De uitkomstwaarde die de agent probeert te maximaliseren)(The Value of Perfect Information (VPI): Hoeveel is het waard om een bepaald feit te weten voordat ik beslis?)
16.Complexe beslissingen nemen (we gaan van eenmalige beslissingen naar een reeks beslissingen over een langere periode. De essentie is: hoe plan je acties als de uitkomst van elke stap onzeker is?)(Markov Decision Processes)(Airborne Collision Avoidance System ACAS is een voorbeeld)
17.Multi-Agent Beslissingen (Je bent niet meer alleen je eigen nut aan het maximaliseren, Je moet nu rekening houden met wat andere agenten denken dat jij gaat doen)(speltheorie, strategieën, opbrengsten)(Elke keer dat je een website opent, vindt er in minder dan 100 milliseconden een veiling plaats tussen adverteerders. Google gebruikt de Vickrey-veiling (Second Price), zodat bedrijven eerlijk bieden en de advertentiemarkt stabiel blijft (Nash-evenwicht))( Google gebruikt de GSP (Generalized Second Price) veiling, een variant op de Vickrey-veiling).
18. Probabilistische programmering (probabilistische kennisweergave, inference in onzekere omgevingen)(dank zij de ontwikkelingen van Bayesiaanse netwerken zijn er nu talen voor de creatie van probalistische modellen voor complexe domeinen)(PPL Probabilistic Programming Languages, combineren de flexibiliteit van algoritmen met de kracht van probabilistisch redeneren zoals Bayesiaanse netwerken)
19. Leren obv Voorbeelden (agents kunnen hun gedrag verbeteren door te leren van ervaringen in het verleden en voorspellingen over de toekomst; als de agent een computer is, spreekt men van Machine Learning)(elk Machine Learning project heeft data nodig)( Hoofdstuk 19 legt de fundering voor hoe AI-systemen zelfstandig kennis vergaren uit observaties, met een sterke focus op de balans tussen complexiteit en nauwkeurigheid)(voorbeelden: aanbevelingssystemen oa Amazon; Virtuele Assistenten zoals Siri,Alexa maken gebruik van Natural Language Processing NLP en spraakherkenning om vragen te begrijpen en acties uit te voeren; Spamfilters; Navigatie oa Google Maps voorspellen files en berekenen de snelste route door realtime data van miljoenen gebruikers te analyseren; Medische Beeldanalyse: Algoritmen (vooral Convolutional Neural Networks) scannen MRI- en CT-scans om tumoren of botbreuken sneller en nauwkeuriger te detecteren dan radiologen; Medicijnontwikkeling: ML versnelt het proces van het vinden van nieuwe medicijnen door te simuleren hoe verschillende moleculen op elkaar reageren, wat jaren aan laboratoriumwerk bespaart; Algoritmische Handel: Computers voeren transacties uit op de beurs met een snelheid die voor mensen onmogelijk is, gebaseerd op voorspellende modellen van markttrends. Predictive Maintenance: Sensoren op fabrieksmachines sturen data naar een ML-model dat voorspelt wanneer een onderdeel gaat breken. Zo kan onderhoud worden gepleegd voordat de hele productielijn stilvalt. Autonome Voertuigen: Zelfrijdende auto's en drones gebruiken ML om objecten te herkennen (voetgangers, verkeersborden) en in real-time beslissingen te nemen in het verkeer)
20.Leren wanneer je reeds iets weet (AI leert veel sneller en beter als het al voorkennis heeft over de wereld)( Hoofdstuk 20 is de lijm tussen de Klassieke AI (Logica) en Moderne AI (Learning). Het probeert de "starheid" van logica te verzachten door het leerbaar te maken, en de "blindheid" van data-gedreven leren te verhelpen door het verstandig te maken)
21.Leren met probabilistische modellen (het doel is om een model te bouwen dat de kansverdeling van een set variabelen weergeeft op basis van data)(methodes oa: Maximum Likelihood Estimation (MLE), Bayesiaans leren, Naïve Bayes, EM-algoritme (Expectation-Maximization), Structuur leren)(wordt dagelijks gebruikt bij Medische Diagnose, Spamfilters, Aanbevelingssystemen oa bij NetFlix,Spotify)
22.Diep Leren (het bouwen van enorme, gelaagde netwerken die complexe patronen (zoals beelden en taal) rechtstreeks uit data kunnen leren)(meest gebruikte approach in toepassingen oa visueel herkennen van objecten, vertaling, spraakherkenning ea)(men spreekt ook van neurale netwerken omdat de oorspronng van Deep Learning ligt in werk dat het netwerk van neuronen in de hersenen wou modelleren)(In plaats van dat wij de AI vertellen welke kenmerken (features) belangrijk zijn, leert het netwerk zelf welke patronen in de data relevant zijn door ze door vele lagen heen te filteren)
23.Leren van/via belonen en bestraffen (voorbeeld: Zelfrijdende Auto's: Invoegen op de Snelweg.De Omgeving: Een snelweg met andere (onvoorspelbare) menselijke bestuurders.De Actie: Versnellen, remmen of van rijstrook wisselen.De Beloning: Veilig en vlot invoegen zonder dat andere auto's hard op de rem moeten.Exploratie: In simulaties probeert de auto duizenden keren in te voegen. Hij leert dat "te voorzichtig zijn" (geen beloning) net zo slecht is als "te agressief zijn" (botsing/straf))
24.Menselijk Taal Begrijpen (Natural Language Processing)(Taalmodellen (Probabilistisch voorspellen). Een essentieel concept is dat NLP-modellen in feite enorme kansverdelingen zijn: Ze voorspellen het volgende woord in een reeks. Oudere modellen keken alleen naar de vorige 1 of 2 woorden.LLM's (Large Language Models): Gebruiken miljarden parameters om over enorme afstanden in een tekst verbanden te leggen)
25.Diep Leren voor Menselijke Taal (diepgaande neurale netwerken (zoals die in ChatGPT) verwerken taal. Dit is de brug tussen ruwe tekst en intelligent begrip)( Pre-training en Fine-tuning: Een groot deel van de moderne NLP-strategie is de tweestaps-aanpak: Pre-training: Het model traint op gigantische hoeveelheden internettekst om de structuur van taal te leren (bijv. het voorspellen van ontbrekende woorden). Fine-tuning: Het "slimme" model wordt daarna specifiek getraind voor een taak, zoals vertalen, samenvatten of medisch advies geven) (Modellen zoals GPT genereren tekst via autoregressie: ze voorspellen het meest waarschijnlijke volgende woord, voegen dat toe aan de zin, en herhalen het proces) (Taal wordt in het model opgeslagen als locaties in een wiskundige ruimte en de regels om daar te navigeren zitten verborgen in de miljarden verbindingen van het netwerk) (Bvb: "De bank geeft een lening." Stap 1: Tokenization (Opknippen). Het model kan de tekst niet in één keer aan. Het hakt de zin in kleine stukjes (tokens). Input: "De bank geeft een lening." Tokens: [De] [bank] [geeft] [een] [lening] [.]. IDs: Elk token krijgt een nummer uit een enorme opzoeklijst (bijv. bank = ID 432). Stap 2: Embedding (Betekenis toekennen). Nu wordt elk ID omgezet in een vector (een lijst met getallen). Het model zoekt ID 432 op in een enorme tabel. In plaats van het woord "bank", ziet het model nu: [0.12, -0.5, 0.88, ...] (een lijst van 512 getallen). De essentie: In deze lijst met getallen zitten eigenschappen verborgen zoals "is een gebouw", "heeft te maken met geld", "is een object". Stap 3: Self-Attention (Context bepalen). Dit is de stap waar het model de ambiguïteit oplost. Is het een zitbank of een geldinstelling? Het model kijkt naar het token [bank] en tegelijkertijd naar [lening]. Omdat de vectoren voor bank en lening in de wiskundige ruimte een sterke relatie hebben (ze "vuren" samen), past het model de getallen van de vector voor bank aan. De vector wordt nu "meer financieel" en "minder houten meubel". Stap 4: Positional Encoding (Volgorde)
In een zin is de volgorde cruciaal. "De hond bijt de man" is iets anders dan "De man bijt de hond". Omdat een Transformer-model alle woorden tegelijk ziet, voegt het model een klein getal toe aan elke vector dat de positie in de zin aangeeft. Woord 1 krijgt een andere "stempel" dan woord 4. Stap 5: De Hidden State (Opslag in het netwerk)
Uiteindelijk stroomt al deze informatie door de lagen van het model (de neuronen). De gewichten in die lagen bepalen wat er met de informatie gebeurt. De informatie over de "financiële bank" wordt gecombineerd met de actie "geeft". Het model slaat dit intern op als een gecomprimeerde representatie: een tijdelijke toestand die precies beschrijft wat er gebeurt (wie doet wat aan wie?))
("Wie is onze eerste minister?". 1. Contextuele Interpretatie (Hfdst 24) De agent herkent via je IP-adres of taalinstellingen dat "onze" verwijst naar België. De Transformer-architectuur legt direct de link tussen "eerste minister" en de politieke entiteit "Premier van de federale regering". 2. Feiten-check: De agent in actie. In plaats van blind te vertrouwen op zijn interne gewichten (die misschien nog op 2024 staan), voert de agent een zoekopdracht uit. Zoekresultaat: De agent ontdekt dat de politieke situatie in België is veranderd. Sinds 3 februari 2025 is er een nieuwe regering. De Match: De entiteit "Alexander De Croo" wordt in het geheugen gemarkeerd als voormalig, en Bart De Wever wordt geïdentificeerd als de huidige premier. 3. Informatie-extractie (Hfdst 23) De agent haalt de relevante details uit de gevonden data: Naam: Bart De Wever. Partij: N-VA. Regering: Regering-De Wever (een coalitie van N-VA, MR, Les Engagés, CD&V en Vooruit). Datum van eedaflegging: 3 februari 2025. 4. Generatie van het antwoord. De agent combineert deze feiten tot een vloeiende zin: "De huidige eerste minister van België is Bart De Wever (N-VA). Hij leidt de federale regering sinds 3 februari 2025, nadat hij de eed aflegde bij Koning Filip.")
26.Robotica (Robotica maakt van een AI een actor in plaats van een waarnemer)
27.Computer Vision (Objectherkenning gebeurt met Deep Learning)(Input: Miljoenen ruwe RGB-waarden (pixels). Proces: De Vision-module filtert, herkent en berekent diepte. Output: Een lijst met objecten en hun coördinaten: [Beker: (x:10, y:5, z:2), Tafel: (x:0, y:0, z:0)])
28.Filisofie, Ethiek, Veiligheid van AI
29.De toekomst van AI (We staan nog een eind van Artificial General Intelligence (AGI). Data-honger: Mensen leren van enkele voorbeelden; huidige modellen hebben miljarden datapunten nodig. Gebrek aan 'Common Sense': AI begrijpt de fysieke wereld (oorzaak en gevolg) nog steeds niet zoals een kind dat doet. Robuustheid: AI kan briljant zijn in een simulatie, maar volledig falen ("braking") door een kleine verandering in de echte wereld)
AIMA (Artificial Intelligence:A Modern Approach. ISBN-13 9781292401133)
1.Inleiding
2.Intelligente Agents (Agent die interageert met Omgeving via Waarnemingen/Sensors v/d Omgeving en Acties naar de Omgeving)
3.Problemen oplossen via Zoeken en Zoekalgoritmes
4.Zoeken in Complexe Omgevingen
5.Omgevingen met Randvoorwaarden
6.Omgevingen met Tegenstanders en Games/Spellen
7.Logisch denkende Agents / Agents met een Kennisbank(feiten,regels,relaties,beweringen) en met een Inference Engine(die conclusies kan trekken op basis van beschikbare informatie die het heeft,die kan redeneren,die kan voorspellen,die kan afleiden)(gebaseerd op propositionele logica, dwz IF THEN ELSE, True/Flase logica)
8.Eerste Orde Logica (Objecten,Eigenschappen,Relaties,Quantoren)(logica,kennisbanken,kennis structureren,kennisengineering,expertsystemen,inference)(Knowledge engineering = het omzetten van menselijke expertise in gestructureerde, machine-leesbare kennis)( een knowledge engineer gaat de kennis en het denkproces van een expert (zoals een arts, advocaat of ingenieur) capteren en omzetten in regels waar een computer mee kan werken)(nvdr:dit is geen machine learning)(dit zijn strakke IF-THEN regels gekoppeld aan een kennisbank)(bvb IBM Watson Health (nu Merative), InView (Wolters Kluwer))(hier zie je duidelijk de breuklijn tussen klassieke expertsystem met harde regels die veilig en uitlegbaar zijn en moderne AI met machine learning die leert van data wat flexibiliteit geeft)(momenteel trend naar hybride systemen die Expertsystemen koppelen met Machine Learning)
9.Inference in Eerste Orde Logica (Prolog,de taal bij uitstek voor ExpertSystemen)(Prolog is 100% harde logica, er is geen nuance; de knowledge engineer moet alle regels opschrijven en in de database stoppen)(Moderne AI leert echter zelf de regels door miljoenen voorbeelden te bekijken)(Moderne AI:deep learning, gebruikt waarschijnlijkheden,leert zelf de regels,gebruikt geen symbolen en regels maar getallen en gewichten, dwz matrices, gebruikt patroonherkenning,maar het is een black box, dwz het antwoord is praktisch niet meer te reconstrueren)(de meest recente trend zijn combinatiesystemen: zij combineren patroonherkenning met logisch redeneren/harde logica)
10.De voorstelling van kennis (ontologie:klassen,instanties,relaties/eigenschappen,axiomas; hierarchische takennetwerken voor planningsystemen, Bayesiaanse netwerken voor redeneren met onzekerheden, Markov modellen voor redeneren met tijdgebonden systemen, diepe neurale netwerken voor beeld/geluid/andere data)(Google Knowledge Graph is een ontologie van Google gebruikt in Google Search; is een bron van harde feiten oa gebaseerd op Wikipedia, gelicencieerde data ea; inmiddels meer dan 800 miljard feiten over 5 miljard entiteiten; razendsnelle, feitelijk correcte antwoorden zonder door te klikken; een gigantische grafische database (Graph Database) – een netwerk van punten(nodes) en lijnen(relaties) en hun eigenschappen(properties))(ook bvb Facebook en LinkedIn gebruiken Graph Databases; ook websites gebruiken Graph Databases voor hun aanbevelingen)
11.Automatische Planning (van Acties, dwz van vertrektoestand naar gewenste eindtoestand gaan)(gebaseerd op PDDL: Planning Domain Definition Language)(Planningalgoritmes)(Planning van de Mars Rovers wordt gemaakt met PDDL)
12.Omgaan met onzekerheid (probabilistisch redeneren)(regel van Bayes: stelt ons in staat om de kans op een oorzaak te berekenen als we het gevolg zien)
13.Redeneren met onzekerheid (Bayesiaanse netwerken)(netwerk van knopen en pijlen met CPT(Conditional Probality Tables) die de kanstabellen weergeven van elke knoop)(Markov-ketens oa Google Page Rank, oa voorspellen van beurskoersen)(benaderende inferentie met Gibbs Sampling)(Markov-keten: de toekomst hangt enkel af van het nu, niet van het verleden; het stelt ons in staat om extreem complexe processen (zoals het weer, aandelenkoersen of taal) te modelleren met relatief simpele wiskunde, omdat we de enorme berg data uit het verleden mogen negeren en ons kunnen focussen op het huidige moment)(meest gebruikte Bayesiaanse netwerken zijn oa de diagnose-repair modules in Microsoft Windows oa de Printer Wizard)( MCMC Markov Chain Monte Carlo: een krachtige klasse van algoritmen die gebruikt wordt om te samplen uit complexe kansverdelingen waar je niet direct uit kunt rekenen)( MCMC is een manier om moeilijke kansvragen te beantwoorden door een slimme, willekeurige wandeling te maken door alle mogelijke antwoorden)
14.Redeneren met onzekerheid in de tijd (Hidden Markov Modellen, Kalman Filters, Dynamische Bayesiaanse netwerken)(particle filtering wordt gebruikt in zelfrijdende auto’s: Initialisatie: de auto weet ongeveer dat hij in een bepaalde straat is. Hij genereert duizenden "deeltjes" (virtuele spookauto's) verspreid over die straat op zijn digitale kaart. Voorspelling: Transition Model: De auto rijdt 1 meter vooruit. De software verplaatst álle duizenden deeltjes ook 1 meter vooruit op de kaart. Meting: Sensor Model: De LiDAR-sensor van de auto ziet een lantaarnpaal op precies 2,4 meter rechts. Weging (Updating): De computer kijkt naar alle deeltjes. Een deeltje dat op de kaart náást een lantaarnpaal staat, krijgt een hoog gewicht.Een deeltje dat volgens de kaart midden op een kruispunt staat (waar geen lantaarnpaal is) of dat in een gebouw staat, krijgt een gewicht van nul want ze kloppen niet met de waarneming. Resampling: De deeltjes met een laag gewicht worden verwijderd. De deeltjes met een hoog gewicht worden "gekopieerd".Het resultaat: Na een paar seconden rijden zijn alle deeltjes weg, behalve een klein "wolkje" op één specifieke plek. De auto zegt dan: "Ik ben hier.")
15.Eenvoudige beslissingen nemen (in een wereld met onzekerheden)( "Wat moet een agent nu doen, gegeven zijn huidige onzekere overtuigingen en zijn voorkeuren?" Dit is de wereld van de Decision Theory)( Decision Theory = Probability + Utility; Probability = Hoe waarschijnlijk zijn de verschillende uitkomsten? en Utility = Hoeveel waarde hecht de agent aan die uitkomsten?`)(De Axioma's van Nut (Constraints on Preferences) Als een agent zich "rationeel" gedraagt, dan moeten zijn voorkeuren aan 6 strikte regels voldoen (Orderability, Transitivity, etc.). Als hij dat niet doet, kan iemand een "money pump" tegen hem gebruiken (hem dwingen steeds geld te betalen voor een cirkel aan keuzes)( Decision Networks (Influence Diagrams): zijn Bayesiaanse Netwerken met extra knopen: Decision Nodes: De keuzes die de agent kan maken. Utility Nodes: De uitkomstwaarde die de agent probeert te maximaliseren)(The Value of Perfect Information (VPI): Hoeveel is het waard om een bepaald feit te weten voordat ik beslis?)
16.Complexe beslissingen nemen (we gaan van eenmalige beslissingen naar een reeks beslissingen over een langere periode. De essentie is: hoe plan je acties als de uitkomst van elke stap onzeker is?)(Markov Decision Processes)(Airborne Collision Avoidance System ACAS is een voorbeeld)
17.Multi-Agent Beslissingen (Je bent niet meer alleen je eigen nut aan het maximaliseren, Je moet nu rekening houden met wat andere agenten denken dat jij gaat doen)(speltheorie, strategieën, opbrengsten)(Elke keer dat je een website opent, vindt er in minder dan 100 milliseconden een veiling plaats tussen adverteerders. Google gebruikt de Vickrey-veiling (Second Price), zodat bedrijven eerlijk bieden en de advertentiemarkt stabiel blijft (Nash-evenwicht))( Google gebruikt de GSP (Generalized Second Price) veiling, een variant op de Vickrey-veiling).
18. Probabilistische programmering (probabilistische kennisweergave, inference in onzekere omgevingen)(dank zij de ontwikkelingen van Bayesiaanse netwerken zijn er nu talen voor de creatie van probalistische modellen voor complexe domeinen)(PPL Probabilistic Programming Languages, combineren de flexibiliteit van algoritmen met de kracht van probabilistisch redeneren zoals Bayesiaanse netwerken)
19. Leren obv Voorbeelden (agents kunnen hun gedrag verbeteren door te leren van ervaringen in het verleden en voorspellingen over de toekomst; als de agent een computer is, spreekt men van Machine Learning)(elk Machine Learning project heeft data nodig)( Hoofdstuk 19 legt de fundering voor hoe AI-systemen zelfstandig kennis vergaren uit observaties, met een sterke focus op de balans tussen complexiteit en nauwkeurigheid)(voorbeelden: aanbevelingssystemen oa Amazon; Virtuele Assistenten zoals Siri,Alexa maken gebruik van Natural Language Processing NLP en spraakherkenning om vragen te begrijpen en acties uit te voeren; Spamfilters; Navigatie oa Google Maps voorspellen files en berekenen de snelste route door realtime data van miljoenen gebruikers te analyseren; Medische Beeldanalyse: Algoritmen (vooral Convolutional Neural Networks) scannen MRI- en CT-scans om tumoren of botbreuken sneller en nauwkeuriger te detecteren dan radiologen; Medicijnontwikkeling: ML versnelt het proces van het vinden van nieuwe medicijnen door te simuleren hoe verschillende moleculen op elkaar reageren, wat jaren aan laboratoriumwerk bespaart; Algoritmische Handel: Computers voeren transacties uit op de beurs met een snelheid die voor mensen onmogelijk is, gebaseerd op voorspellende modellen van markttrends. Predictive Maintenance: Sensoren op fabrieksmachines sturen data naar een ML-model dat voorspelt wanneer een onderdeel gaat breken. Zo kan onderhoud worden gepleegd voordat de hele productielijn stilvalt. Autonome Voertuigen: Zelfrijdende auto's en drones gebruiken ML om objecten te herkennen (voetgangers, verkeersborden) en in real-time beslissingen te nemen in het verkeer)
20.Leren wanneer je reeds iets weet (AI leert veel sneller en beter als het al voorkennis heeft over de wereld)( Hoofdstuk 20 is de lijm tussen de Klassieke AI (Logica) en Moderne AI (Learning). Het probeert de "starheid" van logica te verzachten door het leerbaar te maken, en de "blindheid" van data-gedreven leren te verhelpen door het verstandig te maken)
21.Leren met probabilistische modellen (het doel is om een model te bouwen dat de kansverdeling van een set variabelen weergeeft op basis van data)(methodes oa: Maximum Likelihood Estimation (MLE), Bayesiaans leren, Naïve Bayes, EM-algoritme (Expectation-Maximization), Structuur leren)(wordt dagelijks gebruikt bij Medische Diagnose, Spamfilters, Aanbevelingssystemen oa bij NetFlix,Spotify)
22.Diep Leren (het bouwen van enorme, gelaagde netwerken die complexe patronen (zoals beelden en taal) rechtstreeks uit data kunnen leren)(meest gebruikte approach in toepassingen oa visueel herkennen van objecten, vertaling, spraakherkenning ea)(men spreekt ook van neurale netwerken omdat de oorspronng van Deep Learning ligt in werk dat het netwerk van neuronen in de hersenen wou modelleren)(In plaats van dat wij de AI vertellen welke kenmerken (features) belangrijk zijn, leert het netwerk zelf welke patronen in de data relevant zijn door ze door vele lagen heen te filteren)
23.Leren van/via belonen en bestraffen (voorbeeld: Zelfrijdende Auto's: Invoegen op de Snelweg.De Omgeving: Een snelweg met andere (onvoorspelbare) menselijke bestuurders.De Actie: Versnellen, remmen of van rijstrook wisselen.De Beloning: Veilig en vlot invoegen zonder dat andere auto's hard op de rem moeten.Exploratie: In simulaties probeert de auto duizenden keren in te voegen. Hij leert dat "te voorzichtig zijn" (geen beloning) net zo slecht is als "te agressief zijn" (botsing/straf))
24.Menselijk Taal Begrijpen (Natural Language Processing)(Taalmodellen (Probabilistisch voorspellen). Een essentieel concept is dat NLP-modellen in feite enorme kansverdelingen zijn: Ze voorspellen het volgende woord in een reeks. Oudere modellen keken alleen naar de vorige 1 of 2 woorden.LLM's (Large Language Models): Gebruiken miljarden parameters om over enorme afstanden in een tekst verbanden te leggen)
25.Diep Leren voor Menselijke Taal (diepgaande neurale netwerken (zoals die in ChatGPT) verwerken taal. Dit is de brug tussen ruwe tekst en intelligent begrip)( Pre-training en Fine-tuning: Een groot deel van de moderne NLP-strategie is de tweestaps-aanpak: Pre-training: Het model traint op gigantische hoeveelheden internettekst om de structuur van taal te leren (bijv. het voorspellen van ontbrekende woorden). Fine-tuning: Het "slimme" model wordt daarna specifiek getraind voor een taak, zoals vertalen, samenvatten of medisch advies geven) (Modellen zoals GPT genereren tekst via autoregressie: ze voorspellen het meest waarschijnlijke volgende woord, voegen dat toe aan de zin, en herhalen het proces) (Taal wordt in het model opgeslagen als locaties in een wiskundige ruimte en de regels om daar te navigeren zitten verborgen in de miljarden verbindingen van het netwerk) (Bvb: "De bank geeft een lening." Stap 1: Tokenization (Opknippen). Het model kan de tekst niet in één keer aan. Het hakt de zin in kleine stukjes (tokens). Input: "De bank geeft een lening." Tokens: [De] [bank] [geeft] [een] [lening] [.]. IDs: Elk token krijgt een nummer uit een enorme opzoeklijst (bijv. bank = ID 432). Stap 2: Embedding (Betekenis toekennen). Nu wordt elk ID omgezet in een vector (een lijst met getallen). Het model zoekt ID 432 op in een enorme tabel. In plaats van het woord "bank", ziet het model nu: [0.12, -0.5, 0.88, ...] (een lijst van 512 getallen). De essentie: In deze lijst met getallen zitten eigenschappen verborgen zoals "is een gebouw", "heeft te maken met geld", "is een object". Stap 3: Self-Attention (Context bepalen). Dit is de stap waar het model de ambiguïteit oplost. Is het een zitbank of een geldinstelling? Het model kijkt naar het token [bank] en tegelijkertijd naar [lening]. Omdat de vectoren voor bank en lening in de wiskundige ruimte een sterke relatie hebben (ze "vuren" samen), past het model de getallen van de vector voor bank aan. De vector wordt nu "meer financieel" en "minder houten meubel". Stap 4: Positional Encoding (Volgorde)
In een zin is de volgorde cruciaal. "De hond bijt de man" is iets anders dan "De man bijt de hond". Omdat een Transformer-model alle woorden tegelijk ziet, voegt het model een klein getal toe aan elke vector dat de positie in de zin aangeeft. Woord 1 krijgt een andere "stempel" dan woord 4. Stap 5: De Hidden State (Opslag in het netwerk)
Uiteindelijk stroomt al deze informatie door de lagen van het model (de neuronen). De gewichten in die lagen bepalen wat er met de informatie gebeurt. De informatie over de "financiële bank" wordt gecombineerd met de actie "geeft". Het model slaat dit intern op als een gecomprimeerde representatie: een tijdelijke toestand die precies beschrijft wat er gebeurt (wie doet wat aan wie?))
("Wie is onze eerste minister?". 1. Contextuele Interpretatie (Hfdst 24) De agent herkent via je IP-adres of taalinstellingen dat "onze" verwijst naar België. De Transformer-architectuur legt direct de link tussen "eerste minister" en de politieke entiteit "Premier van de federale regering". 2. Feiten-check: De agent in actie. In plaats van blind te vertrouwen op zijn interne gewichten (die misschien nog op 2024 staan), voert de agent een zoekopdracht uit. Zoekresultaat: De agent ontdekt dat de politieke situatie in België is veranderd. Sinds 3 februari 2025 is er een nieuwe regering. De Match: De entiteit "Alexander De Croo" wordt in het geheugen gemarkeerd als voormalig, en Bart De Wever wordt geïdentificeerd als de huidige premier. 3. Informatie-extractie (Hfdst 23) De agent haalt de relevante details uit de gevonden data: Naam: Bart De Wever. Partij: N-VA. Regering: Regering-De Wever (een coalitie van N-VA, MR, Les Engagés, CD&V en Vooruit). Datum van eedaflegging: 3 februari 2025. 4. Generatie van het antwoord. De agent combineert deze feiten tot een vloeiende zin: "De huidige eerste minister van België is Bart De Wever (N-VA). Hij leidt de federale regering sinds 3 februari 2025, nadat hij de eed aflegde bij Koning Filip.")
26.Robotica (Robotica maakt van een AI een actor in plaats van een waarnemer)
27.Computer Vision (Objectherkenning gebeurt met Deep Learning)(Input: Miljoenen ruwe RGB-waarden (pixels). Proces: De Vision-module filtert, herkent en berekent diepte. Output: Een lijst met objecten en hun coördinaten: [Beker: (x:10, y:5, z:2), Tafel: (x:0, y:0, z:0)])
28.Filisofie, Ethiek, Veiligheid van AI
29.De toekomst van AI (We staan nog een eind van Artificial General Intelligence (AGI). Data-honger: Mensen leren van enkele voorbeelden; huidige modellen hebben miljarden datapunten nodig. Gebrek aan 'Common Sense': AI begrijpt de fysieke wereld (oorzaak en gevolg) nog steeds niet zoals een kind dat doet. Robuustheid: AI kan briljant zijn in een simulatie, maar volledig falen ("braking") door een kleine verandering in de echte wereld)
Laatst gewijzigd door chesini op 9 februari 2026, 13:27, 2 keer totaal gewijzigd.
Re: Koopwaardige aandelen
Tiens, de laatste keer dat ik keek zak ik net bijzonder weinig insider aankopen.
En bovendien: ja, dat kan. Sterker nog, ze zijn het al heel vaak geweest.
Bron: het internet.
Re: Koopwaardige aandelen
Ik vertrouw eerder hen dan eender wie op dit forum
Also, sunk costs. Wordt het niets? Dan valt die CapEx weer weg de jaren nadien en stijgt FCF
Als je wilt inzetten tegen AI-bedrijven, ga voor degenen met de zwakke balans die hun eigen investeringen niet kunnen financieren.
Also, sunk costs. Wordt het niets? Dan valt die CapEx weer weg de jaren nadien en stijgt FCF
Als je wilt inzetten tegen AI-bedrijven, ga voor degenen met de zwakke balans die hun eigen investeringen niet kunnen financieren.
Re: Koopwaardige aandelen
Trust no-one.
Ja, maar daar zijn de ondernemingen niet voor gewaardeerd. Ze zijn gewaardeerd om die mega-investeringen te laten renderen.
Wil ik niet.
Bron: het internet.
Re: Koopwaardige aandelen
Microsoft staat aan 18,5x de winst voor 2028. Dat is absoluut niet duur rekening houdend met de kwaliteit van zo'n mastodont.
Dus nee, die staan niet gewaardeerd alsof de race al beklonken is, in tegendeel. Zoals jens al schreef: Microsoft is in jaren niet meer zo 'goedkoop' geweest als nu.
Je moet het weer niet te ver gaan zoeken dit jaar. Gewoon Microsoft en Amazon blijven kopen.
Never bet against big tech. Zoals de afgelopen 20 jaar al is gebleken.
- MeneerParmentier
- Sr. Member

- Berichten: 424
- Lid geworden op: 06 aug 2024
- Contacteer:
Re: Koopwaardige aandelen
Ja, maar: de winst van afgelopen kwartaal is kunstmatig en niet houdbaar. De winst voor 2028 kent niemand. Velen trekken gewoon de lijn even door, gaan ervan uit dat het bedrijf even snel doorgroeit als het vandaag doet, en dat is onzin. Als je de winst opschoont voor onhoudbare effecten dan is deze afgelopen kwartaal juist lager dan Q3.
Nu, is MSFT daarom een slechte investering? Zo ver zou ik ook niet gaan. Ik snap alleen niet dat mensen hun tijd besteden aan het onderzoeken van dergelijke bedrijven. Deze liggen al zo hard onder het vergrootglas dat een grondige onderwaardering sowieso al uitgesloten is. Bovendien zitten ze in werkelijk elke tracker die je maar kunt bedenken. Koop een goeie tracker en zie niet om. Steek je werk in kleine bedrijven met echt potentieel.
Re: Koopwaardige aandelen
Toch een ietwat kritische kijk op Microsoft met name op de AI van Msft: https://www.windowscentral.com/artifici ... -shoddy-aiMeneerParmentier schreef: ↑Vandaag 08:54Ja, maar: de winst van afgelopen kwartaal is kunstmatig en niet houdbaar. De winst voor 2028 kent niemand. Velen trekken gewoon de lijn even door, gaan ervan uit dat het bedrijf even snel doorgroeit als het vandaag doet, en dat is onzin. Als je de winst opschoont voor onhoudbare effecten dan is deze afgelopen kwartaal juist lager dan Q3.
Nu, is MSFT daarom een slechte investering? Zo ver zou ik ook niet gaan. Ik snap alleen niet dat mensen hun tijd besteden aan het onderzoeken van dergelijke bedrijven. Deze liggen al zo hard onder het vergrootglas dat een grondige onderwaardering sowieso al uitgesloten is. Bovendien zitten ze in werkelijk elke tracker die je maar kunt bedenken. Koop een goeie tracker en zie niet om. Steek je werk in kleine bedrijven met echt potentieel.
Maar Msft is een kat met negen levens. Elke battle hebben ze overwonnen/overleefd. Ook de battles waarbij ze zogenaamd hopeloos te laat waren. Het lijkt wel dat de eerste strategie van Microsoft is: hoe overleven in een heel competitieve omgeving. En pas dan volgt innovatie en winst maken. Enfin. Dit gezegd zijnde.
Re: Koopwaardige aandelen
Meta aan $90MeneerParmentier schreef: ↑Vandaag 08:54Ja, maar: de winst van afgelopen kwartaal is kunstmatig en niet houdbaar. De winst voor 2028 kent niemand. Velen trekken gewoon de lijn even door, gaan ervan uit dat het bedrijf even snel doorgroeit als het vandaag doet, en dat is onzin. Als je de winst opschoont voor onhoudbare effecten dan is deze afgelopen kwartaal juist lager dan Q3.
Nu, is MSFT daarom een slechte investering? Zo ver zou ik ook niet gaan. Ik snap alleen niet dat mensen hun tijd besteden aan het onderzoeken van dergelijke bedrijven. Deze liggen al zo hard onder het vergrootglas dat een grondige onderwaardering sowieso al uitgesloten is. Bovendien zitten ze in werkelijk elke tracker die je maar kunt bedenken. Koop een goeie tracker en zie niet om. Steek je werk in kleine bedrijven met echt potentieel.
Alphabet aan $140
De markt creëert voortdurend kansen, ook in enorm grote bedrijven, en als jij dat niet ziet of ze niet vindt, blijf gerust bij je tracker.
“By periodically investing in an index fund, the know-nothing investor can actually outperform most investment professionals. Paradoxically, when ‘dumb’ money acknowledges its limitations, it ceases to be dumb.”
Re: Koopwaardige aandelen
Ga gerust even kijken wat er gezegd werd over Alphabet toen ik bij $135-150 zei dat iedereen spijt ging hebben als ze niet kochten. Intussen staat de koers $330 en is verdubbeld op minder dan een jaar tijd. Zelfde argumenten toen.MeneerParmentier schreef: ↑Vandaag 08:54Velen trekken gewoon de lijn even door, gaan ervan uit dat het bedrijf even snel doorgroeit als het vandaag doet, en dat is onzin.
Ik snap alleen niet dat mensen hun tijd besteden aan het onderzoeken van dergelijke bedrijven. Deze liggen al zo hard onder het vergrootglas dat een grondige onderwaardering sowieso al uitgesloten is.
Een Aerolla "De tijd van megacaps is voorbij" bv houdt zich sindsdien verdacht stil.
- MeneerParmentier
- Sr. Member

- Berichten: 424
- Lid geworden op: 06 aug 2024
- Contacteer:
- MeneerParmentier
- Sr. Member

- Berichten: 424
- Lid geworden op: 06 aug 2024
- Contacteer:
Re: Koopwaardige aandelen
Inderdaad. Outcome bias noemen ze die argumentatie.
Nogmaals, ik zeg niet dat het per se een slechte investering is, maar al die mega-caps zitten al in mijn trackers. Ik heb de hele rit die je beschrijft van Alphabet (en ook degene die je niet beschrijft - bvb nvidia) meegemaakt. Je kunt niet rond deze bedrijven.
Re: Koopwaardige aandelen
Over Paypal zei je net hetzelfdeRise schreef: ↑Vandaag 11:31
Ga gerust even kijken wat er gezegd werd over Alphabet toen ik bij $135-150 zei dat iedereen spijt ging hebben als ze niet kochten. Intussen staat de koers $330 en is verdubbeld op minder dan een jaar tijd. Zelfde argumenten toen.
Een Aerolla "De tijd van megacaps is voorbij" bv houdt zich sindsdien verdacht stil.
Maar ik geef je gelijk dat Microsoft laag gewaardeerd lijkt te zijn. Ik stel me alleen vragen bij hun hoge capex (blootstelling aan OpenAI) en verlengde depreciatie van hun infrastructuur om de netto inkomsten hoger te houden. AI chips en servers afschrijven op 5-6 jaar lijkt mij weinig correct aangezien de meeste van die chips na 2-3 jaar nog weinig waarde hebben, gezien de snelheid waarmee alles zich ontwikkelt.

