Federale Arizona-regering
Re: Federale Arizona-regering
Die link is duidelijk voor mij:
Miniatuur nanometer ingrepen -> Miniatuur nanometer resultaten -> Maximatuur gigameter begrotingstekort.
Kicking the can down the road, maar het belangrijkste, de zakken zijn weer netjes gevuld, de vriendjes krijgen postjes en “du sveerrr ies zeerrr koet”.
Hou je maar vast aan je bretellen als de ratingbureaus eens gaan rammelen…
Re: Federale Arizona-regering
Ik zal u de link dan maar geven. Door de druk van AGI is er nog grotere druk dan voorheen om de gatesize van IC's verder te reduceren. Omdat de IC-makers wel zo intelligent zijn om dat te beseffen, gaan die mensen hun huiswerk doen, itt de Arizona-regering.
Wat de federale Arizona-regering olv het groot licht Bart De Wever nog altijd niet beseft heeft, is dat zij owv de lagere gatesize met een geweldig overschot zitten aan VTE in de publieke functies (gesnapt? of moet ik er een tekening bij maken?)(gatesize -> AGI -> overtollige VTE).
Maar eer de grote lichten van ministers incl. de premier dit gaan gesnapt hebben, zitten we waarschijnlijk 5 jaar en 200.000 extra werklozen verder.
Dus samengevat, dank zij de kleinere gatesize komt er een tsunami van AGI op ons af, behalve voor Arizona want die hebben het nog altijd niet gesnapt en denken in een parallelle wereld te leven. Laat staan dat ze een idee hebben van hoe daar mee om te gaan.
Re: Federale Arizona-regering
Ik heb nergens gezegd dat ik een expert ter zake ben. Sterker nog, ik beweer bij deze dat ik het zeker niet ben.
Ik heb er inderdaad geen snars verstand van, en toch kom ik verder dan jij met wat namedropping en chat-gpt gekopieerde brol die ik verder niet eens gelezen heb.
Strookje afknippen en laten ondertekenen door ouders of voogd.
------------ 8< -------------------------------------- knip hier----------------------------------------------
------------ 8< -------------------------------------- knip hier----------------------------------------------
Re: Federale Arizona-regering
Ik zal eens een chesini'tje doen:
Decennialang werd de vooruitgang in de halfgeleiderindustrie vrijwel volledig gedreven door geometrische miniaturisatie. De klassieke interpretatie van de wet van Moore ging uit van Dennard‑scaling: wanneer transistoren kleiner werden, daalden spanning en vermogen evenredig, terwijl de kloksnelheid kon worden verhoogd en de transistordichtheid toenam. Deze schaalwetmatigheid maakte het mogelijk om met elke nieuwe procesnode tegelijk hogere performance, lagere energie per switching‑event en lagere kosten per transistor te realiseren. Dat paradigma heeft echter zijn fysische en economische grenzen bereikt. Miniaturisatie is daarmee van fundamentele drijvende kracht geëvolueerd naar één optimalisatie‑as naast vele andere, en is niet langer een absolute randvoorwaarde voor het uitvoeren van grootschalige AI‑workloads of het opschalen van datacenter‑infrastructuur.
Die verschuiving wordt vooral zichtbaar wanneer men kijkt naar de aard van moderne AI‑modellen. Deep‑learning‑workloads, en in het bijzonder transformer‑architecturen, bestaan hoofdzakelijk uit dense en soms sparse lineaire algebra, zoals GEMM‑operaties en convoluties. De kritische prestatieparameters zijn hier niet single‑thread performance of instructielatency, maar throughput, memory bandwidth en data locality. Daarom domineren architecturen met SIMD‑, SIMT‑ en systolic‑array‑ontwerpen, zoals GPU’s en dedicated AI‑accelerators. Deze systemen behalen hun efficiëntie via massale paralleliteit, pipeline‑diepte en gespecialiseerde datapaden zoals tensor cores, eerder dan via agressieve transistorverkleining. In de praktijk betekent dit dat een accelerator op een minder geavanceerde node nog steeds uitstekende performance per watt kan leveren, zolang de micro‑architectuur, het geheugenhiërarchie‑ontwerp en de interconnect goed afgestemd zijn op het workloadprofiel.
Op datacenterniveau wordt het belang van miniaturisatie nog verder gerelativeerd door systeemfysica. De beperkende factoren in hyperscale‑datacenters zijn typisch rack‑power density, thermische dissipatie, PUE‑optimalisatie en infrastructuurkosten. Naarmate men kleinere nodes gebruikt, nemen short‑channel effects, leakage currents en variabiliteit toe, terwijl voltage scaling grotendeels is gestagneerd. Het resultaat is dat het thermisch voordeel per node‑shrink steeds kleiner wordt, terwijl de vermogensdichtheid per vierkante millimeter stijgt. Vanuit operations‑oogpunt verkiezen cloudproviders daarom vaak process nodes met een gunstigere balance tussen performance, thermische headroom, yield en betrouwbaarheid. De keuze voor een chip wordt gemaakt op basis van system‑level efficiency en total cost of ownership, niet op basis van minimale gate‑length alleen.
Tegelijkertijd heeft de industrie een duidelijke “More‑than‑Moore”‑strategie omarmd. In plaats van monolithische SoC’s op de meest geavanceerde node, verschuift de focus naar heterogene integratie. Chiplet‑gebaseerde ontwerpen maken het mogelijk om compute‑tiles, IO‑dies en geheugencontrollers op verschillende nodes te fabriceren en via geavanceerde interconnects samen te brengen in één package. Technologieën zoals 2.5D‑interposers, 3D‑stacking, through‑silicon vias en high‑bandwidth memory verlagen de effective memory latency en verhogen de aggregate bandwidth drastisch. Hierdoor stijgt de effective performance van het systeem, zelfs wanneer de individuele transistoren niet langer significant kleiner worden. De winst komt voort uit betere dataflow, kortere signaalpaden en hogere packaging‑efficiëntie, niet uit lithografische verkleining alleen.
Ook de betekenis van Moore’s Law is hiermee fundamenteel verschoven. Waar de wet vroeger vrijwel letterlijk werd geïnterpreteerd als een verdubbeling van transistoraantallen per die‑area, wordt ze vandaag operationeel vertaald naar een groei van compute‑capaciteit per dollar of per watt op systeemniveau. Deze groei wordt gerealiseerd door schaalvergroting in datacenters, verbeteringen in software‑stacks, compiler‑optimalisaties en het gebruik van lagere precisies zoals FP16, bfloat16 en INT8, vaak gecombineerd met sparsity‑technieken. Hierdoor daalt de effectieve compute‑kost per inference of trainingsstap, ook wanneer de onderliggende hardware niet langer met elke generatie drastisch verkleint.
De economische dimensie versterkt deze trend verder. Elke nieuwe leading‑edge process node vereist exponentieel hogere investeringen in R&D, EUV‑lithografie, mask‑sets en procescontrole, met aanvankelijk lagere yields en langere time‑to‑market. Voor veel AI‑toepassingen is het strategisch rationeler om een grotere die te produceren op een iets oudere node, met hogere opbrengst, lagere risico’s en snellere iteratiecycli. De extra siliciumoppervlakte wordt dan benut voor meer parallelle compute‑units, bredere interconnects of grotere on‑chip buffers, wat in de praktijk vaak meer prestatie oplevert dan een node‑shrink.
Alles samen genomen toont dit aan dat miniaturisatie haar centrale hegemonie heeft verloren. Ze blijft een belangrijk instrument in de halfgeleider‑toolbox, maar is niet langer de exclusieve motor achter vooruitgang. Voor AI‑modellen en datacenters komt prestatiegroei vandaag voort uit architecturale specialisatie, heterogene integratie, systeemoptimalisatie en schaalvergroting. Moore’s Law leeft daardoor voort als een bredere, systeem‑economische wet, waarbij de exponentiële groei van bruikbare compute door meerdere technologische assen wordt gedragen, en niet langer uitsluitend door het verkleinen van transistoren.
Chesini beweert dat hij er alles van kent, maar in werkelijkheid kent hij niets van datacenters, chipdesign of AI. In werkelijkheid gebruikt hij chatgpt om de illusie van intelligentie op te wekken.
Decennialang werd de vooruitgang in de halfgeleiderindustrie vrijwel volledig gedreven door geometrische miniaturisatie. De klassieke interpretatie van de wet van Moore ging uit van Dennard‑scaling: wanneer transistoren kleiner werden, daalden spanning en vermogen evenredig, terwijl de kloksnelheid kon worden verhoogd en de transistordichtheid toenam. Deze schaalwetmatigheid maakte het mogelijk om met elke nieuwe procesnode tegelijk hogere performance, lagere energie per switching‑event en lagere kosten per transistor te realiseren. Dat paradigma heeft echter zijn fysische en economische grenzen bereikt. Miniaturisatie is daarmee van fundamentele drijvende kracht geëvolueerd naar één optimalisatie‑as naast vele andere, en is niet langer een absolute randvoorwaarde voor het uitvoeren van grootschalige AI‑workloads of het opschalen van datacenter‑infrastructuur.
Die verschuiving wordt vooral zichtbaar wanneer men kijkt naar de aard van moderne AI‑modellen. Deep‑learning‑workloads, en in het bijzonder transformer‑architecturen, bestaan hoofdzakelijk uit dense en soms sparse lineaire algebra, zoals GEMM‑operaties en convoluties. De kritische prestatieparameters zijn hier niet single‑thread performance of instructielatency, maar throughput, memory bandwidth en data locality. Daarom domineren architecturen met SIMD‑, SIMT‑ en systolic‑array‑ontwerpen, zoals GPU’s en dedicated AI‑accelerators. Deze systemen behalen hun efficiëntie via massale paralleliteit, pipeline‑diepte en gespecialiseerde datapaden zoals tensor cores, eerder dan via agressieve transistorverkleining. In de praktijk betekent dit dat een accelerator op een minder geavanceerde node nog steeds uitstekende performance per watt kan leveren, zolang de micro‑architectuur, het geheugenhiërarchie‑ontwerp en de interconnect goed afgestemd zijn op het workloadprofiel.
Op datacenterniveau wordt het belang van miniaturisatie nog verder gerelativeerd door systeemfysica. De beperkende factoren in hyperscale‑datacenters zijn typisch rack‑power density, thermische dissipatie, PUE‑optimalisatie en infrastructuurkosten. Naarmate men kleinere nodes gebruikt, nemen short‑channel effects, leakage currents en variabiliteit toe, terwijl voltage scaling grotendeels is gestagneerd. Het resultaat is dat het thermisch voordeel per node‑shrink steeds kleiner wordt, terwijl de vermogensdichtheid per vierkante millimeter stijgt. Vanuit operations‑oogpunt verkiezen cloudproviders daarom vaak process nodes met een gunstigere balance tussen performance, thermische headroom, yield en betrouwbaarheid. De keuze voor een chip wordt gemaakt op basis van system‑level efficiency en total cost of ownership, niet op basis van minimale gate‑length alleen.
Tegelijkertijd heeft de industrie een duidelijke “More‑than‑Moore”‑strategie omarmd. In plaats van monolithische SoC’s op de meest geavanceerde node, verschuift de focus naar heterogene integratie. Chiplet‑gebaseerde ontwerpen maken het mogelijk om compute‑tiles, IO‑dies en geheugencontrollers op verschillende nodes te fabriceren en via geavanceerde interconnects samen te brengen in één package. Technologieën zoals 2.5D‑interposers, 3D‑stacking, through‑silicon vias en high‑bandwidth memory verlagen de effective memory latency en verhogen de aggregate bandwidth drastisch. Hierdoor stijgt de effective performance van het systeem, zelfs wanneer de individuele transistoren niet langer significant kleiner worden. De winst komt voort uit betere dataflow, kortere signaalpaden en hogere packaging‑efficiëntie, niet uit lithografische verkleining alleen.
Ook de betekenis van Moore’s Law is hiermee fundamenteel verschoven. Waar de wet vroeger vrijwel letterlijk werd geïnterpreteerd als een verdubbeling van transistoraantallen per die‑area, wordt ze vandaag operationeel vertaald naar een groei van compute‑capaciteit per dollar of per watt op systeemniveau. Deze groei wordt gerealiseerd door schaalvergroting in datacenters, verbeteringen in software‑stacks, compiler‑optimalisaties en het gebruik van lagere precisies zoals FP16, bfloat16 en INT8, vaak gecombineerd met sparsity‑technieken. Hierdoor daalt de effectieve compute‑kost per inference of trainingsstap, ook wanneer de onderliggende hardware niet langer met elke generatie drastisch verkleint.
De economische dimensie versterkt deze trend verder. Elke nieuwe leading‑edge process node vereist exponentieel hogere investeringen in R&D, EUV‑lithografie, mask‑sets en procescontrole, met aanvankelijk lagere yields en langere time‑to‑market. Voor veel AI‑toepassingen is het strategisch rationeler om een grotere die te produceren op een iets oudere node, met hogere opbrengst, lagere risico’s en snellere iteratiecycli. De extra siliciumoppervlakte wordt dan benut voor meer parallelle compute‑units, bredere interconnects of grotere on‑chip buffers, wat in de praktijk vaak meer prestatie oplevert dan een node‑shrink.
Alles samen genomen toont dit aan dat miniaturisatie haar centrale hegemonie heeft verloren. Ze blijft een belangrijk instrument in de halfgeleider‑toolbox, maar is niet langer de exclusieve motor achter vooruitgang. Voor AI‑modellen en datacenters komt prestatiegroei vandaag voort uit architecturale specialisatie, heterogene integratie, systeemoptimalisatie en schaalvergroting. Moore’s Law leeft daardoor voort als een bredere, systeem‑economische wet, waarbij de exponentiële groei van bruikbare compute door meerdere technologische assen wordt gedragen, en niet langer uitsluitend door het verkleinen van transistoren.
Chesini beweert dat hij er alles van kent, maar in werkelijkheid kent hij niets van datacenters, chipdesign of AI. In werkelijkheid gebruikt hij chatgpt om de illusie van intelligentie op te wekken.
Strookje afknippen en laten ondertekenen door ouders of voogd.
------------ 8< -------------------------------------- knip hier----------------------------------------------
------------ 8< -------------------------------------- knip hier----------------------------------------------
Re: Federale Arizona-regering
Je zegt van jezelf dat je verder komt. Dat voorspelt niet veel goeds, de boswachter die stroper is. Met al wat jij debiteert ben ik nog geen stap verder gekomen. Noem mij 1 post van u sinds 1/1/26 waarin u gefundeerd met argumenten uw uit de lucht gegrepen stellingen uiteenzet? Laat maar komen hoor.patrick4 schreef: ↑Gisteren 16:13Ik heb nergens gezegd dat ik een expert ter zake ben. Sterker nog, ik beweer bij deze dat ik het zeker niet ben.
Ik heb er inderdaad geen snars verstand van, en toch kom ik verder dan jij met wat namedropping en chat-gpt gekopieerde brol die ik verder niet eens gelezen heb.
Jij bent besmet met het SG-virus: ik klets maar uit mijn nek over alles maar ik weet er niets over, ik beperkt mij tot nietszeggende onliners cfr hierboven, ik lees niets van anderen want die anderen zouden mij aan het nadenken kunnen brengen en dat schaadt mijn brein, ik denk dat ik de beste ben van de SG, ttz ik kom mijlen verder dan de andere SG-ers.
Bestaat er een vaccin voor?
Re: Federale Arizona-regering
Je bewijst opnieuw dat jij geen geargumenteerd debat kan voeren. Je dump hier nu 100 lijnen flat text, voor wat vraag ik mij af. Om te bewijzen dat Chesini er niets van af weet? Of om impliciet te bewijzen wat voor een grote idioot jij bent? Voor wat?patrick4 schreef: ↑Gisteren 16:21 Ik zal eens een chesini'tje doen:
Decennialang werd de vooruitgang in de halfgeleiderindustrie vrijwel volledig gedreven door geometrische miniaturisatie. De klassieke interpretatie van de wet van Moore ging uit van Dennard‑scaling: wanneer transistoren kleiner werden, daalden spanning en vermogen evenredig, terwijl de kloksnelheid kon worden verhoogd en de transistordichtheid toenam. Deze schaalwetmatigheid maakte het mogelijk om met elke nieuwe procesnode tegelijk hogere performance, lagere energie per switching‑event en lagere kosten per transistor te realiseren. Dat paradigma heeft echter zijn fysische en economische grenzen bereikt. Miniaturisatie is daarmee van fundamentele drijvende kracht geëvolueerd naar één optimalisatie‑as naast vele andere, en is niet langer een absolute randvoorwaarde voor het uitvoeren van grootschalige AI‑workloads of het opschalen van datacenter‑infrastructuur.
Die verschuiving wordt vooral zichtbaar wanneer men kijkt naar de aard van moderne AI‑modellen. Deep‑learning‑workloads, en in het bijzonder transformer‑architecturen, bestaan hoofdzakelijk uit dense en soms sparse lineaire algebra, zoals GEMM‑operaties en convoluties. De kritische prestatieparameters zijn hier niet single‑thread performance of instructielatency, maar throughput, memory bandwidth en data locality. Daarom domineren architecturen met SIMD‑, SIMT‑ en systolic‑array‑ontwerpen, zoals GPU’s en dedicated AI‑accelerators. Deze systemen behalen hun efficiëntie via massale paralleliteit, pipeline‑diepte en gespecialiseerde datapaden zoals tensor cores, eerder dan via agressieve transistorverkleining. In de praktijk betekent dit dat een accelerator op een minder geavanceerde node nog steeds uitstekende performance per watt kan leveren, zolang de micro‑architectuur, het geheugenhiërarchie‑ontwerp en de interconnect goed afgestemd zijn op het workloadprofiel.
Op datacenterniveau wordt het belang van miniaturisatie nog verder gerelativeerd door systeemfysica. De beperkende factoren in hyperscale‑datacenters zijn typisch rack‑power density, thermische dissipatie, PUE‑optimalisatie en infrastructuurkosten. Naarmate men kleinere nodes gebruikt, nemen short‑channel effects, leakage currents en variabiliteit toe, terwijl voltage scaling grotendeels is gestagneerd. Het resultaat is dat het thermisch voordeel per node‑shrink steeds kleiner wordt, terwijl de vermogensdichtheid per vierkante millimeter stijgt. Vanuit operations‑oogpunt verkiezen cloudproviders daarom vaak process nodes met een gunstigere balance tussen performance, thermische headroom, yield en betrouwbaarheid. De keuze voor een chip wordt gemaakt op basis van system‑level efficiency en total cost of ownership, niet op basis van minimale gate‑length alleen.
Tegelijkertijd heeft de industrie een duidelijke “More‑than‑Moore”‑strategie omarmd. In plaats van monolithische SoC’s op de meest geavanceerde node, verschuift de focus naar heterogene integratie. Chiplet‑gebaseerde ontwerpen maken het mogelijk om compute‑tiles, IO‑dies en geheugencontrollers op verschillende nodes te fabriceren en via geavanceerde interconnects samen te brengen in één package. Technologieën zoals 2.5D‑interposers, 3D‑stacking, through‑silicon vias en high‑bandwidth memory verlagen de effective memory latency en verhogen de aggregate bandwidth drastisch. Hierdoor stijgt de effective performance van het systeem, zelfs wanneer de individuele transistoren niet langer significant kleiner worden. De winst komt voort uit betere dataflow, kortere signaalpaden en hogere packaging‑efficiëntie, niet uit lithografische verkleining alleen.
Ook de betekenis van Moore’s Law is hiermee fundamenteel verschoven. Waar de wet vroeger vrijwel letterlijk werd geïnterpreteerd als een verdubbeling van transistoraantallen per die‑area, wordt ze vandaag operationeel vertaald naar een groei van compute‑capaciteit per dollar of per watt op systeemniveau. Deze groei wordt gerealiseerd door schaalvergroting in datacenters, verbeteringen in software‑stacks, compiler‑optimalisaties en het gebruik van lagere precisies zoals FP16, bfloat16 en INT8, vaak gecombineerd met sparsity‑technieken. Hierdoor daalt de effectieve compute‑kost per inference of trainingsstap, ook wanneer de onderliggende hardware niet langer met elke generatie drastisch verkleint.
De economische dimensie versterkt deze trend verder. Elke nieuwe leading‑edge process node vereist exponentieel hogere investeringen in R&D, EUV‑lithografie, mask‑sets en procescontrole, met aanvankelijk lagere yields en langere time‑to‑market. Voor veel AI‑toepassingen is het strategisch rationeler om een grotere die te produceren op een iets oudere node, met hogere opbrengst, lagere risico’s en snellere iteratiecycli. De extra siliciumoppervlakte wordt dan benut voor meer parallelle compute‑units, bredere interconnects of grotere on‑chip buffers, wat in de praktijk vaak meer prestatie oplevert dan een node‑shrink.
Alles samen genomen toont dit aan dat miniaturisatie haar centrale hegemonie heeft verloren. Ze blijft een belangrijk instrument in de halfgeleider‑toolbox, maar is niet langer de exclusieve motor achter vooruitgang. Voor AI‑modellen en datacenters komt prestatiegroei vandaag voort uit architecturale specialisatie, heterogene integratie, systeemoptimalisatie en schaalvergroting. Moore’s Law leeft daardoor voort als een bredere, systeem‑economische wet, waarbij de exponentiële groei van bruikbare compute door meerdere technologische assen wordt gedragen, en niet langer uitsluitend door het verkleinen van transistoren.
Chesini beweert dat hij er alles van kent, maar in werkelijkheid kent hij niets van datacenters, chipdesign of AI. In werkelijkheid gebruikt hij chatgpt om de illusie van intelligentie op te wekken.
Laatst gewijzigd door chesini op 9 april 2026, 16:33, 2 keer totaal gewijzigd.
Re: Federale Arizona-regering
Ik geef ze ineens allemaal: search.php?author_id=71145&sr=postschesini schreef: ↑Gisteren 16:26 Je zegt van jezelf dat je verder komt. Dat voorspelt niet veel goeds, de boswachter die stroper is. Met al wat jij debiteert ben ik nog geen stap verder gekomen. Noem mij 1 post van u sinds 1/1/26 waarin u gefundeerd met argumenten uw uit de lucht gegrepen stellingen uiteenzet? Laat maar komen hoor.
lol.chesini schreef: ↑Gisteren 16:26 Jij bent besmet met het SG-virus: ik klets maar uit mijn nek over alles maar ik weet er niets over, ik beperkt mij tot nietszeggende onliners cfr hierboven, ik lees niets van anderen want die anderen zouden mij aan het nadenken kunnen brengen en dat schaadt mijn brein, ik denk dat ik de beste ben van de SG, ttz ik kom mijlen verder dan de andere SG-ers.
Bestaat er een vaccin voor?
Strookje afknippen en laten ondertekenen door ouders of voogd.
------------ 8< -------------------------------------- knip hier----------------------------------------------
------------ 8< -------------------------------------- knip hier----------------------------------------------
Re: Federale Arizona-regering
Ja, precies dat.
Strookje afknippen en laten ondertekenen door ouders of voogd.
------------ 8< -------------------------------------- knip hier----------------------------------------------
------------ 8< -------------------------------------- knip hier----------------------------------------------
Re: Federale Arizona-regering
Ik denk het tweede hoor. Nog een eigenschap van het SG-virus: selectief citeren, als het maar in mijn idiotenkraam past is de logica.
Je bewijst opnieuw dat jij geen geargumenteerd debat kan voeren. Je dump hier nu 100 lijnen flat text, voor wat vraag ik mij af. Om te bewijzen dat Chesini er niets van af weet? Of om impliciet te bewijzen wat voor een grote idioot jij bent? Voor wat?
- KleineSpaarder
- VIP member

- Berichten: 1177
- Lid geworden op: 23 aug 2024
- Contacteer:
Re: Federale Arizona-regering
Patrick4 is gewoon een van de nicks van VincentVega.
VincentVega is intellectueel niet in staat om inhoudelijk te redeneren. Maar vindt zichzelf wel ongelooflijk intelligent en superieur.
Steek er geen tijd in.
Re: Federale Arizona-regering
Dit Rupo heeft wel serieuze aanpassingen gedaan in de pensioenen, vooral voor ambtenaren (aanpassing referteperiode, tantièmes en diplomabonificatie). De Vivaldiregering is dan zo lomp geweest de minimumpensioenen met 15pct te verhogen waardoor de pensioenlasten met miljarden euro's gestegen zijn. De N-VA had de politieke moed moeten hebben om die verhoging ongedaan te maken, hetgeen trouwens ook een belofte was,....mondeo17 schreef: ↑8 april 2026, 15:57Di Rupo had misschien zijn rekeningen op orde. Maar hij heeft wel nagelaten, net zoals alle andere regeringen om de noodzakelijke aanpassingen in de pensioenen en de werkloosheid door te voeren. Terwijl hiervoor al jaren gepleit wordt door talloze experts en instellingen.Gg70 schreef: ↑7 april 2026, 20:15
Mislukt!!! Dit Rupo had zijn rekeningen wel
op orde....
Bij De Wever met zijn neoliberale ingrediënten zal dat niet lukken, besparen
op zieken, werklozen,index, pensioenen is
vicieuze cirkel bergaf.... tegelijkertijd flexi-studentenjobs uitbreiden(geen-Weinig
sociale bijdragen)... subsidies bedrijven,
extra's defensie...
Re: Federale Arizona-regering
Ooh boy, waar zal ik beginnen...chesini schreef: ↑Gisteren 16:34 Ik denk het tweede hoor. Nog een eigenschap van het SG-virus: selectief citeren, als het maar in mijn idiotenkraam past is de logica.
Je bewijst opnieuw dat jij geen geargumenteerd debat kan voeren. Je dump hier nu 100 lijnen flat text, voor wat vraag ik mij af. Om te bewijzen dat Chesini er niets van af weet? Of om impliciet te bewijzen wat voor een grote idioot jij bent? Voor wat?
(ademt in...) Goed. Toch nog eens proberen uitleggen. Door een door AI gegenereerde tekst te copy-pasten bewijs ik dat het niet moeilijk is om de illusie te wekken dat je over bepaalde domeinspecifieke kennis beschikt. Echter, je valt totaal door de mand tegenover iemand die wel degelijk over domeinspecifieke kennis beschikt. Je creeert dus enkel een kortstondige illusie.
Mijn tekst, waarvan de kernboodschap (namelijk dat minituriatie slechts een middel is en geen doel op zich) trouwens inhoudelijk overeind staat is doorspekt van dezelfde onnozele namedropping waarvan jij je bedient. Voor de gezelligheid heb ik AI gevraagd er echt een karikatuur van te maken.
Het is opmerkelijk dat wanneer het meningsverschil zich precies op het inhoudelijke niveau bevindt, je begint te verwijten dat er geen inhoudelijke discussie is. Het is in werkelijkheid net het tegendeel: het is net wanneer er een inhoudelijke discussie ontstaat je van je voetstuk valt en dus maar begint te schelden.
Overigens ken ik weinig experten in chipdesign die nog woorden van de lagere school gebruiken zoals "voor wat" in de plaats van "waarom". Ook dat draagt bij aan een verdere ondermijning van je eigen aangemeten imago. Je lijdt aan het KleineSpaarder syndroom: wanneer je inhoudelijk door de mand valt dan beroep je je op:
- persoonlijke aanvallen en beledigingen
- niet inhoudelijk reageren en mensen beschuldigen van niet inhoudelijk te reageren
- mensen beschuldigen van dubbelaccounts
Als je wilt kan ik AI vragen om de teskt wat meer structuur te geven en te vereenvoudigen zodat je weer inhoudelijk kunt reageren?
Strookje afknippen en laten ondertekenen door ouders of voogd.
------------ 8< -------------------------------------- knip hier----------------------------------------------
------------ 8< -------------------------------------- knip hier----------------------------------------------
Re: Federale Arizona-regering
Zolang miniaturisatie de fysische limieten niet bereikt heeft, zal ze blijven doorgaan omdat kleinere transistoren minder stroom verbruiken, omdat je dan meer systeemmodules op één chip kan plaatsen, omdat je 1000miljard transistors op één chip krijgt wat nodig is om grote deep learning modellen te kunnen trainen ea.
Als je alles zal kunnen draaien op 1 kaart, dan ga je toch niet blijven worstelen met 4 kaarten? het is toch 1x 800W versus 4x800W?
Als je alles zal kunnen draaien op 1 kaart, dan ga je toch niet blijven worstelen met 4 kaarten? het is toch 1x 800W versus 4x800W?
Re: Federale Arizona-regering
Ik verwijs nogmaals naar mijn basisstelling: miniaturisatie is geen doel maar een middel. Het is een eenvoudige economische afweging. Als het maken van kleinere chips goedkoper is dan het bijplaatsen van chips dan kiest men voor kleinere chips. In het andere geval niet.
Van zodra een economische limiet bereikt is kiest men voor andere oplossingen.
Van zodra een economische limiet bereikt is kiest men voor andere oplossingen.
Strookje afknippen en laten ondertekenen door ouders of voogd.
------------ 8< -------------------------------------- knip hier----------------------------------------------
------------ 8< -------------------------------------- knip hier----------------------------------------------
Re: Federale Arizona-regering
Mijn basisstelling is dat miniaturisatie tot 1nm ook een doel op zich is, omdat het de enige piste is om voldoende grote chips te fabriceren die nog ietwat efficiënt kunnen omgaan met de hoge eisen van AGI en deep learning AI-modellen.
De huidige AI-modellen vergen zoveel rekenkracht dat we zonder de stap naar 1nm en de bijbehorende High-NA machines tegen een muur van energieverbruik en fysieke ruimte aanlopen. Maw miniaturisatie naar 1nm is een main driver om AGI te kunnen realiseren.
De huidige AI-modellen vergen zoveel rekenkracht dat we zonder de stap naar 1nm en de bijbehorende High-NA machines tegen een muur van energieverbruik en fysieke ruimte aanlopen. Maw miniaturisatie naar 1nm is een main driver om AGI te kunnen realiseren.

