Met technologische ontwikkelingen die momenteel in een razendsnel tempo verlopen, vinden wij het gevaarlijk om te veel vertrouwen te hebben in één enkele benadering.
Op 19 november gingen Karen Ward, EMEA Chief Market Strategist, en Alex Whyte, portefeuillebeheerder bij onze International Equity Group, met elkaar in gesprek over alles wat met kunstmatige intelligentie (AI) te maken heeft. Gezien de enorme belangstelling van onze klanten tijdens het webinar, hebben we de antwoorden op enkele van de meest gestelde vragen op een rijtje gezet. Voor een breder perspectief op de vooruitzichten voor AI kunt u hier onze Investment Outlook 2026 bekijken.
Wat zijn de vooruitzichten voor het te gelde maken van AI-toepassingen en hoe verschillen de opties voor business-to-business (B2B) en business-to-consumer (B2C)?
De aandacht van beleggers is momenteel vooral gericht op de directe monetisatie van B2C-klanten (bijvoorbeeld particulieren die betalen voor premiumgebruik van ChatGPT), aangezien dit waarschijnlijk het meest zichtbare teken is van de huidige bereidheid om te betalen. In werkelijkheid zal dit echter waarschijnlijk slechts een klein deel uitmaken van de toekomstige inkomstenstromen voor aanbieders van AI-modellen.
Aangezien veel aanbieders van AI-toepassingen nog steeds private bedrijven zijn, kan de huidige omzetverdeling alleen worden samengesteld uit een lappendeken van verschillende bronnen. We kunnen de potentiële inkomstenstromen echter in vier groepen indelen.
B2C
1) Directe consumentenabonnementen
De geschiedenis kent vele voorbeelden van technologiebedrijven die eerst een loyale gebruikersgroep hebben opgebouwd en vervolgens tarieven zijn gaan vragen voor wat voorheen als een gratis dienst werd aangeboden. Het belangrijkste risico van deze aanpak is dat de bereidheid van consumenten om te betalen doorgaans laag is, vooral wanneer er (mogelijk goedkopere) alternatieven bestaan. Ter illustratie: Spotify en Netflix, twee van 's werelds meest succesvolle bedrijven op het gebied van consumentenabonnementen, zullen dit jaar naar verwachting respectievelijk ongeveer 20 miljard dollar en 50 miljard dollar aan inkomsten genereren. OpenAI verwacht een spectaculaire groei van het aantal gebruikers in de komende vijf jaar, maar zelfs zij verwachten dat in 2030 minder dan 10% van de consumenten bereid zal zijn om voor een abonnement te betalen, aldus een rapport van The Information.
2) Indirecte monetisatie van consumenten
In plaats van gebruikers te vragen rechtstreeks voor diensten te betalen, zouden AI-toepassingen winst kunnen genereren via advertenties, of door gebruikers in staat te stellen AI-'agenten' op te dragen taken uit te voeren, zoals online boekingen namens hen, terwijl ze een deel van de opbrengst van de leveranciersbedrijven ontvangen. Reclame is ongetwijfeld een enorme potentiële markt: Meta alleen al zou dit jaar bijna 200 miljard dollar aan inkomsten moeten genereren, voornamelijk uit advertenties. Dit is echter een heel andere benadering dan de oorspronkelijke propositie voor investeerders in AI. Online reclame is ook een zeer volwassen markt, dus als AI-bedrijven de advertentie-inkomsten gaan stimuleren, zal dit waarschijnlijk a) ten koste gaan van de bestaande inkomstenstromen van andere megacap-techbedrijven, en b) veel meer kapitaalintensief zijn.
B2B
1) Directe toegang tot modellen
AI-bedrijven verdienen al geld met hun technologie door bedrijven te laten betalen voor 'API-oproepen' – met andere woorden, een bedrijf betaalt voor een directe link naar een groot taalmodel (LLM) en betaalt voor elke opdracht (‘query’) die het uitvoert.
Deze route stelt bedrijven in staat om hun eigen use cases te bouwen bovenop een basisproduct en is een van de meest veelbelovende inkomstenstromen voor AI-toepassingen. Als gevolg daarvan worden trends in de uitrol (en/of annulering) van dergelijke partnerschappen zorgvuldig onder de loep genomen. Dat verklaart ook waarom de studie van het MIT Media Lab van augustus, waarin een faalpercentage van 95% bij AI-pilots werd benadrukt, door veel beleggers zo negatief werd ontvangen.
2) AI-agenten
Net zoals bedrijven inkomsten kunnen genereren door AI-agenten aan te bieden om taken in de echte wereld voor consumenten uit te voeren, kunnen ze hetzelfde doen voor bedrijven. Een groot aantal AI-startups richt zich op dit gebied en belooft oplossingen die taken kunnen uitvoeren die momenteel door mensen worden gedaan, maar dan goedkoper.
Naar onze mening biedt deze route het grootste potentieel voor inkomsten, gezien de aanzienlijke kostenbesparingen die AI-agenten bedrijven kunnen opleveren, waardoor een hoge prijs voor de technologie gerechtvaardigd is. Het venijn zit echter in de details, want problemen met de betrouwbaarheid en nauwkeurigheid verhinderen momenteel een brede acceptatie. We nemen de meest recente berichten over 'banen die door AI worden vervangen' ook met een flinke korrel zout, gezien de verleiding voor bedrijven om deze verklaring te gebruiken om de afnemende vraag te maskeren.
Hoe reëel is de dreiging van technologische disruptie voor de huidige AI-megacaps?
Aangezien de technologische ontwikkelingen momenteel in een razend tempo verlopen, vinden wij het gevaarlijk om te veel vertrouwen te stellen in één enkele aanpak.
De huidige hausse werd aangewakkerd door het enorme succes van LLM's. Deze modellen simuleren menselijke conversaties door middel van 'training' met enorme rekenkracht op basis van enorme hoeveelheden data, om zo te 'leren' wat ze in bepaalde situaties moeten zeggen. De meeste huidige AI-ontwikkelingen zijn erop gericht om de mogelijkheden of nauwkeurigheid van onze huidige LLM's te verbeteren en ze in te zetten om bepaalde problemen op te lossen. De soorten chips die worden geproduceerd door bedrijven als NVIDIA zijn bij uitstek geschikt voor het soort wiskunde dat ten grondslag ligt aan dit soort grote modellen.
We zien drie potentiële risico's aan deze aanpak. Ten eerste bestaat het risico dat verdere ontwikkeling van LLM's steeds minder rendement oplevert. Verschillende generaties modellen (bijvoorbeeld GPT-4 versus GPT-5) laten al kleinere sprongen in vooruitgang zien. Dit vormt een reëel probleem voor de gevestigde bedrijven, aangezien het hun vermogen om de concurrentie voor te blijven op de proef stelt en tegelijkertijd vragen oproept over hoe nuttig modellen uiteindelijk kunnen worden in een bedrijfsomgeving.
Tegenwoordig zijn modelverbeteringen grotendeels afhankelijk van het gebruik van meer rekenkracht om modellen te trainen op steeds grotere datasets. Als technologische doorbraken bedrijven in staat stellen om modellen op een minder resource-intensieve manier te verbeteren, zou dit een aanzienlijke invloed kunnen hebben op de huidige aannames over de benodigde rekenkracht in de komende jaren.
Ten tweede is het 'DeepSeek-moment' in januari, toen een Chinese start-up een minder resource-intensieve manier vond om een fundamenteel AI-model te bouwen, een goede herinnering dat er nieuwe technieken kunnen ontstaan die de gevestigde bedrijven opnieuw uitdagen. Wat als meer bedrijven buiten het huidige AI-ecosysteem goedkopere of snellere manieren vinden om nieuwe modellen te bouwen? Dit zou niet alleen de waardering van de gevestigde bedrijven in gevaar brengen, maar ook de vraag naar chips in de hele toeleveringsketen radicaal veranderen.
Ten derde: is klein het nieuwe groot? Als LLM's zoals hierboven beschreven geen vooruitgang meer boeken, kan het zijn dat kleine taalmodellen die zich richten op het uitvoeren van specifieke taken op een zo min mogelijk resource-intensieve manier, veel aantrekkelijker worden. In plaats van enorme datacenters te vereisen, zouden dit soort modellen op persoonlijke apparaten kunnen worden uitgevoerd. Dat zou opnieuw enorme gevolgen hebben voor de huidige AI-investeringsplannen, waar de verwachtingen alleen maar hoger zijn geworden.
Wat zijn de vooruitzichten voor de vraag naar chips? Als de door AI aangestuurde vraag afneemt, kunnen alternatieve vraagbronnen dit dan compenseren?
De meeste AI-toepassingen draaien momenteel op GPU's (graphics processing units), de chips die door NVIDIA zijn ontwikkeld. Deze chips zijn uitermate geschikt voor het trainen en uitvoeren van AI-modellen, maar ze zijn ook duur en momenteel beperkt beschikbaar.
Als gevolg daarvan zijn sommige bedrijven overgestapt van GPU's naar applicatiespecifieke geïntegreerde schakelingen (ASIC's). Dit zijn op maat ontworpen chips voor het uitvoeren van AI-toepassingen, die voor één enkele klant worden geproduceerd. Natuurlijk hebben niet alle bedrijven de mogelijkheden om hun eigen chips te ontwerpen en op de markt te brengen, dus de belangrijkste spelers zijn bedrijven als Google (met hun TPU's, of tensor processing units) en Amazon (met hun 'Trainium'-chips).
Voor degenen die hierin slagen, biedt deze aanpak niet alleen enige autonomie ten opzichte van NVIDIA, maar ook goedkopere chips die beter zijn afgestemd op hun specifieke behoeften, hoewel dit mogelijk ten koste gaat van de prestaties. Bedrijven die het meest zijn toegerust op de opkomst van ASIC's zijn onder meer Broadcom, dat samenwerkt met deze grote klanten om de chips te ontwerpen die zij nodig hebben.
Op dit moment verwachten we niet dat de opkomst van ASIC's het dominante marktaandeel van NVIDIA in gevaar zal brengen. We verwachten echter wel dat de vraag naar ASIC's van grote klanten zal blijven groeien, en we zijn van mening dat meer keuze voor chipgebruikers op de lange termijn positief zal zijn voor de markt.
Als de vraag naar chips voor AI-toepassingen afneemt, is het moeilijk voor te stellen hoe andere gebruiksscenario's het verwachte aanbod zouden kunnen opvangen. Als we GPU's als voorbeeld nemen, is meer dan 115 miljard dollar van de geschatte 130 miljard dollar aan inkomsten van NVIDIA in 2025 afkomstig uit het datacentersegment, een bedrijfstak die in 2020 nog minder dan 3 miljard dollar waard was. Gaming, de andere belangrijke motor achter de vraag naar GPU's, is dit jaar goed voor slechts 11 miljard dollar.
Hetzelfde zien we bij andere chipleveranciers, waar de enorme omvang van de AI-uitgaven alle andere segmenten in de schaduw stelt. Andere vraaggebieden, zoals cryptocurrency mining, zijn lang niet groot genoeg om de vraag van AI-datacenters te vervangen. Andere grote gebruikers van halfgeleiders, zoals de smartphone- en PC/laptopindustrie, bevinden zich in een fase van zeer lage groei, dus het is onwaarschijnlijk dat zij investeerders te hulp zullen schieten als de verwachte vraag naar AI-chips uitblijft en we met overcapaciteit blijven zitten.
Hoe bezorgd moeten we zijn over circulaire financieringsovereenkomsten?
Toen de technologiezeepbel begin jaren 2000 barstte, werd duidelijk dat veel van de zogenaamde 'winsten' in werkelijkheid cashflows waren die gewoon tussen verschillende technologiebedrijven werden uitgewisseld, zonder dat er economische waarde werd gecreëerd. Bedrijf A kocht bijvoorbeeld online advertentieruimte van bedrijf B, dat die inkomsten vervolgens gebruikte om advertentieruimte te kopen van bedrijf C, dat dat geld vervolgens weer herinvesteerde in bedrijf A.
De situatie van vandaag ziet er heel anders uit. Veel grote technologiebedrijven genereren al ongelooflijk indrukwekkende winsten en in tegenstelling tot de zwakke balans van 25 jaar geleden, zitten de grootste spelers van vandaag op een berg cash ter waarde van honderden miljarden dollars. Cruciaal is dat deze financiële kracht veel van de hyperscalers tot nu toe in staat heeft gesteld om hun AI-gerelateerde kapitaaluitgaven te financieren uit vrije kasstromen. We merken echter op dat de kapitaaluitgaven die voor de komende jaren zijn gepland, een verdere aanslag zullen doen op de beschikbare geldvoorraden.
De vele deals die de afgelopen maanden tussen verschillende leden van het AI-ecosysteem zijn gesloten, doen enigszins denken aan het einde van de jaren 90. De aankondiging in september dat NVIDIA van plan is om tot 100 miljard dollar in OpenAI te investeren, was misschien wel de meest opvallende van deze investeringsdeals. OpenAI zal op zijn beurt een groot deel van deze investering gebruiken om nieuwe rekencapaciteit te verwerven, wat vervolgens de vraag naar chips van NVIDIA zal stimuleren.
Optimisten zouden zeggen dat NVIDIA het geld op zijn balans gebruikt om de toekomstige vraag naar voren te halen. Maar hoe meer het lot van individuele bedrijven met elkaar verweven raakt, hoe groter het risico dat één enkele mislukking het hele systeem kan ontrafelen.