Foundation Models voor Physics AI
AI is razendsnel doorgedrongen in ons dagelijks leven. We gebruiken het bij het programmeren, voor het schrijven van teksten, voor het genereren van afbeeldingen en nog veel meer. Maar tot voor kort liep de ontwikkeling van AI voor toepassingen in de fysieke wereld wat achter. Nu beloven foundation models en world models het ontwikkelen van machine learning applicaties voor dit soort toepassingen makkelijker te maken.
Zie ook onze pagina over Physics AI en ons whitepaper over Physics AI.
Wat is een foundation model?
Foundation models zijn zeer grote machine learning-modellen die getraind zijn op een breed scala aan data. Het idee is dat een foundation model de generieke aspecten van een volledig domein leert. Met verdere finetuning kan het vervolgens geschikt gemaakt worden voor specifieke toepassingen. Dit maakt het bouwen van machine learning applicaties veel eenvoudiger: het is niet langer nodig om een ​​volledig model vanaf nul te trainen. Dit bespaart enorm veel tijd en geld.
Foundation Models voor Physics AI
De meeste huidige foundation models zijn gebouwd op tekstdata, afbeeldingen, video en geluid. Dit is relatief eenvoudig, omdat er enorme hoeveelheden van dergelijke data beschikbaar zijn op internet. Bovendien kan dit soort foundation models worden gefinetuned voor toepassingen met een grote markt, zoals het ondersteunen van programmeerwerk en het genereren van afbeeldingen, video en muziek.
Het ontwikkelen van foundation models voor processen in de fysieke wereld is lastiger. Dit komt deels doordat het niet eenvoudig is om een ​​grote dataset samen te stellen waarmee een foundation model getraind kan worden voor een breed scala aan natuurlijke processen. Zelfs binnen één wetenschapsgebied, zoals de natuurkunde, bestaat er een grote verscheidenheid aan processen en bijbehorende data. Als meerdere wetenschapsgebieden samen komen, bijvoorbeeld natuurkunde, scheikunde en biologie, is het nog moeilijker om een ​​dataset samen te stellen die het hele veld voldoende bestrijkt.
Maar er zijn inmiddels wel enkele grote datasets beschikbaar (zoals The Well) en onderzoekers zijn begonnen die te gebruiken voor foundation models in de natuurkunde. Bekende voorbeelden zijn Poseidon, Walrus en PhysiX. Het onderzoek vordert snel en er zullen ongetwijfeld snel nieuwe voorbeelden verschijnen.
World Models
Tegelijkertijd is er een aparte, maar verwante ontwikkeling onder de naam world models. Een origineel werk op dit gebied is het artikel van Ha en Schmidhuber. Nvidia heeft dit concept sterk omarmd vanwege het potentiële gebruik in de robotica.
Net als physics foundation models zijn ook dit modellen om de wereld om ons heen te begrijpen, maar ze zijn gebaseerd op een ander principe. Waar foundation models de patronen in de trainingsdata leren, leren wereldmodellen het effect van acties te voorspellen. Het idee hierachter is dat dit ook de manier is waarop kinderen aanvankelijk leren hoe de wereld werkt: niet door enorme datasets te verwerken, maar door direct het resultaat van acties in de wereld te observeren.
Een belangrijk aspect van world models is dat ze een interne representatie van de wereld opbouwen. Dit betekent dat objecten in hun wereld niet plotseling verdwijnen of verschijnen. Zelfs als ze tijdelijk verborgen zijn, bestaan ​​ze nog steeds in de interne representatie. Deze consistentie is uiteraard een zeer prettige eigenschap voor AI die in de fysieke wereld wordt toegepast.
En hoe zit het met Scientific Machine Learning?
De aandacht voor foundation models en world models overschaduwt vaak het werk dat gaande is op het gebied van scientific machine learning, de combinatie van machine learning met meer traditionele wetenschappelijke modellering. Deze methoden zijn erop gericht modellen te laten voldoen aan de natuurwetten, althans tot een zekere mate die enigszins beheersbaar is.
Op dit moment lijkt dit principe niet te worden toegepast in physics foundation models, althans niet in alle: de eerdergenoemde foundation models zijn volledig datagedreven. In dat geval is er geen garantie dat ze zich aan de natuurwetten zullen houden. Omdat veel toepassingen van AI in de natuurkunde een hoge mate van betrouwbaarheid vereisen, lijken de toepassingen van dergelijke puur datagedreven foundation models beperkt.
Een vergelijkbaar argument kan worden aangevoerd voor world models. Ook deze voldoen niet inherent aan de natuurwetten, hoewel ze minder onvoorspelbaar zijn vanwege hun interne wereldrepresentatie.
En nu?
Hoewel ze de natuurkunde impliciet en niet expliciet leren, worden wereldmodellen al veelvuldig gebruikt voor toepassingen met een fysieke component.
Physics foundation models daarentegen zijn nog in ontwikkeling. Als ze betrouwbaar genoeg blijken te zijn, zal dat een serieuze doorbraak betekenen in het gebruik van AI voor toepassingen in de fysieke wereld. Milieumodellen zijn een duidelijk voorbeeld, maar toepassingen in het ontwerp of de optimalisatie van fysieke systemen zijn ook denkbaar, en er zijn nog veel meer gebruiksscenario’s.
Maar het gebruik van physics foundation models is niet per se eenvoudig. Voor het finetunen van een dergelijk model is nog steeds een grote dataset van de specifieke toepassing nodig, en niet alle sectoren beschikken over dergelijke datasets. Het zou mooi zijn als bedrijven en instellingen hun data zouden delen om datasets van voldoende omvang te creëren, maar dat stuit vaak op problemen met bedrijfsgeheimen en vertrouwelijkheid.
Het gebruik van natuurwetten in het trainingsproces zou helpen, omdat dit extra informatie aan de training zou toevoegen en een zekere mate van betrouwbaarheid zou kunnen garanderen. Dergelijke ontwikkelingen doen zich al voor, bijvoorbeeld in het Vinci-project.
Het is in ieder geval goed om deze ontwikkelingen in de gaten te houden. Zoals aan het begin van dit blogbericht al werd aangegeven, is de kans groot dat de drempels voor het gebruik van AI in de fysieke wereld binnenkort aanzienlijk zullen worden verlaagd, maar we zijn er nog niet.