Machine Learning
Troels Petersen er lektor og partikelfysiker på Niels Bohr Institutet ved Københavns Universitet, og han har undervist i machine learning i en årrække. Machine learning tog for hans vedkommende udgangspunkt i hans forskning i de store partikeldetektorer nede ved CERN, verdens største forskningslaboratorium på grænsen mellem Schweiz og Frankrig.
Frederikke Rasmussen
Frederikke er specialestuderende i Fysik, og i hendes speciale bruger hun machine learning til at skabe modeller, der kan bruges til at analysere fremtidig data fra IceCube, et neutrinoobservatorium på Sydpolen.
Planen er at detektoren skal udvides inden for de næste par år, så vi kan få endnu mere præcis data.
Frederikkes projekt handler om at udvikle machine learning-modeller der kan bruges til denne nye version. Derfor arbejder hun med simulerede data, der efterligner det vi kommer til at måle i fremtiden, til at træne og teste hendes modeller, så de er klar til at analysere data fra den opdaterede detektor.
Hvorfor vil vi vide noget om neutrinoner?
Neutrinoer er nogle af de mest mystiske og undvigende partikler i universet. Hvert sekund flyver der en billion neutrinoer gennem vores krop uden at vi ligger mærke til det. Vi kalder dem derfor også spøgelsespartikler.
De er næsten usynlige partikler, der kan rejse fra de mest ekstreme steder i universet – f.eks. supernovaer, neutronstjernesammenstød og fremmede galakser – og nå til Jorden uden at blive stoppet undervejs.
Det gør dem til helt unikke budbringere, der kan give os nye informationer om universets mest voldsomme processer.
Traditionelt set kigger vi ud i rummet ved hjælp af lys eller fotoner, f.eks. gennem synligt lys, radiobølger og røntgenstråler. Men neutrinoer giver os et helt nyt værktøj og kan hjælpe os med at forstå ting, der sker ved langt højere energier end vi tidligere har kunne se med traditionelle teleskoper.
Et specifikt neuralt netværk
En af de store udfordringer med IceCube-data er, at det er meget uregelmæssig data. Når neutrinoer kolliderer med atomer i isen, kan de efterlade forskellige typer spor– nogle gange som lange spor, andre gange som kaskader af lys, og hver interaktion kan aktivere et forskelligt antal sensorer.
Hvert mønster fortæller os noget om neutrinoens energi og retning, men fordi målingerne er så forskellige og vi ikke har en ensformig mængde af information, kræver det avancerede machine learning-modeller for at analysere dem.
Derfor bruger Frederikke en særlig type machine learning-model, der kaldes et Graph Neural Network, som i modsætning til mange andre modeller, kan håndtere disse irregulære data. Denne type netværk ser på data som en graf, hvor forskellige sensorer og deres målinger hænger sammen som et 3D netværk af punkter og forbindelser.
Det hjælper os med at forstå, hvordan de forskellige sensor-målinger hænger sammen, og det er afgørende for at kunne rekonstruere neutrinobegivenheder og forudsige værdier som energi og partikelbaner.
Hvordan fungerer machine learning?
Når vi træner vores machine learning-model, starter vi med at give den et stort datasæt, typisk bestående af hundrede tusinder eller millioner af neutrino events.
- For hvert event bruger vi 13 forskellige parametre – såsom lyssensorens placering, tidsperioden for målingen og den registrerede ladning.
- For hver sensor der har opfanget noget lys, kigger modellen på hvilke andre sensorer den forbinder til, hvilke andre i nærheden der også er blevet aktiveret og deres målinger af de forskellige parametre.
- Ved at se på relationerne mellem alle de aktiverede sensorer lærer modellen efterhånden at genkende mønstre i de forskellige typer af neutrinobegivenheder og hvordan de opfører sig.
- Modellen starter så med at afgive sit første gæt på den opgave vi giver den og finjusterer så sine beregninger igen og igen. Gennem mange iterationer kan vi træne modellen at rekonstruere forskellige egenskaber ved netrinoerne med stor præsicion.
- Når modellen er færdigtrænet, har vi et værktøj, der kan hjælpe os med at tolke de komplekse data vi får fra IceCube.
Med machine learning håber vi at kunne svare på spørgsmål som: Hvor kommer neutrinoerne fra? Hvilke begivenheder i Universet har skabt dem? Hvad kan de fortælle os om Universets mest ekstreme fænomener? Og hvorfor opfører de sig så anderledes end andre partikler.
Josephine G. Kande
Forudsigelse af gletsjertykkelse: En machine learning metode
Dette projekt er lavet som en del af kurset Applied Machine Learning. Min gruppe og jeg har udviklet en Machine Learning model til at forudsige gletsjeres tykkelse. Projektet er motiveret af de stigende globale temperaturer, som øger gletsjersmeltning og bidrager til havniveaustigninger i fremtiden.
For at bestemme gletsjertykkelsen skal man normalt enten måle den direkte eller forsøge at beregne den med en model. I stedet undersøgte vi en ny metode, hvor vi trænede en Machine Learning model til at kunne forudsige tykkelsen ud fra målinger.
Vi brugte data fra gletsjerobservationer hvor parametre såsom areal, hældning og overfladehastighed indgår.
Dataen vi fik udleveret ved projektets start, stammer fra GlaThiDa (Glacier Thickness Database), som indeholder målinger af isens tykkelse på gletsjere og iskapper. Desuden omfattede datasættet relevante målingsparametre fra andre databaser, såsom OGGM (The Open Global Glacier Model).
- Nogle af målingsparametrene beskrev lokale værdier, eksempelvis hældningsmålinger forskellige steder (defineret ved bredde- og længdegrad koordinat) inden for samme gletsjer.
- Andre parametre var generelle for hele gletsjeren, som for eksempel arealet, der er en konstant værdi for hele gletsjeren og ikke varierer mellem målinger forskellige steder på samme gletsjer.
- Vores opgave bestod i at identificere de mest relevante målingsparametre og træne modellen til at genkende mønstre, og på baggrund af det kunne forudsige tykkelsen på specifikke koordinater i gletsjeren.
Formålet med at forudsige gletsjers tykkelse, er at man kan finde gletsjer volumen og hjælpe med at forudsige, hvor meget vand der er bundet i gletsjeren. Dermed kan vi bedre forudsige fremtidige havniveaustigninger som følge af klimaforandringer.
Ian Pascal Møller
Ian afleverede sit speciale i efteråret 2024 om hans arbejde med machine learning i FoCal projektet.