Fornem h?der til AAU-forsker: Vil afsl?re "AI-forgiftning"
: 24.06.2025

Fornem h?der til AAU-forsker: Vil afsl?re "AI-forgiftning"
: 24.06.2025

Fornem h?der til professor Johannes Bjerva
: 24.06.2025
: 24.06.2025
Af Peter Witten, AAU Kommunikation og Public Affairs
Foto: DFF
"Jeg er stolt. En k?mpe anerkendelse af min forskning," siger professor Johannes Bjerva fra Institut for Datalogi, AAU.
Han er blevet tildelt Sapere Aude, en af de mest prestigefulde forskningsbevillinger i Danmark. Forskningsleder-bevillingen er p? knap 6,2 millioner kroner og uddeles af Danmarks Frie Forskningsfond.
Millionerne skal bruges til at dykke ned i, hvad der potentielt kan koste menneskeliv.
Johannes Bjervas forskningsprojekt TRUST tager udgangspunkt i, at det bliver sv?rere og sv?rere at se, om det vi l?ser p? computersk?rmen, er skrevet af et menneske eller en sprogmodel, LLM (Large Language Model) - kunstig intelligens.
N?r vi bruger for eksempel ChatGPT, ved mange godt, at vi i nogle tilf?lde kan f? forkerte svar p? vores sp?rgsm?l.
Mange ved dog ikke, at den underliggende AI-teknologi er s?rbar og kan manipuleres eller "forgiftes" via hackerangreb. Det kan f?re til misinformation - eller det, der er v?rre.
Kunstig intelligens og sprogmodeller bruges i dag til langt mere end at skrive en hurtig stil med hj?lp fra ChatGPT.
I dag er sprogmodeller integreret i kritiske funktioner i for eksempel sundhedsv?senet. Det betyder, at hackerangreb kan f? alvorlige konsekvenser for behandlingen af patienter og i yderste konsekvens koste liv.
Bekymringen om systemers p?lidelighed og sikkerhed g?lder ikke kun kritisk udstyr i sundhedsv?senet, men ogs? hos uddannelser og mange andre steder i samfundet.
Og bekymringen bliver ikke mindre af, at de inficerede systemer, sprogmodeller, m?ske f?rst begynder at manipulere og misinformere senere. Som en slags "sleeper agent", der pludselig v?gner og g?r i aktion, n?vner Johannes Bjerva.
Det skal TRUST-projektet fors?ge at forhindre. Forskningsprojektet vil bidrage med grundforskning med det m?l at afd?kke skjulte m?nstre i AI-skabt tekst ved at studere sproglige strukturer. Blandt andet s?tningsstruktur, ordformer og betydningen af ordene.
Ved at finde frem til variationer i teksten skal projektet udvikle metoder til at opdage b?de kunstigt skabt tekst og tilf?lde, hvor sprogmodeller er blevet manipuleret af folk med onde hensigter.
"Vi kan blive p?virket p? subtile m?der. Kerneproblemet er, hvis nogen er i stand til at inds?tte en struktureret bias, der kan p?virke os over l?ngere tid, uden at vi er klar over det," siger Johannes Bjerva.
TRUST-projektet varer fire ?r og vil unders?ge problemet p? tv?rs af flere sprog og uafh?ngigt af bestemte sprogmodeller.
If?lge Johannes Bjerva findes der ikke lignende forskningsprojekter i Europa, og i TRUST-projektet vil man samarbejde med institut for lingvistik p? Stockholms Universitet.
Fakta