Projectdetails
!!Description
Ons interdisciplinaire onderzoeksprogramma pakt een aantal belangrijke uitdagingen aan op het gebied van kunstmatige intelligentie (AI), met name om AI-systemen begrijpelijker en betrouwbaarder te maken. Traditioneel worden AI-systemen vaak gezien als zwarte dozen, die beslissingen nemen zonder duidelijke uitleg. Dit kan leiden tot vooroordelen en onbedoelde gevolgen, die ons onderzoek wil beperken.
Eerder ontwikkelde ons team LUCID, een methode die helpt verduidelijken hoe AI-beslissingen worden genomen, maar deze was beperkt tot statische, onveranderlijke systemen. Ons nieuwe project breidt dit uit door zich te richten op dynamische AI-systemen die in de loop van de tijd leren en zich aanpassen, zoals systemen die consumentengedrag voorspellen of real-time gegevens beheren. Deze systemen zijn complex omdat ze voortdurend evolueren, waardoor voortdurende transparantie een uitdaging wordt.
Een belangrijk doel is om verklaringen rechtstreeks in AI-systemen te integreren, zodat ze hun beslissingen op een begrijpelijke manier kunnen uitleggen. Als bijvoorbeeld een routeaanbeveling op je smartphone verandert, zou het systeem kunnen uitleggen waarom het deze route heeft gekozen, rekening houdend met factoren zoals verkeer of wegafsluitingen.
Een andere focus ligt op grote taalmodellen, zoals die achter chatGPT, die niet alleen efficiënt moeten presteren maar ook eerlijke en onbevooroordeelde resultaten moeten produceren. We onderzoeken manieren om de besluitvormingsprocessen van deze modellen duidelijker te maken, zodat hun antwoorden gerechtvaardigd en betrouwbaar zijn.
Dit project gaat verder dan technische innovatie en richt zich op ethische en sociale overwegingen, zoals de integratie van AI in het dagelijks leven zowel nuttig als betrouwbaar is.
Eerder ontwikkelde ons team LUCID, een methode die helpt verduidelijken hoe AI-beslissingen worden genomen, maar deze was beperkt tot statische, onveranderlijke systemen. Ons nieuwe project breidt dit uit door zich te richten op dynamische AI-systemen die in de loop van de tijd leren en zich aanpassen, zoals systemen die consumentengedrag voorspellen of real-time gegevens beheren. Deze systemen zijn complex omdat ze voortdurend evolueren, waardoor voortdurende transparantie een uitdaging wordt.
Een belangrijk doel is om verklaringen rechtstreeks in AI-systemen te integreren, zodat ze hun beslissingen op een begrijpelijke manier kunnen uitleggen. Als bijvoorbeeld een routeaanbeveling op je smartphone verandert, zou het systeem kunnen uitleggen waarom het deze route heeft gekozen, rekening houdend met factoren zoals verkeer of wegafsluitingen.
Een andere focus ligt op grote taalmodellen, zoals die achter chatGPT, die niet alleen efficiënt moeten presteren maar ook eerlijke en onbevooroordeelde resultaten moeten produceren. We onderzoeken manieren om de besluitvormingsprocessen van deze modellen duidelijker te maken, zodat hun antwoorden gerechtvaardigd en betrouwbaar zijn.
Dit project gaat verder dan technische innovatie en richt zich op ethische en sociale overwegingen, zoals de integratie van AI in het dagelijks leven zowel nuttig als betrouwbaar is.
Acroniem | IRP23 |
---|---|
Status | Actief |
Effectieve start/einddatum | 1/11/24 → 31/10/29 |
Keywords
- Uitlegbaarheid van AI
- Complexe en dynamische systemen
- Grote taalmodellen
Flemish discipline codes in use since 2023
- Mathematical methods, programming models, mathematical and simulation modelling
- Machine learning and decision making
- Natural language processing
- Applied mathematics in specific fields not elsewhere classified
- Complex systems