Visual ID ska visualisera AI-beslut i realtid

Med hjälp av en träningsmetod för ledarhundar lär sig AI att säga nej till mänskliga kommandon – om de riskerar att leda till problem. Pilotprojektet Visual ID utvecklar nu ett nytt visualiseringsverktyg, för att förstå hur roboten tänker kring beslutet att inte lyda.
Visual ID är ett pilotprojekt som drivs inom ramen för det regionala utvecklingsprojektet AI.ALL.
Projekttid: oktober 2025 till januari 2026
Teknisk ledare: Amy Loutfi
När AI och autonoma system används inom områden som vård, försvar eller logistik ställs systemen inför både kritiska och komplexa situationer där mänskliga instruktioner kan vara otillräckliga – och ibland till och med farliga.
Därför måste de autonoma systemen lära sig hantera misstag som beror på ”den mänskliga faktorn”. Forskare har upptäckt att en träningsmetod för ledarhundar, så kallad intelligent disobedience (intelligent olydnad), ID, ger lovande resultat.
Visualiseringsverktyg för att förstå intelligent olydnad
Men vad händer egentligen när en robot väljer att inte lyda ett kommando? I pilotprojektet Visual ID utvecklar forskare vid Örebro universitet ett nytt visualiseringsverktyg som gör det möjligt att förstå intelligent olydnad i interaktiva miljöer.
Projektet bygger vidare på tidigare forskning om ID och ska integrera tekniken i Visual Lab vid Örebro universitet. Tanken är att skapa en testmiljö för framtidens autonoma system så att exempelvis studenter, forskare och externa samarbetspartners ska kunna interagera med simuleringar och analysera olika scenarier där intelligent olydnad uppstår.
Teamet bakom Visual ID består av forskare och labbingenjörer vid Örebro universitet med Saab som referenspartner.



