Sociologer granskar risker med AI i tvärvetenskaplig forskningsrapport

Bil kör på väg.

AI-utvecklingen går snabbt, men med utvecklingen kommer också risker. Vem ska till exempel bötfällas vid en trafikolycka med en självkörande bil? Riskforskarna Rolf Lidskog och James White menar att mer samhällsvetenskaplig forskning krävs.

Superintelligens, big data, självlärande algoritmer och autonoma robotar. Hur bedömer vi risker med AI och reglerar AI när ingen fullt ut vet hur tekniken kommer att påverka samhället? Eftersom okunskapen är så stor, krävs mer ödmjukhet från både utvecklare och beslutsfattare. Det menar riskforskarna Rolf Lidskog och James White vid Örebro universitet.

Teknikutvecklingen går i en enorm fart och i dag är artificiell intelligens inte längre science fiction, utan någon som används till vardags av både företag, myndigheter och privatpersoner.

Med utvecklingen kommer också risker. Vem ska bötfällas vid en trafikolycka med en självkörande bil? Och vem ska hållas ansvarig om algoritmen som fattar beslut om försörjningsstöd drar felaktiga slutsatser?

De senaste åren har frågor som rör transparens och etik i AI-system diskuterats allt mer, men det krävs även mer samhällsvetenskaplig forskning för att förstå riskerna och fatta bättre beslut vid både utveckling och reglering av AI. Det menar riskforskarna Rolf Lidskog, professor i sociologi, och James White, postdoktor i sociologi, i en vetenskaplig artikel som publicerats i Journal of Risk Research.

Rolf Lidskog och James White.

Rolf Lidskog och James White.

Rolf Lidskog och James White inledde sin förstudie i samband med att Örebro universitet skulle lämna in en ansökan till Wallenbergstiftelsens forskningsprogram WASP-HS, där forskare inom humaniora och samhällsvetenskap ska undersöka hur det pågående teknikskiftet påverkar vårt samhälle och våra beteenden.

Tanken var först studien skulle genomföras som ett bidrag till ansökan, men efter att gjort en omfattande litteraturöversikt bestämde sig Lidskog och White för att även presentera sina resultat i en artikel.

AI och samhället påverkar varandra

– Vi är sociologer, så vi ser AI som ett sociotekniskt system. Det är enkelt att tänka att det är tekniken som påverkar samhället, men inom sociologin menar man att det är mer komplicerat än så, att tekniken och samhället påverkar varandra. Vi kan inte förstå en teknik om den är skild ifrån sitt sociala sammanhang, säger Rolf Lidskog.

För att ge ett exempel drar Rolf Lidskog och James White en parallell till miljöforskningen. Där kan man ganska lätt avgöra ett ämnes farlighet i en laboratoriemiljö. Men när ämnet börjar användas i samhället och kommer ut i naturen så kan det reagera på oväntade sätt. Samma sak gäller för artificiell intelligens när algoritmerna förflyttas från programmerarens dator till att användas ute i samhället.

– Med tanke på att AI är självlärande och fattar egna beslut så blir det en extrem dynamik som skapar en oerhört stor osäkerhet. Det som i laboratoriet verkar vara ett bra system, kan fungera och användas på ett helt annat sätt i en annan kontext, säger Rolf Lidskog.

Den osäkerheten är något som både forskare, utvecklare och beslutsfattare måste bli bättre på att ta hänsyn till, menar Rolf Lidskog och James White. Därför har de i sin studie tagit sin utgångspunkt i ett forskningsfält inom sociologin som kallas ignorans-studier och som handlar om sociala konsekvenser av det som inte är känt.

Måste ta större hänsyn till icke-kunskap – det vi vet om det vi inte vet

– Det är inte bara att AI är komplext. Det är också så att vi inte vet hur en AI-modell fattar sina beslut. Ofta är det så med ny teknik och innovationer, att mycket kunskap om dem först kan utvecklas efter att de har introducerats i samhället, säger James White och fortsätter:

– Det är vad ignorans handlar om och det är viktigt att det beaktas när vi ska utveckla och reglera sociotekniska system: Vad är det vi inte vet? Vad är det vi inte tänker på? Hur hanterar vi det faktum att vi på förhand inte riktigt kan veta vilka implikationer en ny teknik kommer att föra med sig?

I förstudien kommer Rolf Lidskog och James White därför fram till att utvecklare, forskare och beslutsfattare behöver bli bättre på att erkänna att det finns en stor icke-kunskap om AI, vilket i sin tur leder till en större ödmjukhet inför vilka effekter ett AI-system kan få och vilka regleringar som behövs. Riskforskarnas poäng är att icke-kunskap och ignorans är någonting konstruktivt som kan vara till hjälp i utvecklings- och beslutsprocessen.

De poängterar också att det behövs mer samhällsvetenskaplig forskning för att ge bredare kunskap till beslutsfattare.

– Om något händer som man är helt oförberedd på, så kan det orsaka skada och väcka starka reaktioner. Därför är det viktigt att ta hänsyn till icke-kunskapen, säger James White.

– Vi kan undvika en hel del problem om vi, innan vi lanserar ett system, inte bara kartlägger det vi vet, utan också aktivt försöker se vad det är vi inte har kunskap om. I vår förstudie har vi fokuserat på ett område som behöver mer forskning, säger Rolf Lidskog.

Text: Jesper Eriksson
Foto: Örebro universitet och Taras Makarenko

Det här är AI

Artificiell intelligens, AI, är när maskiner löser problem som tidigare bara den mänskliga hjärnan har klarat av.

Många arbetsuppgifter som skulle ta lång tid för en människa kan nu i stället lösas blixtsnabbt. AI kan till exempel hjälpa till att fatta beslut vid svåröverskådliga och komplexa problem, planera – och lära sig av det arbete som utförs.

AI används till exempel i självkörande bilar, robotar, sökmotorer, bildigenkänningsprogram och automatiska textöversättningar. Redan idag finns många AI-lösningar i bruk på olika sorters arbetsplatser, till exempel inom transport, hälso- och sjukvård och jordbruk.