Nyt projekt skal skabe gennemskuelige og etiske algoritmer
Hjem NYHEDER Nyt projekt skal skabe gennemskuelige og etiske algoritmer

Nyt projekt skal skabe gennemskuelige og etiske algoritmer

Af Redaktionen

Indsamling af data og brug af maskinlærings-værktøjer, der kan hjælpe med at træffe beslutninger på baggrund af store datamængder, vinder i stigende grad indpas.

Nyt projekt skal skabe gennemskuelige og etiske algoritmer

Nyt projekt skal de næste to år åbne de sorte bokse og gøre kunstig intelligens så transparent som muligt.

Det gælder lige fra sundhedsområdet og kommunernes sagsbehandling til højteknologiske virksomheder, der skal træffe fagligt stærkt komplicerede beslutninger.

Men brugen af værktøjer til beslutningsstøtte skaber også et øget behov for transparens og en forklaring på, hvordan maskinlærings-modellerne kommer frem til de givne resultater.

Det er ikke nok bare at stole på det resultat, som den “sorte boks” kommer frem til, når man skal kunne stå på mål for den beslutning, man som fagperson skal føre ud i livet.

En ny strategisk satsning har derfor som mål at gøre beslutningsstøtte-værktøjer lettere tilgængelige for brugere på alle niveauer i virksomheder og organisationer. Det skal bl.a. ske ved hjælp af visualisering af data i værktøjerne og ved at forklare, hvilke dele af data, der fører til et givent resultat.

“Hvis du er læge på et hospital eller sagsbehandler i en kommune, og du anvender de her beslutningsstøtte-værktøjer, vil du selvfølgelig gerne være helt sikker på, at det er de rigtige data, der er anvendt, og at de er behandlet på den rigtige måde, når du bruger forskellige datamodeller til at støtte dig i dine faglige beslutninger. Det er den bekymring, som projektet tager alvorligt. Vi vil derfor frembringe viden om og værktøjer til at skabe transparens i brugen af værktøjer,” forklarer Marie Rørdam Fenger, der er projektleder og Senior Digital Innovation Specialist på Alexandra Instituttet.

Relevant inden for mange områder

Et af de områder, som man vil kigge på i projektet, er hjemmeplejen. Her anvender man beslutningsstøtte til ruteplanlægning.

“Når planlæggere i hjemmeplejen skal lægge den optimale rute, er der rigtig mange parametre, der spiller ind: Kan vi finde den kortest mulige rute? Kan vi sørge for, der bliver mindst mulig spildtid for den enkelte medarbejder, så vi ikke bruger unødige ressourcer? Kan vi sikre, at fru Hansen ikke for femte gang denne uge møder et nyt ansigt, og kan vi generelt minimere antallet af ændringer, hvis nu en medarbejder bliver syg, og de andre skal dække vagten ind?,” forklarer hun og uddyber:

“Alle disse ting er på spil og gør, at det kan være svært at rumme i hovedet for den enkelte planlægger. Men samtidig er der en masse bløde parametre, der er komplicerede at lægge ind i et optimeringssystem, så her er det vores opgave at vælge de rigtige parametre og gøre beslutningsstøttesystemet så transparent, at planlæggeren virkelig har tillid til, at systemet kan lave en bedre rute, end vedkommende selv ville have kunnet uden hjælp,” forklarer Marie Rørdam Fenger.

Et andet domæne, der har stort behov for beslutningsstøtte, er sundhed. Her har man eksempelvis brug for transparens i data, når højt specialiseret fagpersonale skal stille meget specifikke diagnoser.

“Vi kigger lige nu på en case, hvor optikere, øjensygeplejersker og øjenlæger kan få støtte fra store mængder af billeddata til at stille diagnoser. Som det ser ud nu, har de forskellige faggrupper brug for forskellig grad af transparens, og der kunne det vores opgave at finde det punkt, hvor transparensen hjælper til den rigtige beslutning – og ikke mudrer den til i for meget information for den specifikke faggruppe,” forklarer hun.

Maskinlæring involverer etik

Udover at arbejde med transparens og forståelige modeller herfor, er det i projektet en vigtig forudsætning at arbejde på at nedbringe ‘bias’ eller fordomme indbygget i maskinlæringsmodellerne.

Eksempler fra USA har vist, at modeller med ‘bias’ er brugt til strafudmåling i retssager, og på denne måde har man forfordelt specifikke grupper af befolkningen, uden at beslutningstagere kan gennemskue det. Sager som disse skaber naturligvis mistillid til maskinlærings-modellerne og dermed modstand imod at bruge værktøjer, som kunne have hjulpet.

“Det er vigtigt, at de belutningsstøtte-værktøjer, der bliver bragt i anvendelse, leder til mere kvalificerede beslutninger, end et menneske kunne have taget uden værktøjerne. Ellers er det ikke beslutningsstøtte men beslutningsforvridning. I en dansk sammenhæng kan man pege på kommunale anvendelsesområder, hvor det tyder på, der ikke er blevet kontrolleret for bias i eksempelvis sagsbehandlingen. Det er noget, vi gerne vil kigge nærmere på at tilvejebringe metoder til at undgå,” forklarer Marie Rørdam Fenger.

Relaterede artikler

Vi bruger cookies og andre identifikatorer for at forbedre din oplevelse. Dette giver os mulighed for at sikre din adgang, analysere dit besøg på vores hjemmeside. Det hjælper os med at tilbyde dig personlig indhold og nem adgang til nyttige oplysninger. Klik på "Jeg accepterer" for at acceptere vores brug af cookies og andre identifikatorer eller klik på "Flere oplysninger" for at justere dine valg. jeg godkender Flere oplysninger >>