Et spørsmål om tillit
En rød tråd gjennom disse sandkasseprosjektene er verdien av tillit.
Secure Practice er avhengig av brukernes (de ansatte i virksomheten) tillit til at dataene deres ikke misbrukes eller brukes av arbeidsgiver til nye formål. Om den tilliten ikke er til stede, er det fare for at det påvirker de ansattes villighet til å dele korrekte opplysninger, som igjen kan gi et unøyaktig sluttresultat.
I arbeidslivet er det i utgangspunktet et skeivt maktforhold mellom arbeidsgiver og de ansatte, noe som gjør behovet for tillitsbyggende åpenhet og kommunikasjon ekstra viktig.
-> Vurder om brukerne av din løsning kan oppleve en tilsvarende maktubalanse. Eller om det er andre grunner til at brukerne kan være skrptiske til å dele (korrekte) opplysninger? I så fall bør du legge ekstra vekt på tillitsbyggende åpenhet (i tillegg til sikre teknologiske løsninger).
AVT-prosjektet, i regi av KS, har noe av den samme problemstillingen ved seg. Der kan utfordringen bli for mye åpenhet. Foresatte skal i utgangspunktet kunne ha innsyn i innsamlede persondata om barnet. Men om det blir for enkelt for foresatte å kontrollere alt eleven gjør i skoletimene, vil elevene – særlig de med foreldre som stiller strenge krav – kunne oppleve det som å være på en evig eksamen. De trenger også rom for å prøve og feile. Her er det altså to viktige og rettmessige behov som står i konflikt med hverandre.
-> Forstå informasjonsbehovet og konsekvensene informasjonen har for brukerne dine. Gjerne ved å spørre dem. Fokusgrupper med brukere (og eventuelt andre som påvirker bruker-situasjonen) er en mulighet til å teste ut hvordan de vil opptre når de bruker løsningen din. Få innspill på alt fra formuleringer i løsningen din til hvilke data de vil vegre seg for å dele.
I en fokusgruppe for Secure Practice-prosjektet ble det tydelig at nyanseforskjeller i formuleringer kan få stor betydning for oppfattelsen av det som står der. «Du får denne oppgaven fordi du gjorde feil på phishing-øvelsen i forrige uke» er mer forklarende enn «Du får denne oppgaven som oppfølging av phishing-øvelsen i forrige uke». Likevel ville fokusgruppen helst bli servert den siste formuleringen, fordi det første alternativet kunne oppleves mer invaderende og personlig.
I dette sandkasseprosjektet ble det arrangert to fokusgrupper. De uttrykte vidt forskjellig vilje til å gi fra seg data, og vidt forskjellig nivå av tillit til at selskapene vil bruke verktøyet bare slik det er ment å brukes. Dette illustrerer jo også at man ikke skal generalisere seg blind på svar fra én fokusgruppe eller ett brukerintervju.
-> Søk bredt, når du ber om innspill. Jo bredere og mer representative innspill du klarer å få, jo mer vekt kan du legge på svarene du får.
I NAV-prosjektet er nøkkelen å sikre at brukerne, altså NAV-veilederne i denne sammenheng, har akkurat passe tillit til systemet. De skal ikke stole blindt på det, for da blir det i praksis en automatisk beslutning. Så hvordan skal man formulere informasjonen i løsningen, slik at brukerne opplever det som et godt hjelpemiddel, men at de samtidig er skjerpet nok til å kunne ta selvstendige avgjørelser? På samme tid bør helst de registrerte, altså de sykmeldte, ha full tillit til at systemet er trygt og virker rettferdig.
-> Identifiser om din KI-løsning skal kommunisere til flere målgrupper, og i hvilken grad gruppenes tillit påvirker bruken av løsningen.
Så langt om brukernes tillit til løsningen, men hva med utviklerens tillit til brukerne? Fokusgruppene fra AVT-prosjektet fikk fram at det alltid vil være noen som prøver å «game» systemet. Elever kan prøve å lure systemet for å få mindre lekser eller enklere oppgaver. Ansatte kan være villig til å gi sjefen god rating, fordi det er pes med utdypende oppfølging. Det er menneskelig å ofte ønske å gjøre det enkelt for seg selv.
-> Vær bevisst på, at åpenhet om hvordan løsningen fungerer, kan gjøre det enklere å lure systemet. Men gjort på en god måte, får du brukerne med på å gjøre det riktig.
Kort oppsummert kan åpenhet bidra til tillit, som igjen kan bidra til at folk tar i bruk løsninger og er villige til å dele opplysninger. Åpenhet er et regelverkskrav men det kan også legge grunnlaget for en ansvarlig bruk av kunstig intelligens som kommer både de som tilbyr og bruker løsningene til gode.
Tema å være obs på:
Eksemplene i denne rapporten har i stor grad handlet om hvordan gi informasjon og hvilken informasjon man bør gi ved bruk av kunstig intelligens. Det er flere tema innen åpenhet vi ikke har kommet inn på som vi gjerne ønsker å utforske mer, blant annet retten til innsyn i egne opplysninger og retten til å få en individuell forklaring på hvorfor algoritmen konkluderte som den gjorde, samt å utforske tekniske løsninger for god åpenhet.