Åpenhet ved bruk av kunstig intelligens i arbeidslivet
Secure Practice er en norsk teknologivirksomhet med fokus på den menneskelige delen av informasjonssikkerhetsarbeidet. I sandkassen så vi nærmere på en ny tjeneste Secure Practice utvikler: å bruke kunstig intelligens for å gi persontilpasset sikkerhetsopplæring til ansatte.
Ved å ta utgangspunkt i hvilke interesser og kunnskaper den enkelte ansatte har om informasjonssikkerhet, skal opplæringen gjøres mer pedagogisk og målrettet, og dermed mer virkningsfull. Verktøyet skal i tillegg tilby virksomhetene rapporter med aggregert statistikk over ansattes kunnskaps- og interessenivå innenfor informasjonssikkerhet.
For å kunne gi persontilpasset opplæring, vil Secure Practice samle og sammenstille relevante data om de ansatte i kundens virksomhet. Profileringen plasserer hver enkelt sluttbruker i en av flere «risikokategorier», som blir utslagsgivende for hvilket opplæringstilbud han eller hun mottar i fortsettelsen. Re-kalkulering av risikoprofiler vil gjøres kontinuerlig og automatisk, slik at ansatte kan flyttes til ny kategori når de underliggende dataene tilsier dette.
Profilering av ansatte kan være utfordrende fordi maktbalansen mellom arbeidsgiver og arbeidstaker er ujevn, og profilering kan fort oppleves som inngripende for den enkeltes personvern. I tillegg til å se på dataflyt og å sørge for at arbeidsgiver ikke får tilgang til detaljert informasjon om den enkelte var åpenhet rundt bruk av data et sentralt tema i dette prosjektet.
Har arbeidstakerne krav på informasjon om logikken i algoritmen?
Verktøyet i dette sandkasseprosjektet faller utenfor artikkel 22 i personvernregelverket, siden det ikke er en automatisert beslutning som har rettsvirkninger for arbeidstakerne. Derfor følger det ingen plikt til å informere om hvordan algoritmen fungerer direkte av denne bestemmelsen.
Videre vurderte prosjektet om åpenhetsprinsippet lest i lys av fortalen likevel kunne tilsi en rettslig plikt til å informere om hvordan algoritmen fungerer. Etter personvernforordningens artikkel 5 nr. 1 bokstav a skal den behandlingsansvarlige sikre at behandling av personopplysninger gjøres på et åpent og rettferdig vis. Fortalepunkt 60 fremhever i tilknytning til åpenhetsprinsippet at den registrerte bør få informasjon når det skjer profilering og hvilke konsekvenser profileringen har.
Punkt 60 i fortalen til personvernforordningen:
«Prinsippene om rettferdig og åpen behandling krever at den registrerte informeres om at behandlingen skjer, samt om formålet med den. Den behandlingsansvarlige bør gi den registrerte eventuell ytterligere informasjon som er nødvendig for å sikre en rettferdig og åpen behandling, idet det tas hensyn til de særlige omstendighetene rundt behandlingen av personopplysningene og sammenhengen den skjer i. Den registrerte bør dessuten informeres om forekomsten av profilering og konsekvensene av dette. Dersom personopplysningene samles inn fra den registrerte, bør den registrerte også informeres om hvorvidt vedkommende har plikt til å gi personopplysningene, og om konsekvensene dersom de ikke gis. Nevnte informasjon kan gis sammen med standardiserte ikoner, slik at det gis en oversikt over den tiltenkte behandlingen på en lett synlig, forståelig og lettlest måte. Dersom ikonene presenteres elektronisk, bør de være maskinlesbare.»
Det europeiske personvernrådet fremhever viktigheten av å informere om konsekvensene av at personopplysninger behandles, og at det ikke skal komme som en overraskelse på de som får personopplysningene sine behandlet.
Selv om bruken av personopplysninger i dette prosjektet ikke utløser en rettslig plikt til å forklare den underliggende logikken, er det er god praksis å praktisere åpenhet på en måte som gjør brukeren i stand til å forstå hvordan opplysningene brukes. Åpenhet om hvordan verktøyet fra Secure Practice fungerer, kan bidra til å skape tillit til KI-verktøyet.
Brukermedvirkning: Hvordan bygge tillit gjennom åpenhet?
Hvilken informasjon er det relevant å gi ansatte som skal ta i bruk verktøyet? Og når bør de få informasjonen? For å belyse disse spørsmålene ble det gjennomført to fokusgrupper: En med ansatte i en stor norsk virksomhet, og en med representanter fra en arbeidstakerorganisasjon.
Ett av spørsmålene vi diskuterte i fokusgruppene var om den ansatte bør få en forklaring på hvorfor algoritmen serverer den enkelte akkurat dette forslaget. For eksempel hvorfor en ansatt blir oppfordret til å gjennomføre en spesifikk opplæringsmodul («fordi vi ser at du ikke gjorde den forrige uke») eller ta en quiz om cybertrusler («fordi vi ser at du er ferdig med den modulen, og det kan være en god idé å sjekke hva du fikk med deg»).
Et eksempel kunne være at en ansatt fikk forslag om å gjennomføre en bestemt type opplæring, fordi de hadde blitt lurt av en phishing-øvelse. I fokusgruppene diskuterte vi om slik detaljert informasjon kunne gi brukeren en følelse av overvåking, som igjen kunne lede til mindre tillit. Argumentene gikk i motsatt retning: de fleste var enige om at det var en god idé å gi denne typen informasjon, fordi det vil hjelpe den ansatte å forstå hvordan opplysningene brukes og at denne åpenheten kan bygge tillit til løsningene.
Vi diskuterte også hvilke typer data som var relevant å ha med i en slik løsning, og hvilke data som ikke bør tas med. Systemet kan potensielt analysere alt fra oversikt over gjennomførte moduler og resultatet fra opplæringsquizer, til hvordan de ansatte behandler mistenkelig e-post, til mer inngripende informasjon fra personlighetskartlegginger.
Fokusgruppen med ansatte fra en stor norsk virksomhet var i utgangspunktet villige til å ta i bruk løsningen og dele ganske detaljerte data, forutsatt at det var et konstruktivt bidrag til å oppnå formålene om bedre informasjonssikkerhet i virksomheten. Det kom frem at de hadde høy tillit til at arbeidsgiver ivaretok personvernet deres, og at de stolte på at arbeidsgiver ikke ville bruke informasjon om dem til nye formål som kunne ha negative konsekvenser for de ansatte.
I fokusgruppen med arbeidstakerorganisasjonen var det fokus på risikoen for at svarene kunne spores tilbake til den enkelte arbeidstaker, og for at arbeidsgiver kan bruke opplysningene fra et slikt verktøy til nye formål. For eksempel at arbeidstaker kan bli straffet hvis de scorer dårlig, ved å ikke få lønnsøkning eller andre muligheter i virksomheten. De poengterte at åpenhet er en forutsetning for at arbeidstakere skal kunne stole på løsningen.
Deltakerne i fokusgruppene var enige om at det er viktig at kommunikasjonen med de ansatte er tydelig og klar. Usikkerhet rundt hvordan dataene brukes, øker faren for at de ansatte tilpasser svarene sine til det de tror er “riktig”, eller at de ikke er villige til å dele data. Dette er et interessant funn, fordi algoritmen blir mindre treffsikker hvis dataene den baserer seg på er unøyaktig og ikke representerer den reelle situasjonen brukeren er i.
Fokusgruppen med arbeidstakerorganisasjonen mente at det er viktig at det tidlig i prosessen avklares hvordan dataene skal lagres og benyttes i virksomhetens arbeide. Videre argumenterte de for kontrakten mellom Secure Practice og virksomheten bør utformes på en måte som ivaretar personvernet til de ansatte, og viktigheten av å involvere de ansatte eller tillitsvalgte fra tidlig i anskaffelsesprosessen. De mente også at en slik løsning kan oppleves ulikt av arbeidstakere avhengig av situasjonen, for eksempel om de har høy eller lav tillit til arbeidsgiver.
For å minimere risikoen for den enkelte arbeidstaker advarte arbeidstakerorganisasjonen mot å utforme spørsmål på en slik måte at svarene kunne skade arbeidstakerne, dersom de ble kjent for arbeidsgiveren. De oppfordret til å unnlate å spørre om arbeidstaker har gjort sikkerhetsbrudd, og å vinkle kommunikasjonen mot den enkelte på en positiv måte, slik at brukeren opplever å bli støttet og veiledet istedenfor å bli profilert og kritisert.
Secure Practice brukte innsikten fra brukermedvirkningen til å tilpasse måten løsningen legger opp til å gi informasjon til sluttbruker. I tillegg til smarte grep rundt åpenhet, fikk Secure Practice i sandkasseprosjektet juridiske innspill til hvordan de kan beskytte den enkelte ansatte mot at opplysninger fra løsningen kan brukes til nye formål. Det kan du lese mer om i sandkasserapporten.