På denne siden finner du sluttrapporter fra prosjektene som har vært gjennom leking og læring i Datatilsynets regulatoriske sandkasse.
-
Kunstig intelligens (KI) kan identifisere mening i tekst og si noe om sinnsstemninger og egenskaper hos den som skriver teksten. Politihøgskolen, som leder PrevBOT-prosjektet, ønsker å utforske mulighetene for å lage et verktøy, som automatisk kan patruljere det åpne internettet med formål å avsløre og forhindre forsøk på seksuell utnyttelse av mindreårige.
-
Virksomheten Doorkeeper har som mål å styrke personvernet i moderne kameraovervåkningssystemer. De ønsker å oppnå dette ved å bruke intelligent videoanalyse til å sladde identifiserende opplysninger – som ansikter og menneskeformer – i videostrømmen. Videre vil de sørge for at færre opptak blir lagret sammenlignet med mer tradisjonelle overvåkningssystemer.
-
Kan en algoritme, som skal forutse hjertesvikt, opptre diskriminerende? Er det symptom på urettferdighet om dette KI-verktøyet har lettere for å stille diagnosen på en type pasienter, framfor andre? I dette sandkasseprosjektet har Datatilsynet, Ahus og Likestillings- og diskrimineringsombudet sett på algoritmeskjevhet og diskriminering i et kunstig intelligent beslutningsstøttesystem, under utvikling for klinisk bruk på Ahus.
-
Ruter har deltatt i Datatilsynets sandkasse for ansvarlig kunstig intelligens i forbindelse med at de planlegger å bruke kunstig intelligens i sin app. I sandkasseprosjektet har Datatilsynet og Ruter diskutert hvordan de kan være åpne om behandlingen av personopplysninger som vil skje i denne løsningen, blant annet om formålene.
-
I sandkassa har Simplifai og Datatilsynet sett på om personvernreglene åpner for at offentlige aktører kan ta i bruk en maskinlæringsløsning for å journalføre og arkivere e-post. Og sammen med NVE har de utforsket hvordan offentlige aktører kan gjøre informerte valg når de skal kjøpe intelligente løsninger, som for eksempel DAM.
-
Med kunstig intelligens er det mulig å peke ut hvilke pasienter som står i fare for å komme kjapt i retur til sykehuset. Ved å bruke et slikt verktøy kan helsevesenet gi bedre oppfølging på tvers av helsetjenestene, i håp om å spare pasientene (og samfunnet) for unødige innleggelser. I den regulatoriske sandkassa har Datatilsynet sammen med Helse Bergen HF utforsket hvordan et slikt verktøy bør se ut for å være i tråd med personvernregelverket.
-
Åpenhet knyttet til kunstig intelligens er en vid paraply. Med en gang kunstig intelligens brukes på personopplysninger, stilles det regelverkskrav til åpenhet. Under paraplyen finner vi også etiske spørsmål og teknologiske problemstillinger rundt kommunikasjon og design. Vi har skrevet en erfaringsrapport om hvordan du bør informere om bruk av kunstig intelligens.
-
Hvordan kan du lære av data du ikke har? Kan føderert læring være løsningen, når datadeling er vanskelig? Datatilsynets sandkasse har utforsket utfordringer og fordeler ved føderert læring, en antatt personvernvennlig metode for maskinlæring som oppstartsvirksomheten Finterai ønsker å bruke i kampen mot hvitvasking og terrorfinansiering.
-
Hvordan kan man gi norske skoleelever individuell vurdering og tilpasset opplæring ved bruk av læringsanalyse, og samtidig sikre elevene godt personvern? Det har vært det sentrale spørsmålet i Datatilsynets sandkasseprosjekt sammen med KS, Utdanningsetaten i Oslo og instituttet SLATE ved Universitetet i Bergen.
-
Secure Practice ønsker å utvikle en tjeneste som profilerer ansatte med tanke på hvilken cybersikkerhetsrisiko de utgjør for virksomhetene. Formålet er å kunne følge opp med tilpasset sikkerhetsopplæring basert på hvilke profilkategorier de ansatte havner i. Prosjektet ble tatt opp i sandkassa våren 2021. Her er sluttrapporten.
-
Våren 2021 startet sandkasseprosjektet som tar for seg NAVs KI-verktøy for å predikere utviklingen av sykefravær. Prosjektet ble avsluttet høsten 2021. Her er sluttrapporten fra prosjektet.