Webinar: Hvordan skal vi holde algoritmene i øra?
Kan en algoritme, som skal forutse hjertesvikt, opptre diskriminerende? Er det symptom på urettferdighet om dette KI-verktøyet har lettere for å stille diagnosen på en type pasienter, framfor andre?
Kan en algoritme, som skal forutse hjertesvikt, opptre diskriminerende? Er det symptom på urettferdighet om dette KI-verktøyet har lettere for å stille diagnosen på en type pasienter, framfor andre?
Dette er spørsmål vi har stilt og forsøkt å besvare i sandkasseprosjektet, der Datatilsynet, Likestillings- og diskrimineringsombudet (LDO) og Akershus universitetssykehus (Ahus) har studert og vurdert et beslutningsstøttesystem Ahus ønsker å utvikle. Verktøyet er basert på maskinlæringsteknologi, med formål å stille mer presise diagnoser for hjertesvikt, enn det legene på Ahus evner i dag. Sluttrapporten fra prosjektet er publisert.
Les sluttrapporten: Hjerterom for etisk AI
Nå inviterer vi til seminar med tittelen "Hvordan holde algoritmer i øra? Å sikre rettferdig kunstig intelligens."
Innledningsvis blir sluttrapporten fra sandkasseprosjektet presentert, i tillegg til at vi får et innledende foredrag om etisk kunstig intelligens fra Leonora Bergsjø, leder i NORDE, førsteamanuensis ved HiØ og UiA samt forfatter av boka «Digital etikk».
Så blir det panelsamtale om diskriminering og etisk kunstig intelligens med:
Diskusjonen vil blant annet dreie som om hvordan ny teknologi kan utfordre dagens regelverk ved bruk i offentlig sektor, og hvilke lovendringer som må til for å holde algoritmene i øra.
Kan en algoritme, som skal forutse hjertesvikt, opptre diskriminerende? Og hva kan vi gjøre for å sikre at kunstig intelligens behandler oss rettferdig? Det var sentrale spørsmål i sandkasseprosjektet med Ahus og LDO. Og det var tema for seminaret "Hvordan holde algoritmer i øra?"
Følg med på det som skjer i sandkassa ved å abonnere på vårt nyhetsbrev, der du får invitasjoner og informasjon om søknadsfrister, møter, webinarer og arrangement som er relevant for alle som er opptatt av ny, ansvarlig kunstig intelligens.