Sådan overvåger Skat danskerne i hemmelighed
Skattestyrelsen vil ikke forklare formålet med 14 AI-systemer, der kan overvåge danskerne ved hjælp af enorme datasæt
CITAT: DM Akademikerbladet
Offentligheden må ikke få indsigt i en række AI-systemer, som Skattestyrelsen de sidste par år har udviklet, og som behandler store datasæt med oplysninger om borgere og virksomheder fra danske myndigheder og potentielt også fra platforme som Facebook og Amazon.
Det fremgår af et svar fra Skatteforvaltningen, som DM Akademikerbladet har modtaget på baggrund af en aktindsigt i Datatilsynets kortlægning af danske myndigheders AI-løsninger.
Vil ikke oplyse navnet
Konkret afviser Skattestyrelsen af oplyse formålet med 14 ud af 23 AI-systemer, som er i brug eller under udvikling. I 7 af AI-systemerne vil myndigheden ikke oplyse, hvilke typer af personoplysninger der udgør datagrundlaget.
Og i 4 tilfælde vil man end ikke oplyse navnet på AI-modellen, skriver Akademikerbladet.
Det er stærkt bekymrende, mener den juridisk chef hos Institut for Menneskerettigheder, Marya Akhtar.
Et problem
- Vi har et demokratisk og retssikkerhedsmæssigt problem, når offentligheden ikke kan vurdere og tage stilling til, hvordan en myndighed forvalter sin opgave, siger hun.
Det fremgår af Skattestyrelsens indberetning til Datatilsynet, at flere af modellerne kommer med ”anbefaling til visitering” på baggrund af ”risikoscoring” af skatteydere.
Bliver ikke forklaret
Det svarer dybest set til algoritmer, der placerer borgere i røde, gule og grønne kategorier ved at samkøre rigtig mange data.
- Selv om profileringen kun bruges som beslutningsstøtte, ved vi, at det kan føre til bias. Og så er der black box-problemet. Algoritmerne træffer ganske enkelt valg, som ikke bliver forklaret, hvilket er det modsatte af at forklare alle sagsskridt, som forvaltningsmyndigheder skal, siger Marya Akhtar til Akademikerbladet.
To alvorlige problemer
I 2021 vedtog Folketinget en lovændring, der har givet Skatteforvaltningen grønt lys til at indsamle og samkøre ”alle nødvendige oplysninger” fra andre myndighedens dataregistre og offentligt tilgængelige datakilder, når myndigheden finder det nødvendigt.
Den beslutning er der to alvorlige problemer med, mener Dataetisk Råds formand, jurist Johan Busse.
Ikke lovhjemmel
- For det første valgte man at droppe forvaltningsprincippet om, at offentlige myndigheder kun skal indhente de oplysninger, de har brug for. Man fik lovhjemmel til at indsamle enorme data i blinde, så at sige, så kunstig intelligens kunne finde nogle mønstre i det,” siger han.
- For det andet vedtog man det uden nogen kritisk debat, og det mener jeg er hovedproblemet. Folketinget var ikke oplyst om konsekvenserne og vedtog loven i blinde, siger Johan Busse.
Utilstrækkelige svar
Han henviser blandt andet til, at en høring i folketingets skatteudvalg om lovens konsekvenser for retssikkerheden blev afholdt flere måneder efter dens vedtagelse.
Ayo Næsborg-Andersen, lektor ved Juridisk Institut på SDU og ekspert i persondatabeskyttelse, vurderer også, at Skattestyrelsens svar til Akademikerbladet er utilstrækkelige.
Aner ikke hvad der foregår
- På den ene side er der samfundshensynet, at man vil forhindre en omgåelse af skattekontrollen, og på den anden side hensynet til, at forvaltningen skal være åben. Og i det her tilfælde mener jeg ikke, det er nok at sige, at formålet med AI-modellerne er kontrol og i øvrigt ikke oplyser, hvilke typer data man indsamler. Som borger aner man ikke, hvad der foregår, selv ikke på et overordnet plan, siger Ayo-Næsborg Andersen.
Skatteminister Jeppe Bruus har afvist at udtale sig om sagen.