Politisk bullshit-bingo om kunstig intelligens
Politisk bullshit-bingo om kunstig intelligens
.... det er skræmmende at se, i hvor høj grad den kunstige intelligens allerede ses brugt til mere kontrol af borgere og til øget mistænkeliggørelse af mennesker ud fra for eksempel religion eller farve.
I regeringens nye rapport, 'National strategi for kunstig intelligens', indgår bogstavsrækken 'etisk' 49 gange og 'service' 35 gange på de cirka 60 tekstsider. Det fortæller vist, at regeringen er ganske nervøs for reaktioner fra borgere, der allerede er højlydt utilfredse med uetiske beslutninger og dårligere service.
Måske vil regeringen med sit ordvalg forsikre os om, at vi ikke ender som i Kina, hvor den kunstige intelligens bruges til at give enhver borger karakterbog: God borger, der skal tildeles privilegier, eller skidt borger, der skal fratages privilegier og muligvis genopdrages.
Måske skal vi forsikres om, at Danmark ikke vil adoptere amerikanske tilstande, hvor 'anything goes' inden for kunstig intelligens, bare der er gysser i det og/eller stemmer.
McKinsey-odeur
Regeringen lover, at Danmark vil holde den etiske fane tårnhøjt og øge serviceniveauet med den nye teknologi. Det fremgår af rapporten, der udkom medio marts, præget af en tung odeur fra McKinsey og lobbyisme fra tech-selskabers side.
Konsulenthuse og it-selskaber markedsfører den kunstige intelligens ligesom tidligere teknologispring, nemlig som 'kuren mod enhver dårligdom', som et mirakelmiddel for stat og kommune, borgere og erhvervsliv.
Nøjagtigt som tidligere bider politikere og embedsværk til bolle, selv om der burde iagttages større forsigtighed. En del løfter er som bekendt endt i pengespild eller elendige arbejdsvilkår eller dårligere service eller lidt af det hele.
Hvad angår den kunstige intelligens, er den endnu en baby, vaklende og fejlende. Fantasien i regeringsrapporten er til gengæld stor, hvad angår lyksalighederne ved fremtidig brug. Men en forudsætning for omfattende brug er tillid i omverdenen.
Øget registreringspres
Uden tillid vil protesterne imod kravet om endnu mere registrering tiltage: Det samme vil modstanden imod indsamling af data via overvågning af alle. Og flere data er forudsætningen for at få den nye teknologi på plads, for algoritmerne – de matematiske formler, der udgør 'intelligensen' – kan kun opbygges gennem træning på enorme mængder af data. At der så også øjes indtægtskilder fra salg af de store datamængder til for eksempel pharmaselskaber, hører til i billedet.
Tillid forudsætter også tiltro til retssikkerheden, men den nævnes forbavsende få gange i rapporten. Regeringen har heller ikke forpligtet sig til at sikre total gennemskuelighed i mirakelmidlet, algoritmerne.
Det var ellers et krav i EU’s persondataforordning (GDPR), men grundet modstand blev det op til de enkelte nationer, hvad der skulle kræves. Den danske regerings valg? Algoritmer og data skal ikke kunne forklares ned i mindste detalje fra A til Z. Myndigheder skal bare kunne forklare, hvad lovens intention er, og hvad der ifølge loven tæller for afgørelsen.
Godt nok nævnes i strategien krav om 'gennemsigtighed' i den kunstige intelligens, men det forbliver et gummiord, medmindre udmøntningen af GDPR i Danmark ændres. Regeringen fortæller i øvrigt også, at hensyn til erhvervslivet kan forhindre gennemsigtighed.
Dømt på fordomme
Så her er et amerikansk skræmmeeksempel, der gælder både retssikkerhed og det private erhvervsliv. I visse amerikanske retssale bruges kunstig intelligens, når dommerne skal træffe afgørelse om kaution, straffens form og længde. Dommeren får som inspiration et forslag fra et system, baseret på kunstig intelligens.
Systemets algoritmer er trænet på store mængder data om kriminelle, belastede områder, risiko for gentagen kriminalitet og meget andet. Tag en sort mand, statens mest lovlydige borger, indtil noget en dag gik galt. Kontra en hvid mand i samme situation. Får dommeren samme forslag til straf fra den kunstige intelligens?
En person, der blev dømt i en retssal, hvor systemet blev brugt, krævede oplyst, nøjagtigt hvilke faktorer, der indgik i algoritmen, og hvilken vægt de blev tillagt. Han fik et nej. Begrundelsen var, at algoritmerne var at betragte som forretningshemmeligheder hos firmaet bag systemet.
Uimodståelig politisk fristelse
Forhåbentlig vil noget sådant aldrig forekomme i Danmark, men det er skræmmende at se, i hvor høj grad den kunstige intelligens allerede ses brugt til mere kontrol af borgere og til øget mistænkeliggørelse af mennesker ud fra for eksempel religion eller farve.
Kontrol og mistænkeliggørelse af borgere er populære virkemidler hos politikere, om i diktaturer eller demokratier, men i demokratier ledsages planerne dog typisk af argumenter, der vækker forståelse.
Vi skal ikke ødsle med skatteydernes penge, så der skal slås ned på de sociale bedragere.
Vi skal sikre, at vi kan gribe ind tidligt, hvis børn er udsatte.
Vi må overvåge alle for at forhindre nye terrorangreb.
Vi skal vide, hvilke mennesker der sandsynligvis vil begå kriminalitet, så vi kan forebygge.
Vi skal skaffe bedre overblik over dit forbrug af el og vand af hensyn til miljø og planlægning.
Vi skal have fanget borgere, der hvidvasker penge, derfor skal bankerne dele kontooplysninger direkte med kommunen.
Vi skal skaffe forskerne flere sundhedsdata, så behandlingen af syge bliver bedre, og så kan der udvikles bedre medicin.
Argumentation, vi kan nikke til, se fornuften i. Men det er også argumentation for brug af sammenkøring af data fra endnu flere registre, fra de sociale medier, fra overvågning af alles net- og mobilbrug, fra målere, nummerpladescannere og meget andet.
Og hvad, hvis der i den lille sorte boks med algoritmernes mange fintunede tandhjul, også er smidt grus ind, om bevidst eller ubevist? Hvad med de såkaldt 'false positives', hvor en person fejlagtigt identificeres som en fare eller særligt udsat og selv må bære bevisbyrden? I forvejen kan magtforholdet mellem borger og myndighed være forskruet.
Det enestående menneske
Der skal dog ikke være tvivl om, at kunstig intelligens, når den en gang er modnet, kan give enorme fordele på ret så specifikke områder. Men mennesket kan altså stadig noget helt enestående, blandt andet grundet menneskekundskab, tilegnet fagviden og sund fornuft. Heldigvis synes regeringen i sin nye strategi at være blevet meget forsigtig med at koble mennesket helt ud af loopet. Tonen er blevet en anden, siden regeringen bebudede langt flere fuldautomatiserede beslutninger, og der uddeles masser af løfter:
'Algoritmerne skal sikre ligebehandling ved at være objektive, saglige og uafhængige af personlige forhold. Det indebærer, at kunstig intelligens ikke må skabes til at afspejle fordomme eller være forudindtaget imod for eksempel køn, handicap eller etnisk herkomst. Desuden skal det sikres, at de data, som den kunstige intelligens bruger, ikke er fejlbehæftede.'
Skal de løfter holdes, går der årtier, inden den kunstige intelligens må tages i brug. Hvis det overhovedet kan ske.
Tekst, grafik, billeder, lyd og andet indhold på dette website er beskyttet efter lov om ophavsret. DK Medier forbeholder sig alle rettigheder til indholdet, herunder retten til at udnytte indholdet med henblik på tekst- og datamining, jf. ophavsretslovens § 11 b og DSM-direktivets artikel 4.
Kunder med IP-aftale/Storkundeaftaler må kun dele Kommunen.dks artikler internet til brug for behandling af konkrete sager. Ved deling af konkrete sager forstås journalisering, arkivering eller lignende.
Kunder med personligt abonnement/login må ikke dele Kommunen.dks artikler med personer, der ikke selv har et personligt abonnement på kommunen.dk
Afvigelse af ovenstående kræver skriftlig tilsagn fra det pågældende medie.