Analys och tolkning av AI Act
Inom EU kommer det att beslutas om lagstiftning som styr utveckling och användning av AI inom hela unionen, förslaget går under namnet AI Act och behandlas för närvarade inom EU. En utmaning är att användningen av AI redan sker och är på uppgång samtidigt som inte reglerna för det är klara.
På denna sida upprätthåller vi en löpande analys av AI Act samt dokumenterar hur vi proaktivt agerar för att öka sannolikheten att ha full följsamhet till den nya lagstiftningen när den väl träder i kraft. Informationen på sidan är under ständig bearbetning i takt med att ny kunskap eller information finns kring AI Act.
Analysen är grovt indelad i ett antal områden som vi väljer att kategorisera kraven inom, dessa är;
- Allmänt
- Tillämpningsområde och avgränsningar (förbud)
- Klassificering av hög risk AI-system
- Uppfyllande av krav för hög risk-system
- Informationsskyldighet, insyn och transparens (målgrupp invånare)
- Insyn och transparens (målgrupp verksamhet)
- Säkerhet och cybersäkerhet
- Samarbete med andra myndigheter och informationsplikt
Vi har även avgränsat analysen utifrån de delar som är relevanta för oss utifrån den bedömning vi kan göra idag, därmed berörs inte samtliga artiklar och krav i denna analys.
Versionshantering
Om du uppdaterar viss information, notera den förändring i versionshanteringen nedan;
Version | Datum | Kommentar |
---|---|---|
1.0 | 2024-01-08 | Första version av analys för distribution internt till berörda roller inom AI-arbetet, ledning samt informationssäkerhet |
Sammanfattande analys 2024-01-08
Sundsvalls kommunkoncerns nuvarande linje samt redan beslutade åtgärder kring införandet av AI ser grovt ut enligt nedan;
- Vi ska upprätta ett publikt register för alla AI-tillämpningar så att vem som helst har insyn i all AI-användning, i registret skall det även framgå tekniska detaljer kring AI-tillämpningen (typ av tillämpning, exempelvis vilken AI-modell som används osv)
- Vi inför en Öppen infrastruktur för AI som ger oss möjligheterna att vara flexibel över tid i användning av språkmodeller osv, men framförallt som ger oss möjligheten att utveckla transparens och insyn helt efter behov
- Den öppna AI-infrastrukturen ska ha ett eget register över alla AI-tillämpningar inom plattformen
- Den öppna AI-infrastrukturen ska möjliggöra att alla beslut som fattas av AI ska kunna laddas ned i ett öppet format (läs mer om det här)
- Vi upprättar en intern process för all användning av AI, en process som ska säkerställa en noga avvägd användning av AI som bidrar till en tillförlitlig och säker AI och som skall följas varje gång det är aktuellt att använda en AI-tillämpning.
- Detta arbete är också ett första steg mot ett sammanhållet ledningssystem för AI
Vi har också valt en grundläggande riktning där vi upprättar standardiserade rutiner för samtliga AI-tjänster, oavsett graden av risk, detta är också helt i linje med AI Act genom uppmaningen i artikel 69.
Allmänt
En grundläggande allmän analys är att Sundsvalls kommun som utgångspunkt bör beakta och följa uppmaningen i Artikel 69 rörande uppförandekod;
Artikel 69 Uppförandekoder
|
Denna uppmaning tydliggör att även fast AI Act riktar in sig gentemot AI-system med hög risk så är rekommendationen ändå att följa samma kravställning även på AI-tillämpningar som har lägre risk. Detta främjar en strategi där vi som kommun arbetar fram generella riktlinjer och regler för allt från dokumentation till transparens och till teknik som kan tillämpas på alla nivåer av risk.
Övriga allmänna slutsatser/analyser:
- I bakgrunden till förslaget nämns att man föreslår en "rättslig ram för tillförlitlig AI" vilket vi tolkar som ett nyckeluttryck som är helt i linje med vår egen syn, att vi genom öppenhet och transparens även skapar förståelse och tillit (sida 1)
- I samma bakgrund till förslaget nämns även att "AI bör vara ett verktyg för människor och vara en positiv kraft i samhället med det yttersta målet att öka människors välbefinnande" vilket är en riktning och ett mål som just fokuserar på användning av AI för att skapa en positiv förändring för människan (sida 1)
- EU har sedan tidigare mål om att "bli världsledande inom utvecklingen av säker, tillförlitlig och etisk artificiell intelligens" (sida 2)
- AI Act-förslaget påverkar inte, utan kompletterar, den allmänna dataskyddsförordningen (GDPR) (sida 4)
- EU kommer att inrätta ett register där hög risk-tillämpningar av AI ska registreras men framförallt kommer det även vara en källa att kontrollera om ett AI-system uppfyller kraven, nästan som någon form av certifiering. "Kommisionen kommer att inrätta ett system för registrering av fristående AI-tillämpningar med hög risk i en offentlig EU-omfattande databas. Denna registrering kommer också att göra det möjligt för behöriga myndigheter, användare och andra intresserade att kontrollera om AI-systemet med hög risk uppfyller kraven i förslaget..." (sida 12)
Tillämpningsområde och avgränsningar (förbud)
AI Act kommer att tillämpas på alla aktörer som levererar AI-system inom EU;
Artikel 2 Tillämpningsområde Denna förordning ska tillämpas på (a) leverantörer som släpper ut AI-system på marknaden eller tar AI-system i bruk i unionen, oavsett om dessa leverantörer är etablerade i unionen eller i ett tredjeland, (b) användare av AI-system när dessa användare befinner sig i unionen, (c) leverantörer och användare av AI-system när dessa leverantörer och användare befinner sig i ett tredjeland, där de utdata som produceras av systemet används i unionen.
|
AI Act förbjuder rakt av vissa former av AI-tillämpningar;
Artikel 5 Följande AI-tillämpningar ska vara förbjudna: (a) Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som använder subliminala tekniker som människor inte är medvetna om för att väsentligt snedvrida en persons beteende på ett sätt som orsakar eller sannolikt kommer att orsaka fysisk eller psykisk skada för den personen eller en annan person. (b) Utsläppande på marknaden, ibruktagande eller användning av ett AI-system som utnyttjar någon sårbarhet, som härrör från ålder eller fysisk eller psykisk funktionsnedsättning, hos en specifik grupp av personer, för att väsentligt snedvrida beteendet hos en person som tillhör den gruppen på ett sätt som orsakar eller sannolikt kommer att orsaka fysisk eller psykisk skada för den personen eller en annan person. (c) Utsläppande på marknaden, ibruktagande eller användning av AI-system av offentliga myndigheter eller på deras vägnar för utvärdering eller klassificering av fysiska personers pålitlighet under en viss tidsperiod på grundval av deras sociala beteende eller kända eller förutsedda personliga eller personlighetsrelaterade egenskaper, med en social poängsättning som leder till det ena eller båda av följande: i) Skadlig eller ogynnsam behandling av vissa fysiska personer eller hela grupper av fysiska personer i sociala sammanhang som saknar koppling till de sammanhang i vilka berörda data ursprungligen genererades eller samlades in. ii) Skadlig eller ogynnsam behandling av vissa fysiska personer eller hela grupper av fysiska personer som är omotiverad eller oproportionerlig i förhållande till personernas sociala beteende eller till hur allvarligt beteendet är. (d) Användning av system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål, såvida inte och endast i den mån sådan användning är absolut nödvändig för något av följande syften: i) Målinriktad sökning efter specifika potentiella brottsoffer, inbegripet försvunna barn. ii) Förhindrande av ett specifikt, betydande och överhängande hot mot fysiska personers liv eller fysiska säkerhet eller förhindrande av en terroristattack. iii) Avslöjande, lokalisering, identifiering eller lagföring av en gärningsman eller misstänkt vid brott som avses i artikel 2.2 i rådets rambeslut 2002/584/RIF[1] och som i den berörda medlemsstaten kan leda till fängelsestraff eller annan frihetsberövande åtgärd för en maxperiod av minst tre år, i enlighet med den medlemsstatens lagstiftning. |
Tolkning och analys
- Kraven gäller även på aktörer utanför EU ifall de levererar tjänsten inom EU
- Kraven gäller för alla aktörer inom EU som använder AI-system
- Det finns särskilda avgränsningar för AI inom säkerhetsområdet
- Förordningen gäller inte för AI som utvecklas eller används uteslutande för militära ändamål
Klassificering av hög risk AI-system
Klassificeringen beskrivs på följande sätt;
Artikel 6 Klassificeringsregler för AI-system med hög risk Oavsett om ett AI-system släpps ut på marknaden eller tas i bruk oberoende av de produkter som avses i leden a och b ska det AI-systemet betraktas som högrisksystem om båda följande villkor är uppfyllda: (a) AI-systemet är avsett att användas som en säkerhetskomponent i en produkt, eller är i sig en produkt, som omfattas av den unionslagstiftning om harmonisering som förtecknas i bilaga II. (b) Den produkt vars säkerhetskomponent är AI-systemet, eller själva AI-systemet som en produkt, måste genomgå en tredjepartsbedömning av överensstämmelse för att den produkten ska kunna släppas ut på marknaden eller tas i bruk i enlighet med den unionslagstiftning om harmonisering som förtecknas i bilaga II. Utöver de AI-system med hög risk som avses i punkt 1 ska AI-system som avses i bilaga III också betraktas som högrisksystem. |
Följande områden definieras i bilaga 3 som hög risk, där vi ser flera som berör verksamheter som finns inom kommuner (se fetmarkerad text);
BILAGA III AI-SYSTEM MED HÖG RISK SOM DET HÄNVISAS TILL I ARTIKEL 6.2 AI-system med hög risk enligt artikel 6.2 är de AI-system som används inom något av följande områden:
|
Tolkning och analys
- Framförallt områdena 2, 3, 4, 5 och 8 berör direkt kommunal verksamhet;
- Punkt 2 berör verksamhet i flera av våra bolag
- Punkt 3 berör Barn och utbildning samt Vuxenutbildning
- Punkt 4 rör flertalet processer inom HR-området
- Punkt 5 berör verksamhet inom IAF (t ex ekonomiskt bistånd) men även i delar MRF
- Punkt 8 kan beröra väldigt många verksamheter utifrån att man vill använda AI för att tolka lagstiftning, beroende på hur man tolkar rättslig myndighet. Är andemeningen med punkten att styra användning inom domstolar osv eller även inom offentliga aktörer som nyttjar lagstiftning för sina beslut?
- Genom artikel 7 kan även kommisionen löpande uppdatera ovanstående områden i bilaga 3 över tid
Uppfyllande av krav för hög risk-system
Hela kapitel 2 i AI Act reglerar krav på AI-system som klassificeras som hög risk.
Mycket bygger på att man behöver införa en form av ledningssystem som i AI Act kallas för "Riskhanteringssystem", detta regleras i artikel 9;
Artikel 9 Riskhanteringssystem
(a) Identifiering och analys av kända och förutsebara risker förbundna med varje AI-system med hög risk. (b) Uppskattning och utvärdering av de risker som kan uppstå när AI-systemet med hög risk används i enlighet med dess avsedda ändamål och under förhållanden där det kan förekomma rimligen förutsebar felaktig användning. (c) Utvärdering av andra risker som eventuellt kan uppstå på grundval av en analys av data som samlats in från det system för övervakning efter utsläppande på marknaden som avses i artikel 61. (d) Antagande av lämpliga riskhanteringsåtgärder i enlighet med bestämmelserna i följande punkter. |
Som en fortsättning på en form av kvalitetsledningssystem finns det krav i artikel 17 rörande ett Kvalitetsstyrningssystem;
Artikel 17 Kvalitetsstyrningssystem
(a) En strategi för efterlevnad av regelverket, inklusive efterlevnad av förfaranden för bedömning av överensstämmelse och för hantering av ändringar av AI-systemet med hög risk. (b) Tekniker, förfaranden och systematiska åtgärder som ska användas för utformning av AI-systemet med hög risk samt för kontroll och verifikation för utformningen. (c) Tekniker, förfaranden och systematiska åtgärder som ska användas för utveckling, kvalitetskontroll och kvalitetssäkring av AI-systemet med hög risk. (d) Undersöknings-, test- och valideringsförfaranden som ska utföras före, under och efter utvecklingen av AI-systemet med hög risk och hur ofta de ska utföras. (e) Tekniska specifikationer, inbegripet standarder, som ska tillämpas och, om de relevanta harmoniserade standarderna inte tillämpas fullt ut, de medel som ska användas för att säkerställa att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning. (f) System och förfaranden för datahantering, inbegripet datainsamling, dataanalys, datamärkning, datalagring, datafiltrering, datautvinning, dataaggregering, lagring av uppgifter och varje annan åtgärd som avser data och som utförs före och för utsläppandet på marknaden eller ibruktagandet av AI-system med hög risk. (g) Det riskhanteringssystem som avses i artikel 9. (h) Upprättande, genomförande och underhåll av ett system för övervakning efter utsläppande på marknaden i enlighet med artikel 61. (i) Förfaranden som berör rapportering av allvarliga incidenter och av funktionsstörningar i enlighet med artikel 62. (j) Hantering av kommunikation med nationella behöriga myndigheter, behöriga myndigheter, inbegripet sektorsmyndigheter, som tillhandahåller eller stöder tillgången till uppgifter, anmälda organ, andra operatörer, kunder eller andra berörda parter. (k) System och förfaranden för arkivering av all relevant dokumentation och information. (l) Resurshantering, inbegripet åtgärder som berör försörjningstrygghet. (m) En ram för ansvarsutkrävande som fastställer ledningens och övrig personals ansvar vad gäller alla aspekter som anges i denna punkt.
|
Det finns även krav på dokumentation kring AI-system och där är man tydliga med att det ska vara klart innan AI-systemet tas i bruk eller ges ut på marknaden;
Artikel 11 Teknisk dokumentation
Den tekniska dokumentationen ska upprättas på ett sådant sätt att det visas att AI-systemet med hög risk uppfyller kraven i detta kapitel, och så att nationella behöriga myndigheter och anmälda organ får all den information som krävs för att bedöma om AI-systemet uppfyller dessa krav. Den ska minst innehålla de delar som anges i bilaga IV. |
I artikel 18 ställs ett krav på att teknisk dokumentation enligt artikel 11 skall upprättas;
Artikel 18 Skyldighet att upprätta teknisk dokumentation
|
Krav på loggning och arkivering framgår i artikel 12;
Artikel 12 Arkivering AI-system med hög risk ska utformas och utvecklas med funktioner som möjliggör automatisk registrering av händelser (loggar) medan AI-systemen med hög risk är i drift. Dessa loggningsfunktioner ska överensstämma med erkända standarder eller gemensamma specifikationer.
(a) Registrering av perioden för varje användning av systemet (startdatum och starttidpunkt samt slutdatum och sluttidpunkt för varje användning). (b) Den referensdatabas mot vilken indata har kontrollerats av systemet. (c) Indata för vilka sökningen har lett till en träff. (d) Identifiering av de fysiska personer som deltar i kontrollen av resultaten enligt artikel 14.5. |
Krav på loggning fortsätter även i artikel 20;
Artikel 20 Automatiskt genererade loggar
|
I artikel 50 framgår det även krav på tiden som dokumentation ska sparas, dvs gallringstid;
Artikel 20 Automatiskt genererade loggar Leverantören ska under en period på 10 år efter det att AI-systemet har släppts ut på marknaden eller tagits i bruk, för de nationella behöriga myndigheternas räkning hålla tillgängligt (a) den tekniska dokumentation som avses i punkt 11, (b) den dokumentation avseende kvalitetsstyrningssystemet som det hänvisas till i artikel 17, |
I artikel 16 listas skallkrav på leverantörer av AI-system med hög risk, där flera av kraven relaterar till andra artiklar:
Artikel 16 Skyldigheter för leverantörer av AI-system med hög risk Leverantörer av AI-system med hög risk ska (a) säkerställa att deras AI-system med hög risk uppfyller kraven i kapitel 2 i denna avdelning, (b) ha ett kvalitetsstyrningssystem som uppfyller kraven i artikel 17, (c) upprätta den tekniska dokumentationen för AI-systemet med hög risk, (d) spara de loggar som genereras automatiskt av deras AI-system med hög risk, när loggarna står under deras kontroll, (e) säkerställa att AI-systemet med hög risk genomgår det relevanta förfarandet för bedömning av överensstämmelse innan det släpps ut på marknaden eller tas i bruk, (f) fullgöra de registreringsskyldigheter som avses i artikel 51, (g) vidta nödvändiga korrigerande åtgärder om AI-systemet med hög risk inte uppfyller kraven i kapitel 2 i denna avdelning, (h) informera de nationella behöriga myndigheterna i de medlemsstater där de har tillhandahållit eller tagit AI-systemet i bruk och, i tillämpliga fall, det anmälda organet, om den bristande överensstämmelsen och om eventuella korrigerande åtgärder som vidtagits, (i) anbringa CE-märkningen på sina AI-system med hög risk för att påvisa överensstämmelse med denna förordning i enlighet med artikel 49, (j) på begäran av en nationell behörig myndighet visa att AI-systemet med hög risk uppfyller kraven i kapitel 2 i denna avdelning. |
Tolkning och analys
- I artikel 10 finns det även krav på data och förvaltning av data men det rör system som är hög risk samt inbegriper träning av modeller
- Mycket av kraven innebär att det ställs höga krav på loggning och insyn i all AI-användning i våra interna AI-tillämpningar
- Detta innebär att vi i vår AI-infrastruktur ska fokusera på att utveckla bra gränssnitt för oss att utöva översyn över all AI-användning
Informationsskyldighet, insyn och transparens (målgrupp invånare)
Följande delar i AI Act ställer krav rörande information till användare, insyn och transparens;
Artikel 13 Transparens och tillhandahållande av information till användare "AI-system med hög risk ska utformas och utvecklas på ett sådant sätt att driften av dem är tillräckligt transparent för att användare ska kunna tolka systemets utdata och använda dem på lämpligt sätt. En lämplig typ och grad av transparens ska säkerställas, i syfte att uppnå uppfyllelse av användarens och leverantörens relevanta skyldigheter enligt kapitel 3 i denna avdelning." Punkt 2: AI-system med hög risk ska åtföljas av en bruksanvisning i ett lämpligt digitalt format eller på annat sätt som inbegriper kortfattad, fullständig, korrekt och tydlig information som är relevant, tillgänglig och begriplig för användare." I den information som avses i punkt 2 ska följande specificeras: (a) Namn och kontaktuppgifter för leverantören och i tillämpliga fall för dennes ombud. |
Det finns även krav på dokumentation kring AI-system och där är man tydliga med att det ska vara klart innan AI-systemet tas i bruk eller ges ut på marknaden;
Artikel 52 Transparenskrav för vissa AI-system
|
Tolkning och analys
- Vi bör uppnå krav om vi följer vårt generella tänk som lyder;
- Ett öppet tillgängligt register över alla AI-tillämpningar inom koncernen
- Detaljerad information om varje AI-tillämpning
- Ett standardiserat sätt att visa för användaren när denne interagerar med en AI-tillämpning
- Möjlighet att ladda ned AI-tillämpningens "beslut" när den tagits för en individ
Insyn och transparens (målgrupp verksamhet)
AI Act ställer även krav på insyn och transparens i lösningen där målgruppen är vår interna verksamhet, krav som syftar till att det ska vara lätt att kunna förstå AI-systemet;
Artikel 14 Mänsklig tillsyn
(a) Åtgärder som leverantören har fastställt och, när det är tekniskt möjligt, byggt in i AI-systemet med hög risk innan det släpps ut på marknaden eller tas i bruk. (b) Åtgärder som leverantörer har fastställt innan AI-systemet med hög risk släpps ut på marknaden eller tas i bruk och som är lämpliga att genomföras av användaren.
(a) Fullt ut förstå kapaciteten och begränsningarna hos AI-systemet med hög risk och på vederbörligt sätt kunna övervaka dess drift, så att tecken på avvikelser, funktionsstörningar och oväntad prestanda kan upptäckas och åtgärdas så snart som möjligt. (b) Förbli medvetna om den möjliga tendensen att automatiskt eller i alltför hög grad lita på de utdata som produceras av ett AI-system med hög risk (”automationssnedvridning”, ”automation bias”), särskilt när det gäller AI-system med hög risk som används för att tillhandahålla information eller rekommendationer för beslut som ska fattas av fysiska personer. (c) Korrekt kunna tolka utdata från AI-systemet med hög risk, särskilt med beaktande av systemets egenskaper och tillgängliga tolkningsverktyg och tolkningsmetoder. (d) I vissa situationer kunna besluta att inte använda AI-systemet med hög risk eller på annat sätt bortse från, åsidosätta eller reversera de resultat som AI-systemet med hög risk genererar. (e) Kunna ingripa i driften av AI-systemet med hög risk eller stoppa systemet med en ”stoppknapp” eller ett liknande förfarande.
|
Tolkning och analys
- AI Act är en lag som aktivt ställer krav på UX/UI genom att inbegripa krav på att det ska finnas lämpliga verktyg för gränssnitt mellan människa och maskin som innebär att människor på ett effektivt sätt kan ha tillsyn över systemen när de används.
- Detta innebär att vi i vår AI-infrastruktur ska fokusera på att utveckla bra gränssnitt för oss att utöva översyn över all AI-användning
Säkerhet och cybersäkerhet
Krav kring säkerhet och resiliens mot attacker framgår främst i artikel 15;
Artikel 15 Noggrannhet, robusthet och cybersäkerhet
Robustheten hos AI-system med hög risk kan uppnås genom lösningar med teknisk redundans, som kan omfatta backup eller felsäkra planer. AI-system med hög risk som fortsätter att lära sig efter det att de har släppts ut på marknaden eller tagits i bruk ska utvecklas på ett sådant sätt att man säkerställer att eventuellt snedvridna utdata, på grund av att utdata används som indata för framtida drift (”återföring”), hanteras på vederbörligt sätt med lämpliga kompenserande åtgärder.
De tekniska lösningar som syftar till att säkerställa cybersäkerhet i AI-system med hög risk ska vara anpassade till de relevanta omständigheterna och riskerna. De tekniska lösningarna för att hantera AI-specifika sårbarheter ska, när det är lämpligt, inbegripa åtgärder för att förebygga och bekämpa attacker som försöker manipulera träningsdatasetet (”dataförgiftning”), indata som är utformade för att få modellen att göra ett misstag (”antagonistiska exempel”) eller modellfel. |
Samarbete med andra myndigheter och informationsplikt
Många delar i AI Act reglerar samverkan med andra myndigheter och ofta den myndighet som är behörig myndighet för uppföljning av AI Act, artikel 22 och 23 berör information och samarbete med denna myndighet;
Artikel 22 Informationsplikt Om AI-systemet med hög risk utgör en risk i den mening som avses i artikel 65.1 och denna risk är känd för systemleverantören, ska den leverantören omedelbart informera de nationella behöriga myndigheterna i de medlemsstater där den har tillhandahållit systemet och, i tillämpliga fall, det anmälda organ som utfärdat ett intyg för AI-systemet med hög risk, särskilt om den bristande överensstämmelsen och om eventuella korrigerande åtgärder som vidtagits. Artikel 23 Samarbete med behöriga myndigheter Leverantörer av AI-system med hög risk ska på begäran av en nationell behörig myndighet förse den myndigheten med all information och dokumentation som krävs för att visa att AI-systemet med hög risk överensstämmer med kraven i kapitel 2 i denna avdelning, på ett av den berörda medlemsstaten fastställt officiellt unionsspråk. På motiverad begäran av en nationell behörig myndighet ska leverantörer också ge den myndigheten tillgång till de loggar som genereras automatiskt av AI-systemet med hög risk, i den mån sådana loggar står under deras kontroll genom ett avtal med användaren eller på annat sätt enligt lag. |
Tolkning och analys
- Myndigheten är inte utpekad i Sverige ännu, vi får säkerställa att vi har all nödvändig information tillgänglig så att vi i framtiden har möjlighet att dela med den myndighet som vi ska dela med.
Frågor eller synpunkter på analysen?
Då analysen är levande tar vi gärna emot synpunkter eller frågor kring den, vi lär oss bäst genom att slå ihop våra krafter. Skicka din fråga eller synpunkt till digitalisering@sundsvall.se.
Läs mer om AI i Sundsvalls kommun
På sidan utveckling.sundsvall.se/AI samlar vi allt som vi publicerar löpande kring området AI.
Strategiska områden
Publicerad: