EU:s AI-förordning träder i kraft i augusti 2024
Efter EU-kommissionens första förslag i april 2021 antog Europaparlamentet EU:s förordning om artificiell intelligens. Detta publicerades i Europeiska unionens officiella tidning i juli 2024 och är nu tillgängligt på alla 24 officiella språk i EU:s medlemsländer. Förordningen träder officiellt i kraft i augusti 2024, även om de flesta bestämmelserna inte kommer att gälla förrän två år senare. För enskilda avsättningar gäller dock olika tidsfrister. Förordningen fastställer skyldigheter för företag som utvecklar och/eller använder system för artificiell intelligens i EU.
EU:s AI-förordningsschema
EU:s AI-förordning kommer att utvecklas och implementeras enligt följande schema:
April 2021: Första förslaget från Europeiska kommissionen
Mars 2024: Antagen av Europaparlamentet
Juli 2024: Officiell publicering i EU:s officiella tidning
Augusti 2024: Förordningen träder i kraft
Mitten av 2025: Fullt genomförande i alla EU:s medlemsländer
Vad är den europeiska förordningen om artificiell intelligens?
European AI Law 2024 är en förordning från Europeiska kommissionen som är avsedd att säkerställa att AI-system används på ett ”säkert, transparent, spårbart, icke-diskriminerande och miljövänligt” sätt . Förordningen är avsedd att reglera hur AI-system på ett lämpligt sätt kan hanteras av ”leverantörer” och ”operatörer” av AI-system i enlighet med de risker de utgör. En ”leverantör” av AI-system är i vid bemärkelse ett företag som erbjuder eller utvecklar ett AI-system under eget varumärke. Operatörer är de som använder AI-teknik. Därför kan vilket företag som helst tillhöra denna grupp. Ju högre risk AI-systemet har, desto strängare regulatoriska krav.
Några nyckelpunkter i EU:s AI-lag
- Riskbaserad klassificering: AI-lagen klassificerar AI-system i olika risknivåer, var och en med specifika regulatoriska krav för att hantera deras potentiella effekter.
- Transparenskrav: AI-system med hög risk måste uppfylla strikta krav på transparens och arkivering för att säkerställa ansvarsskyldighet och spårbarhet.
- Mänsklig tillsyn: Vissa AI-system kräver mänsklig tillsyn för att minska risker och upprätthålla etiska standarder.
Risknivåer i EU:s AI-lag
AI-lagen definierar fyra risknivåer för AI-system, som var och en är förknippad med specifika regulatoriska krav:
Källa : Officiell publikation av Europeiska kommissionen om AI-lagen
Oacceptabel risk
AI-system som faller under denna risknivå utgör ett tydligt hot och är strängt förbjudna. Exempel inkluderar manipulation av beteende genom kognitiva tekniker som röststyrda leksaker som lurar barn till farligt beteende, eller sociala klassificeringssystem som kategoriserar människor baserat på deras beteende eller personliga egenskaper.
Högrisk AI-system
AI-system i denna kategori kan ha betydande effekter på hälsa, säkerhet eller grundläggande rättigheter. Exempel på detta är AI inom hantering av kritisk infrastruktur, utbildning, sysselsättning och brottsbekämpning. Alla AI-system med hög riskpotential måste genomgå rigorösa tester innan de släpps ut på marknaden och under hela deras livslängd. Individer har rätt att rapportera farhågor om AI-system till relevanta nationella myndigheter.
Begränsad risk
Dessa AI-system utgör låg risk och är föremål för transparenskrav. Till exempel måste användare som interagerar med chatbots informeras om att de pratar med en AI. Leverantörer måste också se till att AI-genererat innehåll, särskilt om ämnen av allmänt intresse, tydligt markeras som artificiellt genererat, oavsett om det är text, ljud eller video.
Minimal eller ingen risk
AI-system med minimal eller ingen risk omfattas inte av ytterligare regulatoriska krav. Exempel på detta är AI-kontrollerade videospel och spamfilter.
Efterlevnad och AI: Vad företag bör göra
Som Europeiska rådet förklarade i ett pressmeddelande i maj är det viktigt att bedöma effekten på de grundläggande rättigheterna innan ett högrisk-AI-system implementeras av vissa företag som tillhandahåller offentliga tjänster.
Det finns några punkter för AI-systemleverantörer att tänka på:
- Genomför en riskbedömning genom att bestämma riskkategorin för AI-systemet och implementera nödvändiga skyddsåtgärder.
- Skapa teknisk dokumentation för att visa efterlevnad och skicka in den till myndigheterna för granskning.
- Utveckla AI-systemet för att automatiskt logga händelser för att upptäcka risker och systemförändringar.
- Skapa riktlinjer för operatörer för att säkerställa att kraven uppfylls.
Även om operatörer inte har samma skyldigheter som leverantörer, kräver AI-lagen att de följer riktlinjerna för användning, säkerställer organisatorisk och teknisk efterlevnad och genomför en konsekvensbedömning av dataskydd innan de implementerar högrisk-AI-system.
Underlåtenhet att följa EU:s AI-lag kan resultera i böter som sträcker sig från 35 miljoner euro, eller 7 % av den globala omsättningen, till 7,5 miljoner euro, eller 1,5 % av omsättningen, beroende på hur allvarlig överträdelsen är och företagets storlek.
Europas digitala mål och den europeiska datastrategin som definieras för 2030 syftar till att främja rättvis konkurrens och öka transparensen i onlinetjänster. För företag innebär detta att de måste säkerställa att deras processer stöder dessa dataskyddsvärden. Nyligen antagna lagar, inklusive lagen om digitala tjänster och lagen om digitala marknader , understryker vikten av rättvis konkurrens och transparens. Genom att ta itu med interna processer och se över dem i ett tidigt skede kan både leverantörer och användare av AI-system undvika böter och öka konsumenternas förtroende. Förbättra dina efterlevnadsprocesser idag genom att klicka här för att komma igång.