Artificiell intelligens (AI) är inte bara teknologi; det är en kraft som transformerar hur vi lever och interagerar med världen. EU tar täten i denna transformation genom AI–akten, en nyskapande reglering som syftar till att balansera innovation med ansvar. Genom att sätta upp regler för olika risknivåer och främja transparens strävar EU efter att bli en global ledare inom AI–reglering. Välkommen till framtiden av teknologisk innovation och reglering!
Vad är Artificiell intelligens?
Artificiell intelligens (AI) är en teknologi som ger maskiner möjlighet att uppvisa mänskliga egenskaper såsom resonerande, inlärning och kreativitet. Genom att möjliggöra för tekniska system att uppfatta omgivningen, behandla information och lösa problem, spelar AI redan en viktig roll i våra liv. Det omfattar mjukvara som virtuella assistenter och bildanalysverktyg samt “förkroppsligad” AI som självkörande bilar och robotar. Med avancerade algoritmer och tillgång till omfattande data har AI blivit central för samhällets digitala omställning och är en prioritet för EU (Europaparlamentet, 2023).
AI har en bred tillämpning i vardagen, från näthandel och marknadsföring till digitala personliga assistenter och smarta hem. AI används också inom hälsa och sjukvård, transporter, tillverkning, livsmedel och jordbruk samt offentlig administration. Genom att analysera stora datamängder och spåra mönster kan AI hjälpa till att lösa komplexa problem och förbättra olika sektorer.
Framtida applikationer förutspås skapa betydande förändringar, och EU fokuserar på att utveckla lagstiftning för att främja ansvarsfull användning av teknologin (Europaparlamentet, 2023).
Majoriteten av européer, närmare bestämt 61 procent, uppvisar en positiv inställning till artificiell intelligens och robotteknik. Å andra sidan anser 88 procent av dem att det är viktigt att hantera denna teknik med försiktighet, enligt Eurobarometer 2017 inom EU28.
EU:s AI–förordning:
I april 2021 lade kommissionen fram förslaget till EU:s första regelverk för AI. En central del av förslaget innebär att AI–system klassificeras beroende på den risk de utgör för användare, vilket kommer att diktera graden av reglering de underkastas. Europaparlamentet driver på för att säkerställa att AI–system i EU är säkra, transparenta, spårbara, icke–diskriminerande och miljövänliga. Deras mål inkluderar en teknikneutral och enhetlig definition av AI samt mänsklig övervakning för att minimera skadliga effekter (Europaparlamentet, 2023).

Olika risknivåer: AI–system kommer att bedömas och regleras utifrån den risk de utgör, nämligen oacceptabel risk, hög risk, begränsad risk och minimal risk.
Oacceptabel risk: Förbjudna AI–system
Inom EU:s AI–förordning identifieras situationer av “Oacceptabel Risk” där vissa AI–system förbjuds på grund av deras potentiellt farliga påverkan mot människors säkerhet, levebröd och rättigheter. Detta inkluderar system som bedriver kognitiv beteendemanipulation, social poängsättning av regeringar och realtidsbiometrisk identifiering (Europaparlamentet, 2023).
Hög risk: Särskilda regler för säkerhet och rättigheter
AI–system som har en negativ påverkan på säkerhet eller grundläggande rättigheter kategoriseras som “Hög Risk”. Dessa omfattar användning inom kritisk infrastruktur, utbildning, säkerhetskomponenter i produkter, anställning, förvaltning av arbetstagare, tillgång till egenföretagande, essentiella privata och offentliga tjänster, brottsbekämpning, migration och asyl samt förvaltning av rättvisa och demokratiska processer. AI–system inom dessa områden kommer att utsättas för strikta skyldigheter före marknadsintroduktion, inklusive riskbedömning, högkvalitativa dataset, loggning av aktivitet, detaljerad dokumentation och mänsklig övervakning (EU–kommissionen, 2023).
Begränsad risk: Minimikrav på transparens
AI–system som klassificeras som “Begränsad Risk” måste möta minimikrav för transparens för att användare ska kunna fatta välgrundade beslut. Det krävs att användare är medvetna om att de interagerar med en maskin, som exempelvis chatbots, för att kunna fatta informerade beslut om de önskar fortsätta användningen (EU–kommissionen, 2023). System som ChatGPT, kategoriserade som generativ AI, måste uppfylla krav på transparens, inklusive märkning av genererat innehåll, förebyggande av olagligt innehåll och offentliggörande av upphovsrättsskyddade träningsdata (Europaparlamentet, 2023). Dessa krav inkluderar specifika åtgärder för system som genererar eller manipulerar bild–, ljud– eller videoinnehåll, såsom teknologier för deepfakes (Europaparlamentet, 2023). Genom att etablera dessa minimikrav säkerställer förordningen att användare är medvetna om och kan bedöma risken med sådana teknologier.
Minimal risk eller ingen risk:
Förenklade krav för proportionell reglering För AI–system med “Minimal Risk” tillämpas förenklade krav för att hantera dessa teknologier på ett proportionerligt sätt. Denna kategori omfattar system där risken för skada är minimal, och det finns därmed inte behov av omfattande reglering. Detta möjliggör en smidig användning av teknologier som inte utgör betydande hot mot individer eller samhället (Europaparlamentet, 2023). Exempel på AI–system inom “Minimal Risk”–kategorin är applikationer såsom AI–aktiverade videospel eller skräppostfilter. De flesta AI–system som används i EU för närvarande faller inom denna kategori (EU–kommissionen, 2023).
Uppmaning: Forma och förstå framtidens AI–användning i Europa I ljuset av EU:s framsteg med AI–akten och dess kommande förordning uppmanas aktörer inom teknologisektorn och samhället att aktivt engagera sig i den fortsatta utformningen av artificiell intelligens. Här är några nyckelpunkter att beakta och agera utifrån:
Engagera er i dialog: Branschexperter, företagsledare och samhällsrepresentanter bör delta i dialogen kring AI–lagstiftningen. Genom att dela insikter och erfarenheter kan en mer holistisk och representativ reglering skapas.
Prioritera säkerhet och ansvar: Fokusera på att utveckla och använda AI–system som inte bara är innovativa utan också säkra, transparenta och ansvariga. Detta kommer att stärka förtroendet för teknologin och minimera riskerna för användare.
Omfamna transparens: Särskilt för generativ AI bör företag och utvecklare omfamna transparenskraven, inklusive tydlig märkning av genererat innehåll och offentliggörande av träningsdata. Detta främjar öppenhet och etisk användning av AI.
Förbered er på regeländringar: Företag som använder eller utvecklar AI bör vara beredda på att anpassa sig till de kommande regeländringarna. Genom att vara proaktiva kan de undvika överraskningar och säkerställa att deras verksamhet överensstämmer med de nya bestämmelserna.
Genom att aktivt delta i dessa aspekter av den pågående utvecklingen kan individer och organisationer tillsammans forma en hållbar och ansvarsfull framtid för artificiell intelligens i Europa.
Referenser:
Europaparlamentet. (2023, 14 juni). EU:s AI–förordning: första förordningen om artificiell
intelligens. Europaparlamentet.
https://www.europarl.europa.eu/news/sv/headlines/society/20230601STO93804/eu–s–ai–akt–
forsta–forordningen–om–artificiell–intelligens Åtkomst 16 november 2023.
Europaparlamentet. (2023, 27 juni). Vad är artificiell intelligens och hur används det?
Europaparlamentet.
https://www.europarl.europa.eu/news/sv/headlines/society/20200827STO85804/vad–ar–
artificiell–intelligens–och–hur–anvands–det Åtkomst 16 november 2023.
EU–kommissionen. (2023). Regulatory Framework for AI. https://digital–
strategy.ec.europa.eu/en/policies/regulatory–framework–ai Åtkomst 16 november 2023.
Författare: Julia Tran, IT & Analytics-konsult .

VAD KAN VI HJÄLPA ER ATT UPPNÅ?
Kontakta Sveriges ledande studentkonsultbolag och definiera er framtid tillsammans med Lunicore. Skicka en förfrågan, så återkopplar vi snarast.