I dag kopplas allt fler produkter upp mot varandra, tar egna beslut och genererar mängder av data som både företag och offentliga myndigheter kan använda för att förbättra sina tjänster. För att snabbare förstå och skapa nytta av den stora mängden data används artificiell intelligens (AI).

Det är AI-baserad teknik som gör det möjligt för karttjänster att visa snabbaste vägen, som hjälper sökmotorer att generera relevanta resultat och som har gjort det möjligt att låsa upp telefonen bara genom att titta på den. Allt fler handläggningsärenden förväntas dessutom avgöras åtminstone delvis med hjälp av automatiserat beslutsfattande. Det kan gälla allt från lånelöften till reklamationsärenden.

Samhällsvinsterna med tekniken är potentiellt enorma. Genom storskalig analys av konsumentbeteenden och automatisering kan AI bidra till en mer effektiv energiförbrukning och inom sjukvård kan tekniken främja utvecklingen av nya läkemedel och bistå personal vid diagnosställning. AI anses med andra ord vara en del av lösningen på några av vår samtids avgörande frågor.         

Men med de tekniska framstegen följer också utmaningar. Att verktyg och lösningar som bygger på AI är rättvisa och transparenta är en grundförutsättning för att konsumenter ska våga lita på tekniken. Det är genom konsumenters tillit som de stora samhällsvinsterna kan realiseras. 

En central fråga som behandlas i den här ståndpunkten är hur och av vem automatiserade beslut som diskriminerar eller på andra sätt leder till orättvisa utfall ska identifieras. Dessutom väcks frågan om hur tillsynsmyndigheter ska kunna fortsätta utföra kontroller på marknader som blir allt mer personanpassade och svårgenomträngliga.


Våra lösningar 

Genom den europeiska konsumentorganisationen BEUC står konsumentrörelsen samlad kring principer om tillit och transparens för en konsumentvänlig utveckling av AI. Vi presenterar här lösningar som vi anser bör vara utgångspunkter för regleringen.

  • All lagstiftning som gäller AI bör som utgångsläge baseras på risken för allvarliga konsekvenser. Högre risk bör medföra strängare krav.

  • Företag eller organisationer som använder sig av AI-system ska åläggas att vid begäran kunna demonstrera att deras system följer relevant lagstiftning, exempelvis genom att erbjuda en neutral tredjepart insyn i systemet.

  • På områden där risken för allvarliga konsekvenser bedöms som särskilt hög bör AI-system granskas av en neutral tredje part redan innan de tas i bruk.

  • GDPR artikel 22 som bland annat ger konsumenter rätt att motsätta sig automatiserat beslutsfattande bör i annan lagstiftning kompletteras i syfte att utöka denna rättighet även till processer som inte involverar persondata.

  • Konsumenter bör med stöd av bindande lagstiftning ha rätt att veta vilka data som används i en process för automatiserat beslutsfattande, för vilket syfte dessa data används och vem som får tillgång till dem.