Etik inom AI viktigt för förtroende

Den etiska användningen av AI är grundläggande för att vinna människors förtroende, visar en ny studie från Capgemini Research Institute.

Organisationer som vill utnyttja fördelarna med AI kommer att granskas av samtliga av företagets intressenter, och dessa kommer att belöna eller straffa olika beteenden. Undersökningen visar att de skulle vara mer lojala mot, köpa mer från och vara mer positivt inställda till organisationer vars arbete inom AI anses vara etiskt.
Studien “Why addressing ethical questions in AI will benefit organizations” frågade 1 580 chefer från stora organisationer i 10 länder och över 4 400 konsumenter i sex länder.
Nedan sammanfattas några av de viktigaste resultaten:

Företag som använder AI på ett etiskt sätt kommer att belönas: Bland de undersökta konsumenterna skulle 62% ha ett större förtroende för ett företag vars AI-lösning de uppfattade som etisk. 61% skulle dessutom tala om detta för sina närmaste vänner och familj, 59% sa att de skulle ha högre lojalitet mot företaget och 55% skulle köpa fler produkter och ge högre betyg och positiv feedback på sociala medier. Och sett från andra hållet; när AI leder till etiska problem hotar det både rykte och resultat: 41% svarade att de skulle klaga om en AI-interaktion resulterade i etiska problem, 36% skulle kräva en förklaring och 34% skulle helt sluta ha med företaget i fråga att göra.

Etiska problem med AI-system har både observerats och upplevts: Chefer i nio av tio organisationer anser att etiska problem har uppstått vid användningen av AI-system under de senaste 2-3 åren. Till exempel med insamling av personuppgifter utan samtycke i sjukvården, och när det gäller maskinledda beslut inom bank och försäkring. Cheferna angav som skäl trycket att snabbt genomföra AI, misslyckandet med att överväga etik när man konstruerade AI-systemen och brist på resurser när det gäller AI-system.

Konsumenter, anställda och medborgare är oroliga för etiska problem kopplade till AI och vill ha någon form av reglering. Nästan hälften av de svarande (47%) anser att de har upplevt minst två olika användningar av AI som resulterat i etiska problem under de senaste 2- 3 åren. De flesta (75%) sa att de vill ha mer öppenhet när de använder en AI-tjänst, och att veta om AI behandlar dem rättvist (73%). Över tre fjärdedelar (76%) av konsumenterna anser att det borde finnas ytterligare regler för hur företagen använder AI.

Organisationer börjar inse vikten av etisk AI: 51% av cheferna anser att det är viktigt att se till att AI-system är etiska och transparenta. Organisationer tar också till konkreta åtgärder när etiska frågor tas upp. Undersökningen visade att 41% av ledande befattningshavare rapporterar att de helt och hållet har övergivit ett AI-system när en etisk problem hade kommit fram.

– Många organisationer befinner sig vid ett vägskäl när det gäller AI, säger Annica Grimberg-Lignell, Enterprise Architect på Capgemini. Konsumenter, anställda och medborgare är alltmer öppna för att interagera med tekniken men är medvetna om potentiella etiska konsekvenser. Denna forskning visar att organisationer måste skapa etiska metoder för användningen av AI om de ska vinna människors förtroende. Som i sin tur kan bli en stor fördel när det gäller lojalitet, godkännande och engagemang.
– För att uppnå detta måste organisationer fokusera på att skapa de rätta verktygen och strukturerna, de kan inte bara definiera en uppförandekod baserad på egna värderingar. Och framför allt, fokusera på att informera människor i hur de interagerar med AI-lösningar.

Organisationer måste prioritera en etisk AI-strategi: För att hantera konsumentfrågor och öka förtroendet för etisk AI-användning, måste organisationer fokusera på att göra systemen anpassande för ändamålet. Capgemini rekommenderar en tre-delad strategi för att bygga en strategi för etik inom AI:

1) För CxOs, företagsledare och de som är ansvariga för förtroende och etik: Skapa en stark grund med en strategi och uppförandekod för etiskt AI; Utveckla policies som definierar metoder för anställda och AI-applikationer; skapa etiska styrningsstrukturer och säkerställ ansvar för AI-system.

2) För team inom HR, marknadsföring, kommunikation och kundtjänst: Utbilda och informera användarna för att bygga förtroende för AI-system; ge användarna större kontroll och möjlighet att proaktivt kommunicera om AI-frågor internt och externt för att bygga förtroende

3) För AI, data- och IT-ledare och deras team: Gör AI-system öppna och begripliga för att få användarnas förtroende; och använd teknikverktyg för att bygga etik i AI.

– Ett klassiskt sätt att skapa förtroende, med AI-interaktioner i synnerhet, kan sammanfattas i tre ord: öppenhet, ansvar och förtroende, säger Luciano Floridi, chef för Digital Ethics Labs, Oxford Internet Institute. Det betyder öppenhet så att människor kan se vad du gör; ansvar eftersom du är ansvarig för vad du gör och förtroende eftersom du är tydlig med att du vill veta om något du gjorde var fel eller inte bra.

Comments are closed.