AI utan tvärfunktionell styrning öppnar dörren för etiska risker. Investerare, tillsammans med de startups de investerar i, bär ett gemensamt ansvar för att se till att AI-lösningar skalar upp på ett ansvarfullt sätt. Ett etiskt filter för AI-lösningar är en förutsättning för att slutanvändarna ska känna förtroende för tekniken, vilket därmed skapar långsiktigt hållbara affärsmodeller, menar Anna Felländer grundare av anch.AI.

Användandet av AI växer snabbt, redan idag utgör tekniken en fundamental del av de tekniska lösningar vi använder oss av dagligen. Trots detta tycks många investerare vara fast i ett tankesätt där etik inom AI-området ses som en onödig kostnad eller hinder i jakten på snabb tillväxt och lönsamhet. Verkligheten är en helt annan.

AI är självlärande, själv-skalande med låg transparens och förklarbarhet. Oftast sätts målvariabler som ökad vinst, klicks och engagemang utan inblick i vilka etiska avvägningar och beslut som algoritmen tar. Dessutom utvecklas AI lösningar oftast i en organisatorisk silo, utan ett integrerat affärsmässigt, tekniskt och legalt perspektiv. Exempelvis betyder ”Fairness”, rättvisa, olika saker för en programmerare jämfört med för en jurist. Detta öppnar dörren för kostsamma etiska fallgropar och legala överskridningar som kan skala upp bortom kontroll. Fall av diskriminering, integritetskränkningar, manipulering och social exkludering ökar, vilket är bakgrunden till att EU tagit tydlig ställning i frågan. 2024 träder ett nytt EU-regelverk för AI i kraft, där användarnas förtroende för tekniken ges en central roll. Framöver får företag och organisationer bära ett betydligt större ansvar för sina AI lösningar genom omfattande intern styrning och rapportering, till exempel genom rapporteringskrav på förklarbarhet och transparens. De som bryter mot de nya reglerna kommer att tvingas till kostsamma böter.

Men regelverket är inte en garanti för att uttömmande undvika affärskritiska etiska risker. Exempelvis omfattas kreditvärdering inom finanssektorn av regelverket. Detta innebär att om jag som kvinna fått avslag på en låneansökan i framtiden kommer att kunna vara säker på att beslutet inte var orsakad av partiskhet i den historiska data som algoritmen fattas sitt beslut på. Men, gällande chat-bottar kommer regelefterlevnadskraven vara lägre. Dessvärre har vi sett att chat-bottar utan styrning på ett antal minuter agerar rasistiskt… För att både uppfylla EU’s krav och säkerställa att ett företags etiska principer efterlevs, behövs tvärfunktionell kontroll och styrning av AI. Det är hög tid att agera nu.

I takt med att AI integreras osynligt i vår vardag, växer också de krav som finns hos användarna på transparenta och förklarbara system som de kan känna tillit för. När förvandlas en friktionsfri vardag till förlorad makt att ta viktiga beslut? När blir ett hem, en bil och en stad så smart att vår integritets kränks? Dessa frågor är affärskritiska. För det första behöver dessa avvägningar blir transparanta och förklarbara, och för de andra behöver de visualiseras och alieneras tvärfunktionellt.

Genom att riskbedöma och styra AI-lösningar med ett integrerat affärsmässigt, tekniskt och lagligt perspektiv kontrolleras för både etiska risker och potentiella lagbrott i ett tidigt skede. På så sätt säkerställs att framtida kostsamma etiska fallgropar för både produkter och varumärken kan undvikas. Men det handlar inte bara om att undvika finansiella problem, utan även om att vinna användarnas förtroende.

Styrning och kontroll av AI risker är inte en extra kostnad eller en negativ inverkan på vinst, tvärtom skapar det långsiktigt hållbara affärsmodeller genom innovationer som vi som användare kan lita på.