Det ledande AI-företaget SAS Institute lanserar nya produkter och tjänster för tillförlitlig AI. Lösningarna möjliggör förbättrad regelefterlevnad för AI, vilket kan öka tilliten och underlätta insynen i AI-modeller. Modellkort och rådgivningstjänster gör det enklare att navigera i det omvälvande AI-landskapet, hantera risker och uppnå mål med AI. SAS Institute introducerar även arbetsflödet Trustworthy AI Life Cycle, som är kopplat till NIST-ramverket för riskhantering inom AI.
– Våra kunder är entusiastiska över de stora möjligheterna med AI, men många är osäkra på när och hur man bäst använder tekniken. De ställer kloka frågor om ansvarsfull och etisk användning av AI, och vårt mål är att ge dem de verktyg och den vägledning de behöver i sitt arbete. Det gör vi med stöd av decenniers erfarenhet av att använda AI på ett sätt som främjar lönsamhet och minimerar risken att någon eller något far illa, säger Josefin Rosén, specialist på tillförlitlig och etisk användning av AI på SAS Institute.
Modellkorten fungerar som innehållsdeklarationer för tillförlitlig AI
Det kan vara svårt att göra en komplex AI-modell begriplig för alla som är involverade i AI-processen. I takt med att nya regler och lagar utformas är det viktigt att förstå och kunna dela med myndigheter hur AI-modellerna fungerar. Modellkort, som är en kommande funktion i SAS Viya, underlättar detta genom hela AI-modellernas livscykler. Modellkorten ger en lättöverskådlig summering av modellen för alla från utvecklare till ledningsgrupper och andra intressenter.
Modellkorten, som släpps sommaren 2024, kan bäst beskrivas som innehållsdeklarationer för AI-modeller, där informationen hämtas direkt från SAS Institutes lösningar. Användarna slipper det tidskrävande arbetet med att samla in och sammanställa informationen. SAS Viya kan även hantera dessa och modellkorten kommer även att kunna skapas för dessa öppna källkodsmodeller. Till en början kommer funktionen att vara tillgänglig för modeller skapade med Python.
Modellkorten visar viktiga indikatorer för modellens noggrannhet, potentiella bias och modellavvikelser över tid. Korten innehåller också detaljer relaterade till AI-styrning, såsom information om när modellerna senast har ändrats och vem som är ansvarig för en modell, vilket underlättar interna utredningar. Vidare beskrivs tänkta användningsområden och begränsningar, inklusive användningsområden som ligger utanför det avsedda området. Tillgången till informationen på modellkorten kommer vara viktiga faktorer eftersom transparens och modellövervakning kommer att bli reglerade i och med EUs AI Act.
– SAS Institute arbetar på ett genomtänkt sätt för att hjälpa sina kunder att använda AI. Man fokuserar på praktisk tillämpning och de utmaningar som finns. Modellkort kommer att bli värdefulla verktyg för att hantera AI-projekt och främja transparens, säger Eric Gao, forskningschef på analysföretaget IDC.
Värdefull rådgivning
För att hjälpa kunder som alltmer funderar över hur AI kan användas på ett produktivt och säkert sätt, lanserar SAS Institute tjänsten AI Governance Advisory. Tjänsten är avsedd att hjälpa kunder att hantera och undvika AI-relaterade risker samt stötta dem i att utveckla ramverk för AI-styrning. Erfarenheter från pilotprojekt där tjänsten använts visar på följande fördelar:
- Förstärkt produktiviteten genom en tillförlitlig och transparent beslutsprocess.
- Förtroendet ökar tack vare förbättrad kontroll och ansvarstagande över dataanvändningen.
- Förmågan att rekrytera och behålla kompetent personal som kräver ett ansvarsfullt arbetssätt stärks.
- Konkurrensfördelar och ökad marknadsflexibilitet uppnås genom att underlätta anpassning till framtida regelefterlevnad.
- Varumärket stärks genom att belysa den potentiella påverkan av AI på samhälle och miljö.
Anpassning till standarder och regelverk
Förra året lanserade National Institute of Standards and Technology (NIST) i USA ramverket AI Risk Management Framework. Det har redan blivit ett värdefullt verktyg för organisationer att utveckla tillförlitliga AI-lösningar i avsaknad av specifika lagar. SAS Institute har utvecklat arbetsflödet Trustworthy AI Life Cycle för att förenkla efterlevnaden av NIST:s rekommendationer. Arbetsflödet specificerar förväntningar på olika roller, inklusive vilken dokumentation som behövs. Det beskriver även viktiga aspekter att beakta och hur automatisering kan förenkla processerna.
Med arbetsflödet får användarna steg-för-steg-stöd i utvecklingen av produktionsfärdiga AI-modeller, med tillhörande dokumentation på att man gjort en noggrann granskning och avvägande för att säkerställa att modellerna är rättvisa och att att modellerna inte orsakar skada. Arbetsflödet möjliggör även dokumentation av hur AI-lösningar påverkar människors liv. Det inkluderar möjligheter att säkerställa att data som används för att träna AI-modellerna är representativa för de populationer som påverkas av modellerna och att modellerna fungerar likvärdigt för olika grupper. Det finns även funktioner för att förhindra att modellernas effektivitet försämras över tid.