Vita Huset har beslutat att genomföra en undersökning för att avgöra vilka mjukvaror med artificiell intelligens (AI) som behöver övervakas och regleras. Det rapporterat Wall Street Journal med hänvisning till källor. Detta kommer efter en ökande oro för att denna teknik kan användas på ett diskriminerande och skadligt sätt med hjälp av falsk information. För att ta itu med denna fråga har handelsdepartementet nu startat en officiell remissrunda för att undersöka hur man kan hantera dessa potentiella risker.

En av frågorna Vita huset kommer ta upp är hur eventuella skadliga AI-modeller ska genomgå en certifieringsprocess innan de lanseras, skriver Wall Street journal.

Efter att OpenAI offentliggjorde sin chatbot, ChatGPT under fjolåret, har uppmärksamheten kring AI-mjukvaror ökat dramatiskt. ChatGPT har visat sig vara mycket populär och har nått 100 miljoner användare snabbare än någon annan konsumentapp tidigare. Som ett resultat av detta har behovet av att reglera och övervaka AI-mjukvaror blivit allt viktigare för att säkerställa att tekniken används på ett etiskt sätt och inte skadar någon.

Tidigare i år intervjuade ABC News vd:n för OpenAI, Sam Altman. Under intervjun uppgav  han att han var “lite rädd” för teknologin som stod bakom bolagets egna chatbot, ChatGPT. Vidare sade Sam att han är orolig för möjlig desinformation och auktoritär kontroll av AI-teknologi, även om teknologin kommer att förändra ekonomin, arbetskraften och utbildningen.