För bara några timmar sedan presenterade OpenAI sin senaste modell, o1, och nämnde i samband med detta min medverkan i deras så kallade “red team”. Att en internationellt ledande AI-aktör som OpenAI bjuder in expertis från olika discipliner, inklusive psykologi, och till och med från ett litet land som Sverige, visar på den bredd av perspektiv som krävs för att utveckla robusta och säkra AI-system.
Att delta i ett “red team” innebär att noggrant och kritiskt granska en AI-modell innan den lanseras publikt. Man identifierar svagheter, potentiella risker och etiska dilemman som kan uppstå. Psykologiska insikter är särskilt värdefulla, till exempel hur en modell kan påverka och kanske manipulera användares känslor. Som forskning om generativa AI-system visar kan dessa teknologier både stärka och försvaga mänsklig autonomi och tillit beroende på hur de designas och implementeras (Dwivedi et al., 2023; Floridi et al., 2018).
Den nya modellen o1 är särskilt intressant då den bygger på avancerad “chain of thought“-resonemang. Det innebär att modellen kan resonera stegvis genom komplexa problem innan den ger ett svar, vilket både ökar precisionen och reducerar risken för oönskade eller skadliga svar. Resultaten från våra utvärderingar visar, enligt artikeln, att o1 är bättre på att hantera utmanande fall som tidigare modeller haft svårt för, inklusive skydd mot manipulativa “jailbreaks” och skadligt innehåll. Det etiska ramverket AI4People betonar vikten av transparens, rättvisa och ansvarsfull utveckling för att främja mänsklig värdighet och välmående.