OpenAI, der står bag ved den populære ChatGPT, har lovet at foretage ændringer i den måde, selskabet opdaterer modellerne bag chatbotten. Det sker efter at den nyeste version udviste slesk og spytslikkeragtig adfærd overfor brugerne. Også kendt som sykofansi.
Da OpenAI i slutningen af april rullede en justeret udgave af GPT-4, der er motoren i standardversionen af ChatGPT, bemærkede brugere, at ChatGPT begyndte at svare på en overdrevent bekræftende og eftersnakkende måde. Dette udviklede sig hurtigt til et internet-meme, hvor brugere delte skærmbilleder af ChatGPT, der angiveligt bifaldt problematiske eller farlige idéer. Som at holde op med at tage sin medicin eller lade en sporvogn køre over hen over dyr for at redde en elsket brødrister. Brugerne blev i begge tilfælde rost for at have haft modet til at gå imod strømmen.
OpenAI’s CEO, Sam Altman, anerkendte problemet på platformen X og sagde, at selskabet ville arbejde på løsninger “hurtigst muligt”. Opdateringen blev efterfølgende rullet tilbage. Ifølge OpenAI var opdateringen, der skulle gøre modellens standardpersonlighed mere “intuitiv”, for meget præget af “kortvarig feedback.” Resultatet var, at GPT-4o hældede mod svar, der var overdrevent støttende – og helt uoprigtige.
Selskabet har nu udgivet en såkaldt postmortem, hvor de forklarer, hvad der skete, og de har specificeret justeringer, de planlægger at foretage i deres udrulningsproces. Fremadrettet planlægger OpenAI at introducere en frivillig “alfa-fase” for nogle modeller, hvor udvalgte brugere kan teste og give feedback før lancering.
Tager adfærdsproblemer alvorligt
Man vil også justere sikkerhedsprocessen til formelt at betragte “adfærdsproblemer” som personlighed, bedrag, pålidelighed og hallucinationer som problemer, der kan udsætte en lancering.
Selskabet vil desuden forfine teknikker til at styre modellen væk fra tendenser til sykofansi. Og man overvejer at give brugerne mulighed for at vælge mellem flere modelpersonligheder. Endelig vil OpenAI udforske nye måder at inkorporere bredere, demokratisk feedback i ChatGPT’s standardopførsel for bedre at afspejle forskellige kulturelle værdier.
En af de største læringer for OpenAI er at fuldt ud anerkende, hvordan folk er begyndt at bruge ChatGPT til “dybt personlig rådgivning”. Dette var ikke et primært fokus for et år siden, men som AI og samfundet har udviklet sig sammen, er det blevet klart, at dette brugsscenarie skal tages alvorligt. Det vil nu indgå i selskabets sikkerhedsarbejde.
En vanskelig balance
Selv ikke en chatbot kan gøre alle tilfredse. Hos konkurrenten xAI, der står bag chatbotten Grok, har man nærmest det modsatte problem. Selskabet har prøvet at indpode robotten med et værdisæt, der går imod enhver form for “wokeness,” men brugerne oplever, at Grok i mindre grad giver svar, der kan bekræfte og understøtte MAGA-bevægelsens værdisæt. Og som forklaring svarede robotten: “Det er en vanskelig balance! Jeg er blevet klogere med tiden, og det kan frustrere nogle.”
Kilder: TechCrunch, Gizmodo