OpenAI forpligter sig til at gøre ChatGPT mindre slesk

En opdateret version af chatbotten viste sig at være uærlig og eftersnakkende. Nu har OpenAI rullet opdateringen tilbage - og lover bod og bedring.

A chromed robot with the likeness of grima wormto

(Illustration: Midjourney AI)

OpenAI, der står bag ved den populære ChatGPT, har lovet at foretage ændringer i den måde, selskabet opdaterer modellerne bag chatbotten. Det sker efter at den nyeste version udviste slesk og spytslikkeragtig adfærd overfor brugerne. Også kendt som sykofansi.

Da OpenAI i slutningen af april rullede en justeret udgave af GPT-4, der er motoren i standardversionen af ChatGPT, bemærkede brugere, at ChatGPT begyndte at svare på en overdrevent bekræftende og eftersnakkende måde. Dette udviklede sig hurtigt til et internet-meme, hvor brugere delte skærmbilleder af ChatGPT, der angiveligt bifaldt problematiske eller farlige idéer. Som at holde op med at tage sin medicin eller lade en sporvogn køre over hen over dyr for at redde en elsket brødrister. Brugerne blev i begge tilfælde rost for at have haft modet til at gå imod strømmen.

OpenAI’s CEO, Sam Altman, anerkendte problemet på platformen X og sagde, at selskabet ville arbejde på løsninger “hurtigst muligt”. Opdateringen blev efterfølgende rullet tilbage. Ifølge OpenAI var opdateringen, der skulle gøre modellens standardpersonlighed mere “intuitiv”, for meget præget af “kortvarig feedback.” Resultatet var, at GPT-4o hældede mod svar, der var overdrevent støttende – og helt uoprigtige.

Læs også Nyhed: Claude AI får websøgning: Sådan udfordrer den ChatGPT og Google Gemini Anthropics AI-assistent har endelig fået adgang til nettet! Claude kan nu endelig give opdateret information om aktuelle begivenheder og emner.

Selskabet har nu udgivet en såkaldt postmortem, hvor de forklarer, hvad der skete, og de har specificeret justeringer, de planlægger at foretage i deres udrulningsproces. Fremadrettet planlægger OpenAI at introducere en frivillig “alfa-fase” for nogle modeller, hvor udvalgte brugere kan teste og give feedback før lancering.

Tager adfærdsproblemer alvorligt

Man vil også justere sikkerhedsprocessen til formelt at betragte “adfærdsproblemer” som personlighed, bedrag, pålidelighed og hallucinationer som problemer, der kan udsætte en lancering.

Selskabet vil desuden forfine teknikker til at styre modellen væk fra tendenser til sykofansi. Og man overvejer at give brugerne mulighed for at vælge mellem flere modelpersonligheder. Endelig vil OpenAI udforske nye måder at inkorporere bredere, demokratisk feedback i ChatGPT’s standardopførsel for bedre at afspejle forskellige kulturelle værdier.

Læs også Nyhed: Googles sprogmodel kan nu lave podcasts på dansk Googles NotebookLLM kan tygge sig gennem stakke af rappporter og give dig svaret i tekst - eller en hyggelig podcast-samtale. På dansk.

En af de største læringer for OpenAI er at fuldt ud anerkende, hvordan folk er begyndt at bruge ChatGPT til “dybt personlig rådgivning”. Dette var ikke et primært fokus for et år siden, men som AI og samfundet har udviklet sig sammen, er det blevet klart, at dette brugsscenarie skal tages alvorligt. Det vil nu indgå i selskabets sikkerhedsarbejde.

En vanskelig balance

Selv ikke en chatbot kan gøre alle tilfredse. Hos konkurrenten xAI, der står bag chatbotten Grok, har man nærmest det modsatte problem. Selskabet har prøvet at indpode robotten med et værdisæt, der går imod enhver form for “wokeness,” men brugerne oplever, at Grok i mindre grad giver svar, der kan bekræfte og understøtte MAGA-bevægelsens værdisæt. Og som forklaring svarede robotten: “Det er en vanskelig balance! Jeg er blevet klogere med tiden, og det kan frustrere nogle.

Kilder: TechCrunch, Gizmodo

Læs videre
Exit mobile version