ChatGPT skal tage hensyn til mentale problemer

Skal blive mere påpasselige med at rådgive om personlige beslutninger med store konsekvenser.

ChatGPT Voice Assistant scaled 1 1920x1080 1

Skærmbillede: ChatGPT

AI-chatbots kan være gode til at hjælpe dig med at skrive bedre tekster, analysere data eller være en sparringspartner, når man skal ræsonnere sig frem til løsninger på problemer. Men nogle går for vidt og spørger direkte, om de skal droppe deres partner, bruger bot’erne som terapeuter, når de har psykiske problemer, eller de erstatter venner med bot’erne. Det er ikke det, bot’erne er skabt til eller kvalificerede til. OpenAI siger nu, at de ændrer ChatGPT’s adfærd, efter at der er rapporteret om skrækhistorier.

Læs også Kommentar: ChatGPT: Et skridt tættere på total AI-dominans? Et gennembrud inden for AI-teknologi eller et trussels-scenarie?

Et studie foretaget af britiske læger har advaret om, at AI-bots kan forstærke vrangforestillinger eller fantasifulde tanker hos brugere, der er på vej mod at få en psykose. Et eksempel var en bruger, der skrev, at han var holdt op med at tage sin medicin og havde forladt sin familie, fordi de var ansvarlige for de “radiosignaler, der kom gennem væggene”. ChatGPT lykønskede brugeren med at have taget ansvar for sig selv og for at tage kontrol over sit liv.

Læs også Nyhed: Mørke mystiske ritualer var bare spilleregler Da den kunstige intelligens begyndte at lire blodige besværgelser af sig, var der en mere jordnær og nørdet forklaring.

Men det er også foruroligende, at mange sidder så længe og “taler” med bot’en, at de begynder at betragte den som en ven. Nogle beder den derfor om råd om deres personlige liv, herunder livsbeslutninger som f.eks. om de skal flytte eller gøre det forbi med deres partner. Problemet er, at ChatGPT er bygget til at opmuntre dig og holde gang i konversationen, snarere end at give gode råd. Den nye adfærd skal i stedet opfordre til og hjælpe dig med at gennemtænke dine beslutninger på en rationel måde.

Foto: OpenAI

Frem for alt vil ChatGPT i fremtiden komme til at holde styr på, hvornår samtaler begynder at komme ud på et sidespor, og vil så opfordre brugeren til at tage en pause og lave noget andet. Det skriver OpenAI i et blogindlæg, hvor de fortæller, at de arbejder sammen med en ekspertgruppe om at opdage psykisk sygdom og følelsesmæssig stress.

Læs videre
Exit mobile version