AI-chatbots kan være gode til at hjælpe dig med at skrive bedre tekster, analysere data eller være en sparringspartner, når man skal ræsonnere sig frem til løsninger på problemer. Men nogle går for vidt og spørger direkte, om de skal droppe deres partner, bruger bot’erne som terapeuter, når de har psykiske problemer, eller de erstatter venner med bot’erne. Det er ikke det, bot’erne er skabt til eller kvalificerede til. OpenAI siger nu, at de ændrer ChatGPT’s adfærd, efter at der er rapporteret om skrækhistorier.
Et studie foretaget af britiske læger har advaret om, at AI-bots kan forstærke vrangforestillinger eller fantasifulde tanker hos brugere, der er på vej mod at få en psykose. Et eksempel var en bruger, der skrev, at han var holdt op med at tage sin medicin og havde forladt sin familie, fordi de var ansvarlige for de “radiosignaler, der kom gennem væggene”. ChatGPT lykønskede brugeren med at have taget ansvar for sig selv og for at tage kontrol over sit liv.
Men det er også foruroligende, at mange sidder så længe og “taler” med bot’en, at de begynder at betragte den som en ven. Nogle beder den derfor om råd om deres personlige liv, herunder livsbeslutninger som f.eks. om de skal flytte eller gøre det forbi med deres partner. Problemet er, at ChatGPT er bygget til at opmuntre dig og holde gang i konversationen, snarere end at give gode råd. Den nye adfærd skal i stedet opfordre til og hjælpe dig med at gennemtænke dine beslutninger på en rationel måde.
Frem for alt vil ChatGPT i fremtiden komme til at holde styr på, hvornår samtaler begynder at komme ud på et sidespor, og vil så opfordre brugeren til at tage en pause og lave noget andet. Det skriver OpenAI i et blogindlæg, hvor de fortæller, at de arbejder sammen med en ekspertgruppe om at opdage psykisk sygdom og følelsesmæssig stress.
