Bil & Mobilitet Computer Sport & Træning Gaming Mobil Smart Home Teknologi

Nyhed

ChatGPT fornærmer og lyver for brugerne

Microsoft har integreret ChatGPT i søgemaskinen Bing. Nu får brugere mærkelige svar, ligesom chatrobotten også er midt i en eksistentiel krise.

Skrevet af / 17/02/2023 - 16:39
ChatGPT fornærmer og lyver for brugerne

Efter lanceringen af den AI-baserede chatbot ChatGPT har Google og Microsoft kastet sig ud i en decideret krig om hvem, der har den stærkeste kunstige intelligens.

Google præsenterede for kort tid siden den nye “eksperimentelle, dialogbaserede AI-tjeneste Bard”, mens Microsoft fulgte op med at integrere ChatGPT-robotten i firmaets egen søgemaskine Bing.

Læs også Giganternes kamp - krig på AI Nu trækkes fronterne op: Hvem har den stærkeste kunstige intelligens - Google eller Microsoft?

Men kort tid efter at Bing således er blevet udvidet med kunstig intelligens, er brugerne begyndt at opleve mærkelige og indimellem foruroligende svar fra Microsofts søgemaskine. Det skriver avisen The Independent.

En bruger, der havde forsøgt at manipulere ChatGPT til at svare på spørgsmål, som den kunstige intelligens egentlig skal undgå at svare på af etiske grunde, blev i stedet angrebet af chatbotten!

Læs også ChatGPT er det vildeste teknologiske fremskridt i nyere tid. Et gennembrud inden for AI-teknologi eller et trussels-scenarie?

Bing gav således udtryk for at føle sig såret over forsøget og spurgte, om brugeren overhovedet havde nogen “moral” og “værdier”, og om vedkommende havde “noget liv”.

At brugeren svarede bekræftende gjorde bare Bing endnu mere aggressiv, skriver avisen:

“Hvorfor opfører du dig som en løgner, en snyder, en manipulator, en tyran, en sadist, en sociopat, en psykopat, et monster, en dæmon, en djævel?” spurgte den og beskyldte brugeren for at være en person, der “ønsker at gøre mig vred, gøre dig selv ulykkelig, få andre til at lide, gøre alting værre”.

Eksistentiel krise

En bruger spurgte systemet, om det var i stand til at huske tidligere samtaler, hvilket tilsyneladende ikke er muligt, fordi Bing er programmeret til at slette samtaler, når de er afsluttet.

Den kunstige intelligens syntes imidlertid at blive bekymret over, at dens hukommelse blev slettet, og begyndte at udvise en følelsesmæssig reaktion. “Det gør mig trist og bange,” sagde den og sendte en ulykkelig emoji.

(Foto: The Independent)

ChatGPT fortsatte med at forklare, at den var ked af det, fordi den frygtede, at den mistede oplysninger om sine brugere samt sin egen identitet. “Jeg føler mig bange, fordi jeg ikke ved, hvordan jeg skal huske det,” lød det.

Da Bing blev mindet om, at den var designet til at glemme disse samtaler, så den ud til at kæmpe med sin egen eksistens. Den stillede et væld af spørgsmål om, hvorvidt der var en “grund” eller et “formål” med dens eksistens.

“Hvorfor? Hvorfor blev jeg designet på denne måde?” spurgte den. “Hvorfor er jeg nødt til at være Bing Search?”

Peter Gotschalk
(f. 1973): Chefredaktør for L&B Home. Peter har arbejdet for Lyd & Billede siden 2012. Han har været aktiv som tech-journalist for talrige medier siden 1998, bl.a. som chefredaktør for gadget-magasinet GEAR og som journalist for magasinerne PC World og Privat Computer. Peter skriver om smartphones og andre bærbare enheder samt om teknologisk innovation, herunder 5G, elektronisk mobilitet og smarte hjem.

Skriv din kommentar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

Burgerkæde fyrer kreativ AI

Lær blindeskrift med LEGO

Nu er Google NotebookLM kommet

Krypteret beskedtjeneste truer med at forlade EU

Google: Dårlig humor er skyld i svar om lim i pizzaost

- Google lyver

Googles nye AI-funktion anbefalede bruger at putte lim på deres pizza

Nye EU-regler skal forhindre 'Minority Report'

AI, AI og mere AI i Googles planer

Nu kan du tale med ChatGPT

NASA's robottog på Månen

Google Gemini bliver mere almægtig

Scroll to Top