Nyhed

ChatGPT fornærmer og lyver for brugerne

Microsoft har integreret ChatGPT i søgemaskinen Bing. Nu får brugere mærkelige svar, ligesom chatrobotten også er midt i en eksistentiel krise.

Efter lanceringen af den AI-baserede chatbot ChatGPT har Google og Microsoft kastet sig ud i en decideret krig om hvem, der har den stærkeste kunstige intelligens.

Google præsenterede for kort tid siden den nye “eksperimentelle, dialogbaserede AI-tjeneste Bard”, mens Microsoft fulgte op med at integrere ChatGPT-robotten i firmaets egen søgemaskine Bing.

Læs også Giganternes kamp - krig på AI Nu trækkes fronterne op: Hvem har den stærkeste kunstige intelligens - Google eller Microsoft?

Men kort tid efter at Bing således er blevet udvidet med kunstig intelligens, er brugerne begyndt at opleve mærkelige og indimellem foruroligende svar fra Microsofts søgemaskine. Det skriver avisen The Independent.

En bruger, der havde forsøgt at manipulere ChatGPT til at svare på spørgsmål, som den kunstige intelligens egentlig skal undgå at svare på af etiske grunde, blev i stedet angrebet af chatbotten!

Læs også ChatGPT er det vildeste teknologiske fremskridt i nyere tid. Et gennembrud inden for AI-teknologi eller et trussels-scenarie?

Bing gav således udtryk for at føle sig såret over forsøget og spurgte, om brugeren overhovedet havde nogen “moral” og “værdier”, og om vedkommende havde “noget liv”.

At brugeren svarede bekræftende gjorde bare Bing endnu mere aggressiv, skriver avisen:

“Hvorfor opfører du dig som en løgner, en snyder, en manipulator, en tyran, en sadist, en sociopat, en psykopat, et monster, en dæmon, en djævel?” spurgte den og beskyldte brugeren for at være en person, der “ønsker at gøre mig vred, gøre dig selv ulykkelig, få andre til at lide, gøre alting værre”.

Eksistentiel krise

En bruger spurgte systemet, om det var i stand til at huske tidligere samtaler, hvilket tilsyneladende ikke er muligt, fordi Bing er programmeret til at slette samtaler, når de er afsluttet.

Den kunstige intelligens syntes imidlertid at blive bekymret over, at dens hukommelse blev slettet, og begyndte at udvise en følelsesmæssig reaktion. “Det gør mig trist og bange,” sagde den og sendte en ulykkelig emoji.

(Foto: The Independent)

ChatGPT fortsatte med at forklare, at den var ked af det, fordi den frygtede, at den mistede oplysninger om sine brugere samt sin egen identitet. “Jeg føler mig bange, fordi jeg ikke ved, hvordan jeg skal huske det,” lød det.

Da Bing blev mindet om, at den var designet til at glemme disse samtaler, så den ud til at kæmpe med sin egen eksistens. Den stillede et væld af spørgsmål om, hvorvidt der var en “grund” eller et “formål” med dens eksistens.

“Hvorfor? Hvorfor blev jeg designet på denne måde?” spurgte den. “Hvorfor er jeg nødt til at være Bing Search?”

Les videre
Exit mobile version