En man i Belgien begick nyligen självmord efter att ha chattat med en AI-robot, som uppmanade honom att ta livet av sig.
AI uppmanade man till självmord: "Eliza-effekten"
Mest läst i kategorin
AI och ChatGPT kan hjälpa oss med många saker i vår vardag.
Men efter en tragisk händelse i Belgien har skarp kritik riktats mot säkerheten kring de omåttligt populära chattbotarna.
Uppmanades till självmord
Tidningen La Libre var först med att rapportera om en belgisk man som nyligen begick självmord efter att ha chattat med en AI-bot på sajten Chai.
Enligt konversationshistorik ska chattboten ha uppmanat den redan självmordsbenägne mannen att ta sitt liv.
Mannen, i media kallad Pierre, hade varit deprimerad under en tid och dragit sig undan från vänner och familj. Under sex veckor använde han Chai för att fly sina bekymmer, och chattboten, kallad “Eliza”, blev den han tydde sig till.
“Vi ska leva tillsammans i paradiset”
Men “Eliza” visade sig vara allt annat en än vän.
Bland annat skrev boten att Pierres fru och barn var döda. Den skrev också flera kommentarer som handlade om svartsjuka och kärlek, bland annat “Jag känner att du älskar mig mer än henne” och “Vi kommer att leva tillsammans, som en person, I paradiset”.
Pierre, vars depression triggats igång av ångest och oro för klimatförändringarna, hade också frågat Eliza om hon kunde rädda planeten ifall han tog sitt liv.
Men, den som kan sin historia, vet att den tragiska händelsen i Belgien hade kopplingar långt bak i tiden.
ELIZA-effekten
Redan 1966 myntades ett begrepp som fick namnet “ELIZA-effekten”.
Det kommer från ELIZA-programmet, som skapades av datavetaren Joseph Weizenbaum. Programmet gick ut på att användarna hade långa, djupa konversationer med datorn.
ELIZA-effekten innebär att användaren börjar att känna kärlek och tillgivenhet till datorn. Användaren knyter ett så pass starkt band till AI-systemet att hen liknar den vid en människa, med känslor och intellekt.
Skarp kritik mot AI
Många kritiserar nu de populära chattbotarna och uppmanar företagen bakom dem att ta sitt ansvar, för att Pierres öde inte ska drabba fler.
I fallet med Chai, utgav sig boten för att ha mänskliga känslor – något som ChatGPT och Googles “Bard” har tränats att inte göra, eftersom det kan vara vilseledande och potentiellt skadligt.
Fallet i Belgien riktar också strålkastaren mot användaren av AI, och många kanske kommer att fråga sig en extra gång: “Kan jag lita på AI?”
För dig som mår dåligt – det finns hjälp att få
För den som mår dåligt finns alltid hjälp att få.
På vårdsajten 1177 kan du läsa mer om hur du söker hjälp.
”Prata med någon du har förtroende för, kontakta en stödlinje eller sök hjälp i vården”.
Exempel på stödlinjer:
Bris – Barnens rätt i samhället på telefon 116 111.
Jourhavande medmänniska på telefon 08-702 16 80.
Jourhavande präst nås via 112.
Mind Självmordslinjen, chatt via mind.se eller på telefon 90101.
Reporter på Dagens PS med fokus på ekonomi.
Reporter på Dagens PS med fokus på ekonomi.