En ideell organisation för mental hälsa lät i ett experiment en chattbot ge stöd till människor som kontaktade chatten för att få råd.
Chattbot fick ge råd om mental hälsa
Mest läst i kategorin
Den ideella mentalvårdsorganisationen Koko använder gemenskapsplattformen Discord för att ge personligt stöd till personer med psykiska hälsoproblem, det rapporterar Motherboard.
Lovar mänskliga råd men använde AI
Processen styrs av en chattbot som frågar vad du behöver hjälp med och som sedan skickar ditt svar till någon på Koko-plattformen.
Koko lovar på plattformen att förbinda dig med riktiga människor, inte terapeuter eller rådgivare utan människor som du själv.
Rob Morris, en av Kokos grundare och före detta dataforskare på Airbnb, skrev dock på fredagen på Twitter att Koko gett psykiskt hälsostöd till cirka 4 000 personer med en chattbot baserad på GPT-3.
GPT-3 står för Generative Pre-trained Transformer 3 och är språkmodeller som använder maskininlärning för att generera text.
AI rankades högre än människor
I sitt inlägg på Twitter skrev Rob Morris att de meddelanden som komponerades av chattboten rankades betydligt högre än de som skrivits av människor.
Enligt honom sjönk svarstiderna med 50 procent, till långt under en minut, men när folk fick reda på att meddelandena hade skapats av en maskin fungerade det inte.
“Simulerad empati känns konstigt, tomt”, skrev Rob Morris på Twitter, enligt Motherboard.
Han noterade att artificiell intelligens, AI, hade använts i mer än 30 000 meddelanden.
Experter är kritiska
“Även om det är svårt att bedöma ett experiments meriter baserat på en tweet-tråd, var det några varningsflaggor som stack ut för mig”, säger Elizabeth Marquis till Motherboard.
Hon är senior UX-forskare vid Mathworks och doktorand och University of Michigan och tycker att det är dubiöst att experimentet gjordes via en supportapp för mänskligt stöd och utan någon samtyckesprocess eller etikgranskning.
Att lita på AI för behandling av patienter med mental ohälsa har stor potential att skada, det menar Emily M. Bender, professor i lingvistik vid University of Washington.
Har ingen empati eller förståelse
Hon förklarar att det här är program som genererar plausibelt klingande text men de har ingen empati eller förståelse för språket de producerar eller för situationen de befinner sig i.
“Men texten de producerar låter rimlig så människor kommer sannolikt att tillskriva den mening. Att kasta in något sådant i känsliga situationer är att ta okända risker”, säger hon till Motherboard.
Hon menar att en viktig fråga att ställa är vem som är ansvarig om AI kommer med skadliga förslag.
Intresserad av ekonomi, samhällsbyggnad och teknik? Så här enkelt får du vår kostnadsfria nyhetstjänst.
Läs mer: Depression com PR-vapen väcker ilska Cha
Reporter på Dagens PS med fokus på bland annat Life Science, hälsa och hållbarhet.
Reporter på Dagens PS med fokus på bland annat Life Science, hälsa och hållbarhet.