Det är inte lätt att göra rätt. Medan AI kan vara bra till mycket, har den fortfarande en del att lära när det kommer till rådgivning. Det har Google fått lära sig den hårda vägen.
Lim på pizzan och giftsugning? Nu ger Google farliga råd
Mest läst i kategorin
Generativ AI har en lång historia av hallucinationer.
Men trots att dessa börjar bli allt färre i takt med att tekniken utvecklas, har den fortfarande en tendens att skruva till vissa saker till det yttersta.
Ett smaklöst råd
Google har i dagarna börjat introducera AI-genererade svar i sin söktjänst.
Resultatet?
Ett sociala medier fyllt till bredden med exempel på roliga, konstiga eller rent av farliga svar.
Ett relativt nytt exempel på detta skriver Fortune om.
En användare frågade Googles AI vad man kan göra för att osten på pizzan inte ska glida av.
“Blanda ungefär 1/8 kopp lim i såsen”, svarade Google självsäkert.
Historielektion med en twist
Ett annat exempel på AI:ns misstag är när den listade flera döda presidenter som utexaminerade från University of Wisconsin-Madison – långt efter deras död.
Andrew Jackson dog 1845. Examen tog han dock 2005, 160 år efter hans död.
William Harrison i sin tur, som dog 1841, tog examen både 1953 och 1974.
Farliga råd om huggormsbett
Googles AI har också gett farliga råd om hur man ska hantera ett huggormsbett.
Bland annat kunde man applicera is eller värme på såret, använda en åtsnörning eller till och med försöka suga ut giftet – vilka alla är strålande exempel på vad man inte ska göra i en sådan situation.
Internet har inte varit nådig i sin kritik mot Googles AI, och sociala medier svämmar nu över av AI:ns misstag.
Läs också:
Kaosvecka på OpenAI – skandal efter skandal. Dagens PS
EU sätter käppar i hjulet för AI-övervakning. Dagens PS
Bevakar i huvudsak privatekonomi och företagande.
Bevakar i huvudsak privatekonomi och företagande.