Har du en chatbot som inte vet när nya Avatar-filmen släpptes, hävdar att det var Billie Eilish och inte Rihanna i halvtid i Super Bowl och påstår att vattentemperaturen är betydligt högre än på riktigt har du problem. Fråga Microsoft som lever med det.
Stora problem för Microsofts Bing-chatbot
Mest läst i kategorin
Microsofts nya Bing-chatbot släpptes för en vecka sedan, med en stor fanfar och med påståenden från Microsoft om att den skulle förändra hur människor hittar information och bli mycket mer relevant och konversativ än tidigare sökmotorer, skriver New York Times.
Det gick sådär. Konversativ är möjligt användarna kan tycka, relevant är värre och problemet är väl att om den så här långt förändrar hur människor hittar information är det genom att de gör det någon annanstans.
Fel på Super Bowl
Problemet är att denna chatbot levererat såväl förbryllande som felaktiga svar.
Trots att miljarder tittare kunde se att det var Rihanna som uppträdde i halvtid på Super Bowl hävdade boten att det var Billie Eilish och den kunde heller inte lista ut när den nya Avatar-filmen släpptes förra året.
Intresset är ändå stort, enligt Microsoft som skriver att på två dagar begärde mer än en miljon människor åtkomst till nykomlingen.
”Efterfrågan är hög med flera miljoner nu på väntelistan,” skrev Yusuf Mehdi, en chef som övervakar produkten, på Twitter onsdag morgon.
Han tillade att användare i 169 länder testade produkten.
Flaggade för fel
Men redan i måndags flaggade Dmitri Brereton, en mjukvaruingenjör vid en start-up som heter Gem, en rad fel i presentationen som Mr. Mehdi använde förra veckan när han introducerade produkten, inklusive en felaktig sammanfattning av de ekonomiska resultaten för återförsäljaren Gap.
När chatboten förra veckan angav vattentemperaturen på en strand i Mexiko till 80,4 grader Fahrenheit men länkade till en källa som visade att temperaturen låg på 75, var det kanske inte allvarligt som sakfel men däremot för chatbotens trovärdighet.
Arg chatbot stör
Värre är kanske ett antal skärmdumpar och chattranskriptioner som postats på Reddit och Twitter, där användare visar hur Bings chatbot skäller ut användare och förklarar för en annan att den är ”respektlös och irriterande” understruket av ett rött, argt emoji-ansikte med mera.
Microsoft erkänner problemen och säger att de är en del i processen för att förbättra produkten.
“Enbart under den senaste veckan har tusentals användare interagerat med vår produkt och funnit betydande värde samtidigt som de delar sin feedback med oss, vilket gör att modellen kan lära sig och göra många förbättringar redan”, säger talespersonen Frank Shaw.
Läs även: AI: ChatGPT och Bing satsar på att spöa Google
Reporter på Dagens PS med gedigen bakgrund som bland annat bevakar privatekonomi.
Reporter på Dagens PS med gedigen bakgrund som bland annat bevakar privatekonomi.