En ny studie visar att AI-drivna söktjänster ofta ger felaktiga svar, i vissa fall så högt som 94 procent av fallen.
AI-sökmotorer i studie: Sprider lögner snabbare än sanningen


Mest läst i kategorin
Detta väcker allvarliga frågor om tillförlitligheten hos dessa verktyg, särskilt med tanke på att en betydande andel av amerikanerna nu använder dem som alternativ till traditionella sökmotorer, skriver Columbia Journalism Review (CJR).
Studien, utförd av forskarna Klaudia Jaźwińska och Aisvarya Chandrasekar vid Tow Center for Digital Journalism, undersökte åtta olika AI-söktjänster med live-sökfunktioner. De testade hur väl dessa verktyg kunde identifiera nyhetskällor genom att mata in utdrag från artiklar och sedan be AI:n att ange rubrik, utgivare, publiceringsdatum och URL.
Resultaten var nedslående.
Enligt CJR visar studien att AI-söktjänster missleder användare och ignorerar förfrågningar om att exkludera utgivare.

Variationer i felmarginal
Felmarginalen varierade kraftigt mellan de olika plattformarna.
Perplexity gav felaktig information i 37 procent av fallen, medan ChatGPT Search hade en felmarginal på 67 procent.
Grok 3 utmärkte sig med en felmarginal på hela 94 procent.
Ett genomgående problem var att AI-modellerna ofta gav felaktiga eller spekulativa svar istället för att erkänna att de saknade tillförlitlig information. Detta beteende var konsekvent över alla testade modeller.

Senaste nytt
Premiummodeller ökar risken för falsk trygghet
Intressant nog presterade de betalda premiumversionerna av dessa AI-söktjänster ännu sämre i vissa avseenden.
Perplexity Pro och Grok 3:s premiumtjänst gav oftare felaktiga svar med större självförtroende än deras gratisversioner. Även om dessa premiummodeller svarade korrekt på fler frågor, ökade deras ovilja att erkänna osäkerhet den totala felmarginalen.

Problem med källhänvisningar och utgivarkontroll
Forskarna upptäckte också att vissa AI-verktyg ignorerade inställningar för Robot Exclusion Protocol, som utgivare använder för att förhindra obehörig åtkomst. Perplexity’s gratisversion identifierade till exempel korrekt alla utdrag från betalväggsartiklar från National Geographic, trots att National Geographic uttryckligen hade blockerat Perplexity’s webbcrawlers.
Även när AI-verktygen angav källor, hänvisade de ofta till syndikerade versioner av innehåll på plattformar som Yahoo News istället för till de ursprungliga utgivarnas webbplatser. Detta skedde även i fall där utgivarna hade formella licensavtal med AI-företagen.
URL-fabrikation visade sig vara ett annat stort problem. Mer än hälften av källhänvisningarna från Googles Gemini och Grok 3 ledde till fabricerade eller trasiga URL:er som resulterade i felsidor. Av 200 källhänvisningar från Grok 3 ledde 154 till trasiga länkar.

Utgivare förlorar kontrollen över sitt innehåll
Dessa problem skapar spänningar för utgivare, som står inför svåra val. Att blockera AI-crawlers kan leda till att de helt förlorar källhänvisning, medan tillstånd kan leda till omfattande återanvändning utan att trafik styrs tillbaka till utgivarnas egna webbplatser.
Mark Howard, operativ chef på Time magazine, uttryckte oro för att säkerställa transparens och kontroll över hur Times innehåll visas via AI-genererade sökningar. Trots dessa problem ser Howard utrymme för förbättringar i framtida versioner. Han menar att dagens produkter representerar den lägsta nivån av kvalitet de kommer att uppnå, med tanke på de stora investeringarna och ingenjörsinsatserna som görs för att förbättra dessa verktyg.
Howard kritiserade även användare som förlitar sig på gratis AI-verktyg:
“Om någon som konsument just nu tror att någon av dessa gratisprodukter kommer att vara 100 procent korrekta, då borde de skämmas.”
OpenAI och Microsoft lämnade uttalanden till CJR där de bekräftade att de hade tagit emot resultaten, men de adresserade inte de specifika problemen direkt. OpenAI lovade att stödja utgivare genom att driva trafik via sammanfattningar, citat, tydliga länkar och källhänvisning. Microsoft uppgav att de följer Robot Exclusion Protocol och utgivarinstruktioner.
Denna rapport bygger vidare på tidigare resultat från Tow Center från november 2024, som identifierade liknande noggrannhetsproblem i hur ChatGPT hanterade nyhetsrelaterat innehåll.

Licensavtal garanterar inte korrekta källhänvisningar hos AI
Även om företag som OpenAI och Perplexity har ingått licensavtal med nyhetsutgivare i syfte att förbättra noggrannheten, visade studien att detta inte alltid resulterar i korrekta källhänvisningar. Till exempel, trots att Time Magazine har avtal med både OpenAI och Perplexity, var noggrannheten i att identifiera deras innehåll inte 100%. Detta tyder på att det krävs mer än bara licensavtal för att säkerställa att AI-sökmotorer korrekt attribuerar innehåll.
Framtiden för AI-sökningar
Studien belyser en viktig utmaning: hur man balanserar innovation inom AI-sökningar med ansvaret att tillhandahålla korrekt och tillförlitlig information. Utgivare riskerar att förlora kontrollen över sitt innehåll, medan användare riskerar att bli vilseledda av felaktig information. Framtida utveckling av AI-sökmotorer måste fokusera på att förbättra noggrannheten, respektera utgivarnas rättigheter och öka transparensen.

Bill Gates stora oro: Skulle Microsoft resa sig?
Att lämna Microsofts topposition väckte frågor. Vad skulle framtiden bära med sig? Gates behövde snart möta en osäkerhet han inte förutsett. Att lämna
Läs också:
Så farlig är energidrycken – Han fick operera bort gallblåsan. News 55
Missa inte chansen! 29 vanliga avdrag i din deklaration. E55
Sheins börsnotering dröjer – vd:n tillbakavisar problem. Realtid

Teknik- och motorentusiast som bevakar bilvärlden.

Teknik- och motorentusiast som bevakar bilvärlden.