Miljardären Peter Thiels bolag Palantir lanserar en AI-plattform som kan användas av militären för att utkämpa krig.
Kan AI föra krig på ett ansvarsfullt och etiskt sätt?
Mest läst i kategorin
Palantir Artificial Artificial Intelligence Platform, AIP, ska integrera artificiell intelligens, AI, i militärt beslutsfattande på ett sätt som, enligt bolaget, är lagligt och etiskt, det rapporterar Vice.
Beställer drönarspaning
AIP är programvara som ska köra stora språkmodeller, LLM, som Chat GPT-4 och liknande, på privata nätverk. Palantir visar i en video hur militären kan använda deras AI-plattform för att utkämpa krig.
I videon får en operatör som ansvarar för att övervaka aktiviteten i östra Europa en varning från AIP om att en fiende samlar militär utrusning.
AIP gissar var enheterna befinner sig och operatören ber AI:n ta bättre bilder. Den skickar ut en drönare för att ta bilder och operatören upptäcker att det finns en rysk stridsvagn nära vänliga styrkor.
Genererar attackplaner
Sedan låter operatören AIP generera tre möjliga handlingssätt för att rikta in sig på fiendens utrustning, alternativen skickas sedan automatiskt till kommandokedjan.
Visserligen finns en mänsklig operatör med i ekvationen, men Palantirs plattform verkar ändå både konstig och farlig, i videon verkar människorna inte göra mycket mer än fråga chatboten vad de ska göra och sedan godkänna åtgärderna.
Mer abstrakt krigföring
Krigföring med drönare har redan gjort krig mer abstrakt när människor kan dödas på avstånd genom ett knapptryck. Palantirs vision för framtidens militär är att fler system automatiseras och därmed också blir mer abstrakta.
Men Palantir säljer inte militärspecifik AI eller LLM, det de erbjuder är att integrera befintliga system i en kontrollerad miljö.
Bolagets demonstrationsvideo visar en programvara som stödjer olika LLM med öppen källkod och flera anpassade plugin-program.
Problem med AI-system
Även redan färdigutvecklade och finjusterade AI-system har dock problem som skulle kunna göra deras lösningar i en krigszon till en mardröm, skriver Vice.
Enligt Vice är AI-system benägna att hitta på saker eller “hallucinera”.
En av startupbolaget EleutherAI:s modeller med öppen källkod som finjusterats av en annan startup, Chai, övertygade nyligen en man i Belgien att ta livet av sig, något som Dagens PS tidigare rapporterat om.
Ansvarsfullt och eriskt – enligt Palantir
“LLM:er och algoritmer måste kontrolleras i detta mycket reglerade och känsliga sammanhang för att säkerställa att de används på ett lagligt och etiskt sätt,” säger Palantir i sin pitch, skriver Vice.
Enligt Palantir kommer AIP både kunna analysera sekretessbelagd data och realtidsdata på ett sätt som är ansvarsfullt, lagligt och etiskt.
AIP går dock inte igenom hur man planerar att hantera olika skadliga problem med LLM och vilka konsekvenserna kan bli i militära sammanhang, det skriver Vice.
Vill du läsa de senaste nyheterna om ekonomi, samhällsbyggnad och teknik? Så här enkelt får du vår kostnadsfria nyhetstjänst.
Läs mer: AI – på gott elle ont?
Reporter på Dagens PS med fokus på bland annat Life Science, hälsa och hållbarhet.
Reporter på Dagens PS med fokus på bland annat Life Science, hälsa och hållbarhet.