OpenAI, företaget bakom Chat GPT, har ingått ett avtal med det amerikanska försvarsdepartementet. Många varnar nu för att avtalet kan innebära att AI-tekniken kan komma att användas för massövervakning och autonoma vapensystem. Studenten Kalle Sandström uppmanar Lunds universitet att ställa sig frågan om det är rimligt att universitetet betalar miljoner till ett sådant företag.
Lunds universitet framhåller att man som kunskapsinstitution har ett ”särskilt ansvar att leda och främja en etisk, ansvarsfull och framåtblickande användning av generativ AI”. Men när universitetet skriver avtal med OpenAI väcks frågan hur etiska, ansvarsfulla och framåtblickande de faktiskt är.
Bojkotten #QuitGPT växer nu hastigt som svar på techjätten OpenAI:s totala brist på etik och moral. Kritiken grundar sig i ledningens donationer till Trump och det åsidosatta säkerhetsarbetet. Den tidigare ideella organisationen har förvandlats till ett kommersiellt maskineri. Nyligen skrev OpenAI på ett avtal med USA:s Department of War, trots att konkurrenten Anthropic bara timmar tidigare svartlistades för att ha vägrat ingå ett liknande avtal. Anthropic krävde garantier om att deras teknologi inte skulle få användas för massövervakning eller i helt autonoma, AI-styrda vapensystem. Försvarsminister Pete Hegseth vägrade – avtalet skulle tillåta användning för ”alla lagliga syften”. Anthropic sa principfast nej. OpenAI såg sin chans – och tog den. Om LU:s avtal med företaget var moraliskt tvivelaktigt redan i november, är det idag oförsvarbart.
Det är lätt att bli avtrubbad inför språkmodellerna. Som pluggkompis frågar folk “chatten” av ren vana. Men när tekniken blir en allt större del av vardagen måste också medvetenheten om den öka. Ingen modell är oproblematisk, men det finns grader i helvetet. Mer etiskt transparenta alternativ, som Anthropics Claude eller europeiska Mistral, är betydligt bättre. Men i en techvärld med komplexa ägarstrukturer blir det svårt att hålla koll på vem som finansierar vad. Kan man verkligen begära att studenten, fast i tentaplugg och karnevalsstök, ska hålla koll på vem som ger pengar till vem? Kanske inte.
Det är pengar som finansierar ett företag som nu kan komma att involveras i utvecklingen av så kallade killer robots.
Men vad är universitets ursäkt? Jag begärde ut avtalet mellan LU och OpenAI för en djupare inblick. Ett års användning av ChatGPT kostar universitetet närmare 5,3 miljoner kronor. Det är pengar som finansierar ett företag som nu kan komma att involveras i utvecklingen av så kallade killer robots. Enligt beslutsunderlaget motiveras inköpet av den säkra datahanteringen då ChatGPT skapar förutsättningar för en trygg och effektiv AI-användning.
Ja, dataintegritet och avtal som garanterar att modellerna inte tränas på LU:s egna data är extremt viktigt. Det finns däremot inget i underlaget som behandlar etiska, politiska eller klimatrelaterade frågor. Det vore värdefullt att veta hur universitetet faktiskt har resonerat kring dessa aspekter då varningssignalerna var välkända vid inköpet av tjänsten den 27 november 2025. LU:s avtal sträcker sig förvisso endast ett år framåt, men vem vågar förutspå hur det geopolitiska läget ser ut 2027? Avtalet blottlägger en farlig naivitet.
För universitetet blir frågor kring generativ AI naturligt centrerade kring utbildning och inlärning. Men institutionen vilar på en värdegrund som bör göra moraliska frågor lika självklara. När vi lägger alla äggen i AI-korgen måste vi veta vems framtidsvisioner vi faktiskt satsar på. Jag får intrycket av en nästan orkeslös och obrydd inställning inför utvecklingen. Frågan är om vi har något att säga till om i saken? Avtal med OpenAI tyder på att LU inte tror det.
Om universitetet faktiskt ska ligga i framkant, främja etik och ansvarstagande, så krävs ett modigare val än att bara följa strömmen. Som student är det enkelt: sluta använda ChatGPT och radera appen. LU kan börja med att se över sin AI-policy – för när tjänsterna väl köps in och tekniken implementeras, blir det allt tydligare att värderingarna offras.
Kalle Sandström, Student vid Lunds Universitet