Pelle Snickars

Moderna tider 1936

Vad ser och hör samtida algoritmer för mönsterigenkänning när de appliceras på mediehistoriskt källmaterial? All historieskrivning kräver tolkningsarbete, men vilka algoritmiska uttolkningar av det förflutna åstadkommer mjukvara? MODERN-36 är ett empiriskt orienterat forskningsprojekt som studerar hur maskiner tolkar vardagliga modernitetssymboler i medialt arkivmaterial från 1936. Med utgångspunkt i fotografiska och audiovisuella samlingar analyserar projektet hur modernt Sverige egentligen var, samtidigt som det utforskar hur datadrivna metoder kan hjälpa oss förstå modernitetens historia på nya sätt. MODERN-36 undersöker därför hur artificiell intelligens och maskininlärningsmetoder kan främja ny kunskap om svensk modernitet, och samtidigt kritiskt granska olika algoritmiska verktygslådor för studiet av det förflutna. Projektet kommer att använda tre dataset från 1936: 15,000 digitaliserade fotografier från DigitaltMuseum, samtliga radioprogram från Radiotjänst, samt alla veckorevyer och kortfilmer av Svensk Filmindustri. Forskningen fokuserar på modernitet i relation till genus, urbanitet och industrialisering – och kommer att: (1.) utforska hur mjukvara kan hjälpa historiker att nå ny historisk kunskap, (2.) att konstruera mellanstora och kurerade dataset som ökar den vetenskapliga kapaciteten hos mediehistoriskt källmaterial, samt (3.) granska vad algoritmiska igenkänningstekniker och maskiner kan – och inte kan – identifiera i mediehistoriska dataset.
Slutredovisning
Om Charlie Chaplin en gång i filmen Moderna tider (1936) kämpade för att förstå en industrialiserad värld med gigantiska maskiner, har en gemensam nämnare i forskningsprojektet (med samma namn) varit att utforska hur digitala metoder kan hjälpa oss att förstå moderniteten på nya sätt. Moderna tider 1936 har varit ett forskningsprojekt i skärningspunkten mellan mediehistoria och digital humaniora som dels studerat hur programvara tolkar modernitetssymboler i medialt arkivmaterial, dels fokuserat på hur datadrivna metoder kan hjälpa oss förstå modernitetens historia på nya sätt. Projektet syfte har därför både handlat om hur den vetenskapliga kapaciteten hos mediehistoriskt källmaterial kan utökas med användning av digital metoder, och samtidigt har forskarna i projektet kritiskt granskat vad algoritmiska igenkänningstekniker och programvaror kan (och inte kan) identifiera i mediehistoriska dataset. Projektet har ställt frågor såsom: vad ser och hör samtida algoritmer för mönsterigenkänning när de appliceras på mediehistoriskt källmaterial? All historieskrivning kräver tolkningsarbete, men vilka algoritmiska uttolkningar av det förflutna åstadkommer mjukvara?

Noteras bör att forskningsprojektet råkade sammanfalla tidsmässigt med den globala lanseringen av nya språkmodeller, ChatGPT och inte minst generativ AI – ett teknikskifte som påverkade forskningsarbetet och gav historiografiska impulser. Bland annat kom projektet att intressera sig för den historiska blicken hos generativ AI (Stjernholm, Eriksson & Mohammadi Norén 2025), så kallad algoritmisk uppskalning av tidig film på YouTube (Stjernholm & Snickars 2024), tekniker för att bedöma fotorealism i syntetiska bilder (Eriksson 2025), samt distansläsning av riksdagsprotokoll (om radio) från 1930-talet (Snickars, Mohammadi Norén & Jarlbrink 2026). På digital humaniora-manér har projektet också ägnat tid åt att sammanställa en rad dataset men utgångspunkt i fotografiska och audiovisuella samlingar från svensk mellankrigstid: ett dataset med ljudfiler från 1930-talet; ett dataset av fotografier från 1936; ett dataset av stumfilmer från Svenska Bio; ett större dataset av fotografiskt material från 1930-talet (i samarbete med Nordiska museet), samt inte minst ett omfattande dataset av det så kallade SF-arkivet med omkring femtusen journal- och kortfilmer.

Dessa dataset har inom projektet bearbetats med olika programvara: när det gäller ljud så har speech-to-text-modeller testats och använts för transkription – projektet har bland annat nyttjat Kungliga bibliotekets wav2vec-modell med gott resultat. Beträffande film har forskare inom projektet intresserat sig för algoritmisk uppskalning, det vill säga att med hjälp av olika metoder och modeller öka (och förändra) pixeltäthet. En modell (Real-ESGRAN) har använts för att återställa äldre stumfilmers ursprungliga kvalitet – en sorts automatiserad restaurering – där projektet också nyttjade klassiska filmtekniker som tintning, toning och kolorering för att illustrera de sätt som algoritmisk uppskalning påminner om filmrestaurering. När det gäller fotografi har projektet använt modeller för objektigenkänning, främst visuella transformationsmodeller, både på originalfotografier från 1936 och på samma bilder i uppskalad form, där modellen markerat olika objekt beroende på bildkvalitet, med möjlighet att filtrera fram bilder med modernitetsmarkörer. Projektet har på så vis kunnat sammanställa både ett flertal dataset (Aspenskog & Johansson 2025a; 2025b), samt en rad applikationer – alla öppet tillgängliga på utvecklarsajten Github (Johansson 2024; 2025a; 2025b).

Projektet har varit explorativt till sin karaktär; metodutveckling och iordningställande av dataset har tagit mycket tid – emellanåt på bekostnad av forskningsresultat. Icke desto mindre har en rad resultat redovisats på projektbloggen (modernatider1936.se), samt på flera konferenser såsom NECS (2025), DHNB (2024) och ECREA (2024). I en avslutande gemensam artikel använder projektets forskare flera av de metoder och modeller vi tidigare arbetat med och applicerar detta på SF-arkivet som dataset: textutvinning av textskyltar från stumfilm (med applikationen stum), signalarkeologi (av allt ljud i SF-arkivet), samt NER-modeller och geokodning av femtusen journal- och kortfilmer med hjälp av applikationen SweScribe (automatisk taligenkänning), som både kan transkribera och tidsstämpla tal från samlingens ljudfilmer (Aspenskog et al. 2026).

Projektets tre viktigaste resultat är: (1.) nya applikationer innebär betydande möjligheter för att analysera äldre mediematerial – från att berättarrösten i journalfilmer kan omvandlas till sökbar text, över algoritmisk uppskalning av film, till modeller för objektigenkänning i fotografier; (2.) relationen mellan historiska utsagor (i olika modaliteter) och generativ AI är mycket komplex; historisk text kan idag syntetiseras till adekvata utsagor, men beträffande bild, film och ljud är resultaten ännu bristfälliga; (3.) teknikutvecklingen inom generativ AI är dock mycket snabb, visuella transformationsmodeller såsom Googles Veo 3.1 kan numera framställa historiska journalbilder som ser autentiska ut. Syntetiska medier, i både samtida och historisk bemärkelse, kommer att leda till nya forskningsfrågor där relationen mellan digital teknik, medier och det förflutna ställs på sin spets.
Bidragsförvaltare
Lunds universitet
Diarienummer
P21-0012
Summa
SEK 5 955 000
Stödform
RJ Projekt
Ämne
Medievetenskap
År
2021