Sporen van democratie: archiveren van sociale media

META Nummer 2019/1

Sporen van democratie: archiveren van sociale media

Geschreven door Jeroen Buysse
Gepubliceerd op 20.01.2019

Sinds 2003 archiveert Liberaal Archief/Liberas websites van personen en organisaties die relevant zijn voor de geschiedenis van de liberale beweging en het vrijheidsideaal. De collectie omvat ondertussen meer dan 1.500 websites. De laatste jaren verschuift de focus echter naar sociale media. De meeste personen en organisaties hebben nog wel een website, maar nieuwsberichten, afbeeldingen en video’s worden eerder via sociale media gedeeld.

Naar aanleiding van de gemeente- en provincieraadsverkiezingen deed Liberaal Archief/Liberas onderzoek naar het capteren van vier socialemediaplatformen: Facebook, Twitter, YouTube en Whatsapp. Platformen zoals Instagram en Snapchat namen we niet op omdat onze doelgroep hiervan slechts zeer sporadisch gebruikmaakt.

Tijdens de verkiezingen werd vooral Facebook en in mindere mate Twitter ingezet als campagnemiddel. Whatsapp wordt steeds meer gebruikt als tool om onderling te communiceren en de campagne te plannen en vorm te geven. Hieronder gaan we in op het capteren van Facebookpagina’s.

Selectie

Eerst en vooral besteedden we veel aandacht aan de selectie van de binnen te halen pagina’s en profielen. Bij gemeenteraadsverkiezingen komen partijen niet alleen op onder hun eigen naam, er worden ook lokale lijsten ingediend. Eerst brachten we dit alles in kaart en gingen we na of deze plaatselijke lijsten een Facebookpagina aangemaakt hadden.

Uiteindelijk werden 240 Facebook­pagina’s geselecteerd. Samen met een selectie van 47 pagina’s van personen gaf dit in totaal 287 binnen te halen pagina’s. Ter vergelijking: slechts 96 plaatselijke lijsten hadden een website.

Tool

De software die we gebruiken om websites te harvesten bleek niet in staat om op een aanvaardbare manier Facebookpagina’s te downloaden. Facebook schermt zijn platform zoveel mogelijk af. Er is wel een functie ingebouwd om de pagina te downloaden, maar die is enkel toegankelijk voor de eigenaar van de pagina. Na analyse van verschillende software bleek het onmogelijk om een Facebookpagina te downloaden zoals ze gepubliceerd is. Zogenaamde scrape software kwam wel dicht bij een oplossing. Deze software kan doorheen een Facebookpagina gaan en samen met de bijhorende metadata alle gepubliceerde content eraf ‘schrapen’. Bino Posts Scraper and Publisher is zo’n programma dat alle afbeeldingen en video’s van een Facebookpagina binnenhaalt. Daarnaast worden alle statusupdates, geposte links en de beschrijvingen van de afbeeldingen en video’s gestructureerd in csv-formaat binnengetrokken. De enige beperking is dat commentaren op een post niet meegenomen worden, maar wel het aantal likes. Het programma kan ook nieuwe posts automatisch binnenhalen (voorlopig gebruiken we die laatste mogelijkheid niet).

Het resultaat is dat we niet de echte look-and-feel van een Facebookpagina kunnen downloaden maar dat we wel in staat zijn om alle gepubliceerde content met beschrijving binnen te halen. Het programma laat bovendien toe om een periode af te bakenen waarbinnen content gedownload moet worden. Aangezien sommige pagina’s al veel langer online waren, kozen we om alle data sinds de opstart van de pagina binnen te halen. In de toekomst kunnen we op datum filteren.

De resultaten

In een eerste fase, een maand voor de verkiezingen, werd de content van de Facebookpagina’s binnengehaald. Naast de berichten en statusupdates kwamen in totaal 2.487 video’s en 22.207 afbeeldingen mee (26,4 GB). Vooral de video’s binnenhalen vergde tijd. Om 1.200 video’s te harvesten, draaide de software zeventien uur onafgebroken. In een tweede fase, een maand na de verkiezingen, werd de content van dezelfde Facebookpagina’s binnengehaald, maar nu werd de range verkleind en werden enkel de data die geplaatst werden sinds de vorige captatie binnengehaald. Naast de berichten en statusupdates kwamen nu in totaal 1.050 video’s en 3.095 afbeeldingen mee (8,99 GB). Het toont aan hoe intensief Facebook gebruikt werd in de weken rond de verkiezingsdag.

Als onderzoeker krijg je een mooi globaal beeld van de gevoerde campagnes: uiteraard veel fotomateriaal en affiches, maar ook opvallend veel kandidaten die zich via een video voorstelden aan de kiezers. Die vorm van campagne voeren vonden we tot nu toe amper in onze collecties terug. Een grondigere analyse van het materiaal volgt uiteraard nog. De tweede captatie toonde ook de vluchtigheid van sociale media aan. Zeven plaatselijke afdelingen of lijsten verwijderden ondertussen hun Facebookpagina. Het sterkte ons in de overtuiging van het belang van deze operatie en van de noodzaak om ze te herhalen als we een zo volledig mogelijk beeld willen krijgen.

Bewaring en toegankelijkheid

We houden de data voorlopig bij op een interne server. Begin 2019 onderzoeken we hoe we de gegevens gestructureerd kunnen opladen in ons collectiebeheersysteem, zodat we alles intern doorzoekbaar en raadpleegbaar kunnen maken. De verzamelde data zullen, om copyrightredenen, niet online aangeboden worden.

Waarom lid van de VVBAD worden?

  • Deel zijn van het netwerk van experten en collega's
  • Mee de belangen van de informatiesector behartigen
  • Korting krijgen op de activiteiten van de VVBAD
  • Toegang krijgen tot vakinformatie
  • Participeren in de verenigingsbesturen
Word lid
© Vlaamse Vereniging voor Bibliotheek, Archief & Documentatie vzw
Statiestraat 179 | B-2600 Berchem (Antwerpen)
Tel: (+32) 03 281 44 57 | email: vvbad@vvbad.be