Plooifoon

(Eerder verschenen in IP- Vakblad voor informatiespecialisten 2019-8)

Lootbox, deepfakes, smarticles, soft data. Zomaar wat begrippen die zijn besproken in deze rubriek. Veel mensen ergeren zich aan het gebruik van onnodige Engelse leenwoorden. De Volkskrant heeft zelfs een rubriek waarin lezers Nederlandse alternatieven bedenken voor Engelse woorden. Om tegemoet te komen aan deze sympathieke puriteinse beweging wilde ik het deze maand hebben over plooifoon, het Hollandse equivalent van fold phone. Ik ontdekte al snel dat ook vouwfoon en plooimobiel als alternatief worden gebruikt. Welk woord zou er winnen? Zou er überhaupt wel een Nederlandse term overleven?

NL-Term, de vereniging voor Nederlandstalige terminologie, houdt al geruime tijd een lijst bij van Engelse termen waarvoor een Nederlands alternatief bedacht is. Het is interessant om te kijken hoe het die woorden in de loop der tijd is vergaan. Reclamewisser werd in 2015 genoteerd als alternatief voor adblocker. Google geeft 139 hits (treffers), maar het afgelopen jaar werden er geen nieuwe meldingen genoteerd. Nimby betekent not in my backyard. Nivea (bedenk zelf waar het voor staat) is een prachtige Nederlandse omzetting die tot een paar jaar geleden regelmatig tegen kon komen, maar inmiddels is Nivea (inderdaad: niet in mijn voor- en achtertuin) helemaal verdwenen. Advertikel is een mooie vernederlandsing van advertorial. Het is meer dan 400 keer te vinden op Google, maar het afgelopen jaar leverde slechts drie treffers op.

Letterlijke vertalingen, zoals muis en harde schijf hebben een vaste plaats gevonden in het dagelijks spraakgebruik, maar gekunstelde constructies zijn over het algemeen geen lang leven beschoren, een enkele uitzondering als hekje (hashtag) daargelaten. Ze worden bedacht op het moment dat de early adopters (vroegvolgers, volgens de Volkskrant) zich de Engelse term al eigen hebben gemaakt en er geen plaats meer is voor koddige alternatieven. Daarom zal deze rubriek ook in de toekomst niet gewijd zijn aan plaagpost (spam), verversie (update), zoenstrook (kiss and ride) en vaaglogica (fuzzy logic). En dus ook niet aan plooifoon.

 

Islandoracon 2019

IslandoraCon is de Islandora Conferentie die eens in de 2 jaar wordt gehouden. Islandora is het open source digitaal repository systeem dat door de Universiteit Leiden gebruikt wordt voor haar Digitale collecties en binnenkort ook voor het Scholarly Repository en het Student Repository.
IslandoraCon werd na Charlottetown (2015) en Hamilton (2017) dit jaar in Vancouver gehouden. Het was een vooral Canadees/Amerikaanse aangelegenheid want van de 110+ bezoekers kwamen er 3 van buiten Canada en Amerika; een uit Afrika, een uit Nieuw-Zeeland en een uit Europa (ik). Het congres zelf duurde 3 dagen maar werd voorafgegaan door een dag met workshops en afgesloten door een Use-a-Thon/unconference.
Hieronder een verslag van de 5 dagen.

De eerste workshop waar ik aan deelnam ging over ISLE. De afkorting staat voor Islandora Enterprise en wordt ontwikkeld door de Islandora Collaboration Group (ICG). Eigenlijk is dit Islandora als een Docker container, waardoor naar eigen zeggen het minder werk is om Islandora te installeren en onderhouden, makkelijker overgegaan kan worden naar nieuwe versies (dus ook de overstap van Islandora 7 naar Islandora 8) en het betere security en reliability biedt omdat het vaker geüpdatet wordt. Natuurlijk staat daar tegenover dat er minder mogelijk is wat betreft eigen invulling van hoe de componenten samenwerken en waar ze geïnstalleerd zijn (meerdere servers). We hebben zelf ISLE geïnstalleerd op onze lokale laptop met behulp van Docker, dit was redelijk eenvoudig maar vereiste dan wel weer kennis van Docker en andere componenten zoals Traefik.

De tweede workshop ging over plugins maken voor Drupal 8. Dit was erg interessant maar drukte me meteen met de neus op de feiten: er is nog een heleboel te leren, alleen al over Drupal 8.
Een plugin is een nieuwe API in Drupal 8. Het is de bedoeling dat een plugin precies 1 ding doet, zodat het goed herbruikbaar en snel is. Plugins zijn configureerbaar, ze kunnen verschillend gedrag/functionaliteit implementeren via een zelfde interface. In Drupal 8 zijn er ook services. Services zijn uitwisselbaar met elkaar en bieden hetzelfde gedrag/functionaliteit maar met verschillende interne implementaties. Een voorbeeld van een service is bijvoorbeeld caching; er zijn verschillende services die caching binnen Drupal kunnen verzorgen, en deze zijn uitwisselbaar al naar gelang de wensen en eisen. Een voorbeeld van een plugin is bijvoorbeeld het maken van afgeleide plaatjes wanneer er een TIF plaatje wordt ingeladen binnen Islandora 8 (wat dus eigenlijk Drupal 8 is aan de voorkant).
Het plugin systeem vervangt het hook systeem van Drupal 7 en is net zo krachtig, maar duidelijker gedefinieerd en meer toekomst bestendig.

Na de workshops van dag 1 werd de conferentie echt geopend met een overzicht van Islandora nu en in de toekomst. Natuurlijk ligt de focus nu op Islandora 8, wat voorheen Islandora CLAW genoemd werd. Maar Islandora 7 wordt zeker niet vergeten. Er wordt voor Islandora 7 overgegaan naar een jaarlijkse release (dit was 2 keer per jaar), maar aangezien er nog steeds veel instellingen gebruikmaken van Islandora 7, wordt het voorlopig nog ondersteund: na november 2020 wordt er geen nieuwe functionaliteit meer toegevoegd, na november 2021 worden er geen bug fixes meer gedaan en na april 2022 worden er geen security fixes meer gedaan. Dit hangt ook samen met Drupal 7 dat vanaf november 2021 niet meer ondersteund wordt.
Verschillende aspecten van Islandora worden behartigd door verschillende groepen: de Coordinating Committee (voorheen de Roadmap Committee) bepaalt de richting van Islandora op de langere termijn en bevordert de Islandora community, de Technical Advisory Group doet aanbevelingen met betrekking tot de architectuur en technische roadmap van Islandora, de Multi-tenancy Interest Group houdt zich bezig met multi-site support in Islandora 8 (één Islandora installatie met meerdere websites) en de Metadata Interest Group focust op metadata (vooral in Islandora 8 aangezien het hier heel anders werkt). Andere interest groups zijn hier te vinden: https://github.com/islandora-interest-groups

Er werd deze dag veel over Islandora 8 verteld. Versie 1.0.0 is op 5 juni 2019 officieel uitgekomen. Waar Islandora 7 nog als een hamburger werd gerepresenteerd, wordt Islandora 8 als een bento box gezien, namelijk verschillende onderdelen die goed met elkaar samengaan (samenwerken) maar uitwisselbaar zijn. Islandora 8 is veel meer verweven met Drupal 8. Waar Islandora 7 het mogelijk maakte om Islandora objecten binnen Drupal te gebruiken, is het bij Islandora 8 zo dat die objecten volledige Drupal nodes zijn. Islandora 8 maakt gebruik van nodes (waar islandora 7 een object gebruikt), files (vergelijkbaar met de datastreams in 7) en media (deze koppelt de nodes aan de files en hier wordt de technische metadata bewaard). Islandora objecten zijn dus “first-class citizens“. Dit betekent dat alle modules die voor Drupal 8 geschreven zijn, ook meteen toepasbaar zijn voor Islandora 8. Eigenlijk is Islandora 8 zelf onder andere een Drupal 8 module die de functionaliteit van een digital repository aan Drupal toevoegt. Veel functionaliteit waarvoor in Islandora 7 veel code nodig was, is in Islandora 8 al beschikbaar via Drupal 8 en door configureren beschikbaar te maken. Islandora 8 voegt aan Drupal 8 onder andere het volgende toe: JSON-LD (een manier om Linked Data over te dragen als JSON), een koppeling met Fedora Commons (met behulp van Flysystem worden bepaalde bestanden in Fedora bewaard) en het genereren van afgeleiden.
Er wordt al hard gewerkt aan de volgende versies van Islandora 8: er worden onder andere breadcrumbs, paged content (wat boeken en kranten mogelijk maakt), IIIF manifesten, text extraction en versioning toegevoegd. Dit zou voor het eind van dit jaar gereed moeten zijn. Ook wordt er gekeken naar de migratie naar Drupal 9 en Fedora Commons 6, aangezien Drupal 9 eind 2020 uitkomt. Dit betreft een kleine update en is zeker geen migratie zoals van Islandora 7 naar 8. Wel biedt Fedora Commons 6 het Oxford Common File Format. Dit is een standaard manier voor opslaan van digitale informatie waardoor deze data compleet (de hele repository kan opnieuw opgebouwd worden met deze data), leesbaar (voor mens en machine, ook zonder de originele software), robuust (fouten in bestanden kunnen ontdekt worden, migratie is makkelijker) en versiebeheerd (wijzigingen zijn herleidbaar en kunnen teruggedraaid worden) opgeslagen kan worden op verschillende storage mogelijkheden (filesystem, cloud, etc.).
Migratie van data naar Islandora 8 werd ook uitvoerig besproken. Ook dit gaat op een standaard Drupal 8 manier. Er is een Migrate API in Drupal 8 ingebouwd die werkt volgens het ETL principe; Extract – Transform – Load. Hier zijn al meerdere plugins voor beschikbaar en migratie is dus vooral een kwestie van veel configuratie bestanden maken of aanpassen, testen en migreren. Er wordt druk gewerkt aan standaard manieren om Islandora 7 data te migreren naar Islandora 8, maar aangezien er altijd “eigen wensen” zijn zal geen enkele migratie dit zonder aanpassingen kunnen gebruiken.

Gedurende de hele conferentie waren er interessante presentaties van andere Islandora gebruikers. Er was een presentatie over een interactieve kaart met verhalen over Vancouver, waarbij op de kaart aangegeven was waar het verhaal was verteld. De verhalen worden zo op een heel andere manier gevonden. Zoals veel bij Islandora, is de code achter de site vrij toegankelijk. Zie https://thisvancouver.vpl.ca/story-city
De mensen van Discover Okanagan Historical Resources hadden een aparte kijk op digitaliseren: het afbreken van een collectie en het opnieuw digitaal opbouwen ervan, waarbij bepaalde impliciete relaties worden verwijderd die later opgebouwd moeten worden in metadata.
Er was een sessie over performance van Islandora, waaruit bleek dat we al veel goed doen, maar Solr optimalisatie is nog wel een belangrijk punt wat nog gedaan moet worden. Optimalisatie bleek ook nu weer een zeer gespecialiseerd onderwerp te zijn waarbij er niet altijd standaard oplossingen zijn.
Een andere sessie ging over microservices. Dit zijn een of meerdere gespecialiseerde programma’s die communiceren met Drupal over (meestal) http. Deze microservices kunnen draaien op “any server, in any language and under any technology”. Islandora 8 maakt veel gebruik van microservices, onder andere voor afgeleiden maken (audio, video, images), FITS (File Information Tool Set, technische metadata uit bestanden halen), text extraction, fixity checks en BagIt integration. In Drupal kan een bepaalde actie gedaan worden als binnen een context aan bepaalde condities voldaan is. Dit is zonder veel code te configureren, zodat bijvoorbeeld als er een original file aan de media wordt toegevoegd (context en conditie), deze door Drupal aan CrayFITS (microservice) gegeven wordt, die de technische metadata uit het bestand haalt en weer binnen Drupal bewaard (action), waarna dit weer in Solr geïndexeerd wordt (dit is weer een andere microservice).
Er waren nog vele andere interessante presentaties, onder andere over content modelling in Islandora 8, diverse manieren van inlezen van content, over namen (“Falsehoods librarians believe about names”) en over headless Islandora. Helaas staan deze presentaties nog niet online, dus kan ik hier niet naar linken.

De laatste dag was gereserveerd voor een Use-a-Thon en de unconference. Tijdens de Use-a-Thon werden bepaalde usecases opgelost in groepsverband, waarbij mooie prijzen te winnen waren. De winnaars hadden een oplossing voor Oral History Transcriptions, Collection Search en multi-tenancy. Helaas viel onze groep (de “Exhibitionists”) net buiten de prijzen, maar toch een mooi resultaat.

Het was een erg zinvolle conferentie waarbij ik veel geleerd heb, maar waar het ook duidelijk werd dat er nog heel veel te leren valt, vooral over Islandora 8.

De Vaderlandskaart

Een klein experiment voor u verder leest. Waar denkt u aan bij het woord vaderlandskaart?

Dikke kans dat u, net als ik, denkt aan de jaren ’30, ’40 van de vorige eeuw. Misschien iets van de NSB? En daarmee slaat u de plank flink mis, want de vaderlandskaart werd in 2017 geïntroduceerd door de Venezolaanse president Nicola Maduro. Maar toch is de gedachte zo gek nog niet, want de vaderlandskaart, oftewel de carnet de la patria, is een instrument dat niet zou misstaan in een totalitaire staat.
Wie over een vaderlandskaart beschikt, kan voor een klein bedrag aanspraak maken op voedselpakketten. In de supermarkt zijn levensmiddelen door de hyperinflatie nauwelijks betaalbaar en dus beschikt het merendeel van de bevolking over zo’n kaart. Met de vaderlandskaart kunnen de Venezolanen bovendien goedkope benzine kopen, moeders krijgen op Moederdag een extraatje en zo biedt de kaart nog tal van voordelen.

Sinds 2018 duikt de term vaderlandskaart op in Google. Bij de verkiezingen van dat jaar konden de Venezolanen hun kaart laten scannen, waarna hun stemgedrag werd vastgelegd. In ruil daarvoor kregen de mensen een bedank-sms’je van Maduro en een bonus. En zo zijn er tal van manieren waarop allerlei persoonlijke gegevens worden vastgelegd waar het regime zijn voordeel mee kan doen. Het bezit is dus niet vrijblijvend, maar wie geen gebruik wil maken van de kaart, loopt niet alleen het risico om gekort te worden op levensmiddelen, maar ook om niet in aanmerking te komen voor medicijnen. Op die manier houdt het regime de bevolking aan zich gebonden.
De achterliggende software is afkomstig van het bedrijf ZTE. Zij zijn, samen met Huawei, een van de grote Chinese exporteurs van surveillancesoftware en -apparatuur, waarmee van alles wat maar interessant kan zijn voor, bijvoorbeeld, een autoritair regime digitaal kan worden vastgelegd. De producten vinden gretig aftrek in Zuid-Amerikaanse en Afrikaanse landen.

De vaderlandskaart, het klinkt ouderwets, maar het is een geavanceerde vorm van big business voor Big Brother. Weest waakzaam!

(Eerder verschenen in IP – Vakblad voor Informatieprofessionals 2019-7)

Privacykramp

(Eerder verschenen in IP- Vakblad voor informatiespecialisten 2019-6)

“Ik weet maar één ding, en dat is dat  ik niets weet”. De AVG is inmiddels ruim een jaar van kracht, maar nog steeds herkennen veel medewerkers van bedrijven en overheidsorganisaties zich in de woorden van Socrates wanneer ze beslissingen moeten nemen over privacygevoelige zaken.

In de eerste maanden van 2018 was Nederland volledig in de ban van de AVG. Overal verschenen privacyfunctionarissen, organisaties stelden verwerkersovereenkomsten op en IT-afdelingen verwijderden gevoelige, maar niet per se noodzakelijke gegevens van hun servers. Die privacypaniek van toen blijkt bij tal van instanties te zijn overgegaan in een meer permanente privacykramp. Want ook nu zijn veel organisaties nog steeds als de dood om grenzen te overschrijden.

De Volkskrant maakte onlangs een rondje langs verschillende instanties en constateerde dat veel instanties uit angst voor boetes het zekere voor het onzekere nemen. De overheid heeft jarenlang flink geïnvesteerd in geautomatiseerde gegevensuitwisseling tussen organisaties, maar die blijven nu vaak krampachtig op hun data zitten. Dat leidt nogal eens tot stroperigheid en inefficiëntie. Het UWV ziet zich bij het opsporen van fraudegevallen bijvoorbeeld geplaatst voor problemen omdat de Belastingdienst en gemeenten niet erg toeschietelijk zijn bij het leveren van de nodige gegevens.

De overheid probeert via de website kiezen-en-delen.nl duidelijkheid te scheppen over de mogelijkheden voor gegevensuitwisseling binnen het sociaal domein. Maar wie bijvoorbeeld de lijvige handreiking heeft gelezen over gegevensuitwisseling in de bemoeizorg voor zorgwekkende zorgweigeraars (ik verzin dit niet), zal niet het idee hebben dat er nu een helder licht wordt geworpen op de hier en daar toch wat schimmige wetgeving.

De Autoriteit Persoonsgegevens heeft sinds de invoering van de AVG maar weinig boetes uitgedeeld. Gek genoeg is dat nu júist een reden waarom de privacykramp er bij veel instellingen is ingeschoten. Het grote grijze gebied tussen wat wel en wat niet mag zou een stuk kleiner kunnen zijn als er voldoende jurisprudentie was. Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens, kondigde voor dit jaar serieuze handhaving aan, maar zijn organisatie is (nog) te klein om voldoende onderzoek te doen.

Is er iets te doen tegen de privacykramp?  Zeker. Het is bekend dat je bij kramp iets moet doen wat je gevoelsmatig juist zou willen vermijden, en dat is bewegen. En bananen eten, maar of dat bij privacykramp helpt, is twijfelachtig.

JOMO

Hoera, er zoemt weer een nieuw acroniem door de blogs! JOMO lijkt op FOMO en heeft er ook alles mee te maken. FOMO is de Fear Of Missing Out. Iedereen kent ze wel, de verslaafden die de hele dag, en bij voorkeur een groot deel van de nacht, aan hun device vastgekleefd zitten om maar niets te hoeven missen van wat er op Facebook, Instagram of Twitter voorbijschuift. En misschien heb je zelf wel FOMO.  Voor jou is er nu JOMO, de Joy Of Missing Out. Kort gezegd gaat het erom dat je je tablet of smartphone regelmatig weglegt om met het echte leven bezig te zijn.  JOMO is eigenlijk wat je ouders of partner al jaren tegen je zeggen. Voorheen was dat tegen dovemansoren, maar nu is dat voorbij, want JOMO is een heuse trend. De afgelopen periode werd erover geschreven door de Frankfurter Allgemeine, Victoria Health, Women’s Health Magazine en Search Engine Journal, om er maar een paar te noemen. En natuurlijk worden de artikelen gelardeerd met de bekende 5 of 10 tips, zoals:

  • Zeg nee tegen pushberichten!
  • Lees geen emails na acht uur ’s avonds!
  • Ga naar een echte boekwinkel en koop een echt boek!
  • Leef langzaam!

Het begrip JOMO werd zeven jaar geleden geïntroduceerd in een blog van de Amerikaan Anil Dash, waarin hij beschrijft hoe weldadig het is om sociale gelegenheden te laten lopen. In de jaren die volgden verschenen er veel en artikeltjes en blogs over JOMO waarbij  er vooral werd gefocust op verslaving aan sociale media. Onthaasting was het antwoord, want JOMO voelt zich thuis in de wereld van Mindfulness en Marie Kondo.

Dus doe mee met JOMO! Koop de JOMO-koffiemok of het JOMO-boek (Ja, ze zijn er. Vorige maand verscheen zelfs een JOMO breiboek)! Hang in je pyjama voor de buis met een zak borrelnootjes! Wees jong! Wees JOMO!

Deze tekst verscheen als column in IP – vakblad voor informatieprofessionals -2019/4

 

Symposium Rediscovered: new technologies on historical artefacts

Opgeknipt-kwadranten_brightness-plus10

Liber Pontificalis. UBL VLQ 60, fol. 20r. Images made with various filters of the White Light Portable Light Dome, developed by KU Leuven. 

The materiality of historical artefacts and the development of new digital technologies might seem to contradict, however, quite the opposite is true. Increasingly digital technology is deployed to deepen our knowledge of cultural heritage in the broadest sense. On November 16. 2018 Leiden University Libraries invited a variety of speakers to discuss the rediscovery of historical artefacts through new technology, by focusing not only on the technology itself but also on the implications for historical research and our understanding of our material heritage.

The symposium is part of the program Beyond content, with which the UBL focuses on the materiality of text and images through a series of activities like workshops, presentations and an exhibition. Specific attention is paid to the forms in which historical texts and images have been handed down, but also to the digital techniques that have recently been developed to better study them. For more information on the programme see the website Beyond content.

The speakers introduced us to a range of methods, tools and algorithms often borrowed from the beta sciences and applied within the humanities. That these do not always need to be high end and expensive, was shown by the first keynote speaker Kate Rudy (University of St Andrews/NIAS). In her presentation Four technologies to spy on the past, she talked about the projects she will start as part of her upcoming Leverhulme Fellowship. As a medieval art historian she is interested in the production and use of illuminated manuscripts.  In an earlier project she studied the use of texts and miniatures in a manuscript by measuring the grime with a densitometer. The calliper she will use to measure parchment thickness costs only 100 EUR, but serves perfectly find out whether leaves or quires were added to a manuscript.

Rudy also stressed the importance of handheld amateur photography. When libraries digitise a manuscript, they often focus on lavishly decorated and untouched manuscripts. But many researchers like her are particularly interested in the ugly, worn and broken ones. And cleaning a manuscript as part of a conservation project will lead to loss of information on the use of a manuscript as well. When researchers visit our library, they take many pictures from unstudied and non-digitised manuscripts or from surprising angles. These pictures are sometimes shared on Twitter, but most of the time they are only kept on standalone computers, unavailable to others. Although a lot of researchers do use free cloud storage like Google Photos and Flickr, this is not a reliable solution; the platforms can change the terms and conditions (Flickr recently limited the possibilities for free accounts), and sometimes simply shut down (just think of Picasa). This led to an interesting public discussion: do research institutions have a responsibility to store and share the results of DIY digitization? As a service it turned out to be very much desired by researchers.

Hannah Busch (Huygens ING) participated in the eCodicology project, in which several tools were developed to analyse large amounts of data taken from medieval manuscripts. In her presentation Machines and Manuscripts: New technologies for the exploration of medieval libraries she explained the use of algorithms for the automatic identification of lay-out elements, like columns, initials and miniatures. These data are added to the information taken from the descriptions in traditional catalogues. When combined they form a rich source for data visualisations of libraries as a whole. This makes it possible to gain better insight in book historical aspects like the relationship between format and size, or the percentage of manuscripts with decorations or miniatures.

In her new project at Huygens KNAW called Digital forensics for historical documents. Cracking cold cases with new technology the goal is to build a tool for script analysis in manuscripts based on convolutional neural networks. This technique is also used in image- and face technology.[1]

Meanwhile Hannah Busch offered a very useful summary of the needs of researchers as well. What she wants is to:

  • Perform your own ingest with IIIF
  • Run different types of analysis
  • Share data
  • Search/export/visualize
  • Allow other people to annotate and correct

A prerequisite for this is of course to have the data FAIR: findable, accessible, interoperable and reusable.

Francien Bossema (Centrum Wiskunde en Informatica/Rijksmuseum/UvA) demonstrated the FlexRay Lab, a method for 3D visualisation using XRays and CT.[2] The non-invasive method can be used for medical imaging and food industry, but also for art historical research.

IMG_8265

With the CT scanner it is possible to look inside objects in 3D during the scanning process. Together with the Rijksmuseum a workflow was developed that can be used both for both research during a conservation process and to reconstruct a production process. Bossema explained the method by reconstructing the production of a so-called Chinese puzzle ball. These decorative balls were made in the mid-18th ct from one single piece of ivory, consisting of several concentric spheres each of which rotates freely. Using the CT scanner it became clear that the spheres were made with a set of “L” shaped tools with progressively lengthening cutters. Only the outermost balls were carved elaborately.[3] Currently, they are working on an in-house scanner for the Rijksmuseum, to make the transition from 2D to 3D scanning possible by providing a standardised process for art historical research. As a result of these activities the Rijksmuseum is collecting large amounts of data. The museum is thus entering a new field and cooperation with institutions with more experience in this field, such as research institutes and libraries, is necessary.

The last years libraries and archives are increasingly confronted with growing collections of born digital scholarly archives. Peter Verhaar is working both for the Centre for Digital Scholarship of Leiden University Libraries and for the master’s programme in Book and Digital Media Studies. In his presentation Durable Access to Book Historical Data he discussed the challenges he was faced with in the acquisition of the digital archive of Professor Paul Hoftijzer. Hoftijzer, who is working on the Leiden book trade in the early modern period, has produced a rich collection of Word documents and Excel spreadsheets that he wanted to donate to the library. As a first step, Verhaar cleaned the unstructured data and transposed them to a database in systematic format. This essentially resulted in a new archive. The question for the audience was whether both of the archives should be kept. Cleaning up the “data grime” will in either case lead to a loss of information, in the same way as cleaning a physical manuscript does.

The pilot is also set up to raise awareness among researchers. The university library offers courses in data management to ensure that researchers know how to make their data FAIR. But we are now in the middle of a transition, researchers who are retiring the next couple of years never received these instructions, and in case no measures are taken, this will lead to loss of research data. Paul Hoftijzer, who was also attending the symposium, stressed the importance of keeping both a personal and a professional archive. In his opinion, only the combination of both can ensure a correct interpretation of the data.

Martijn Storms (Leiden University Libraries) introduced the audience to the crowdsourcing project Maps in the crowd that is running for more than 3 years now and has been very successful. With the help of enthusiastic volunteers almost 10.000 maps have been georeferenced, which means that users can find and use maps in an intuitive, geographic way, by browsing on a map.  The maps can also be used in geographical data systems, e.g. to facilitate landscape analysis. The project attracted a lot of press, providing a large audience of map enthusiasts the opportunity to connect with the library and the collections.

In the afternoon the audience was invited to participate in an introductory workshop to IIIF. IIIF IMG_8300You can try it out yourself here: https://digitalscholarship.nl/workshop/

Additionally, a pop-up exhibition was set up showing a selection of materials from the collection.

The final keynote by Giles Bergel (University of Oxford) focused on the physical and material aspects of the digital. He started his paper called Beyond fixity: the printing press in the age of digital reproduction by telling the story of the Doves press, responsible for the famous Doves font. After the two partners Thomas James Cobden-Sanderson and Emery Walker got into a severe dispute about the rights on the matrices in 1913, Cobden-Sanderson threw all of them into the Thames river. Since 2013 the Doves Type has been revived digitally by the designer Robert Green. He managed to recover 150 pieces of the original type from the Thames, which helped him to reproduce the font, including the imperfections of the original matrices. This story shows that “digital”, although increasingly experienced as something immaterial or even imaginary, has a materiality in itself as well. This sense of materiality is essential for book historical research, even when this is performed with a laptop and a package of software.

Giles Bergel is part of the Visual Geometry Group in Oxford, where tools are developed for visual analysis in of image and video content in a variety of academic disciplines like Humanities, History and Zoology. He is also Digital Humanities Ambassador in the Seebibyte project. One of the open source products developed is VISE, an application that can be used to make a large collection of images searchable by using image regions as query. VIA is an image annotation tool that can be used to define regions in an image and create textual descriptions of them. The Traherne digital collator finally makes it easy to compare copies of the same text in order to identify variants between them. Thanks to this tool, researchers no longer have to follow the so-called “Wimbledon-method” to compare prints, which means that headaches are fortunately something from the past.

The presentations can be found here:

 

[1] For an introduction see: https://adeshpande3.github.io/A-Beginner%27s-Guide-To-Understanding-Convolutional-Neural-Networks/ or read this article by Dominique Stutzmann in which the same technology is applied: https://journal.digitalmedievalist.org/articles/10.16995/dm.61/

[2] For more information on the project: https://www.cwi.nl/research/groups/computational-imaging

[3] https://www.cwi.nl/events/cwi-scientific-meetings-1/cwiscientific.pdf  With images and extensive description.