Informatie Professional
terug |
Een keuzetraject voor zoekmachinesoftware |
10 (2006) nr. 5 (mei) blz. 28-33 |
Van PVE via RFI langs POC en RFQ naar finishEric Sieverts, Monique TeubnerBij het woord zoekmachines denken veel mensen aan Google of Yahoo. Zoekmachines vormen echter ook het instrumentarium om bijvoorbeeld lokale documentcollecties of intranetten te doorzoeken. Software kiezen voor zo'n toepassing is niet altijd een triviale zaak. Anders dan bij zoeken op internet zijn er vaak grote investeringen mee gemoeid. Deze bijdrage beschrijft een best-practice voor dit proces op basis van de ervaring met een keuzetraject bij de UB Utrecht.
Bij de Universiteitsbibliotheek Utrecht is al geruime tijd een zoekmachine in gebruik voor het doorzoeken van metadata
(titels, auteursnamen, trefwoorden, samenvattingen) van wetenschappelijke artikelen.
Dit betreft artikelen waarvoor op basis van licenties of anderszins toegang is verkregen tot de full-text
op de sites van diverse uitgevers of leveranciers.
Op deze manier biedt het zoeksysteem via één uniform interface toegang tot de full-test artikelen bij al die uitgevers.
Het Omega-systeem, waarbinnen deze zoekmachine functioneert, is overigens meer dan alleen dit zoeksysteem.
Het biedt gebruikers ook via tijdschriftenlijsten en inhoudsopgaven toegang tot al het elders toegankelijke materiaal
en het omvat een beheerssysteem waarin ook de administratie van de digitale collectie kan worden bijgehouden. Het hele trajectDe stappen in het keuzetraject werden deels opeenvolgend en waar mogelijk ook parallel doorlopen. Het hele traject, zoals geïllustreerd in figuur 1, zag er globaal als volgt uit.
|
Op een aantal van deze stappen gaan we hier in meer detail in. Tot slot zullen we ook al enige ervaringen bij de implementatie beschrijven. Programma van eisen
Onder 'Programma van Eisen' kunnen in de praktijk nogal uiteenlopende soorten documenten worden verstaan.
In dit geval ging het concreet om wat de zoekmachinesoftware functioneel beslist moest kunnen
en aan welke technische randvoorwaarden deze moest voldoen.
Zoals een deel van die randvoorwaarden wordt bepaald door de lokale ICT-omgeving,
zo komen de functionele eisen direct voort uit de aard van het materiaal waarvoor en uit
de manier waarop het zoeksysteem moet worden gebruikt. Van longlist naar shortlist
Bij het begin van een keuzetraject is het handig als binnen de organisatie al wat kennis aanwezig is
van de belangrijkste producten die op de markt zijn.
Vaak is dat ook wel het geval. Anders zijn op internet wel overzichten te vinden.
Een andere aanpak is om een gespecialiseerd adviesbureau in te huren.
In ons geval is een combinatie van deze drie aanpakken gevolgd.
Het door ons ingehuurde bedrijf, Search Engine Consultancy (SEC), bezat zelf al een database
met de belangrijkste karakteristieken van de meeste in onze eerste lijst genoemde producten.
Op basis van hun expertise hebben zij ook nog enkele leveranciers aan onze longlist toegevoegd.
Uiteindelijk is besloten verder te gaan met de bekende marktleiders Verity en Autonomy en de Nederlandse producent Irion. Voor beide eerstgenoemde was dat op basis van hun totale score op het hele PvE, voor Irion op basis van vooral het functionele deel van de eisen, in combinatie met te verwachten lagere kosten. |
Proof of Concept
Uit eerdere ervaringen was gebleken dat - ook correcte - respons op een PvE nog niet altijd garandeert
dat een zoeksysteem echt precies kan wat de gebruiker wil.
Zo bleek in de oorspronkelijk in Utrecht gebruikte zoeksoftware de normaliter uitstekende probabilistische relevance ranking
volledig onbruikbaar te worden zodra ook truncatie van zoektermen of fuzzy zoeken werden toegepast.
Aan alle eisen afzonderlijk werd goed voldaan, maar in combinatie presteerde het systeem ineens heel slecht.
Daarom, en ook omdat we zeker wilden weten hoe de systemen met ons eigen materiaal zouden presteren,
besloten we de drie overgebleven leveranciers een vrij uitgebreide Proof of Concept te laten verzorgen.
Proef op de som
De praktijktest was vooral bedoeld om de drie systemen te vergelijken en de belangrijkste zoekeisen te testen
met behulp van standaard zoekvragen.
Of een Booleaanse combinatie goed wordt uitgevoerd en of bij zoeken in het titelveld
inderdaad alleen in titels wordt gezocht, is betrekkelijk eenvoudig te controleren.
Daarbij kan bovendien meestal worden volstaan met ja/nee-antwoorden.
Beoordeling van de relevantievolgorde bij "best-match" zoekvragen - in ons geval een belangrijk criterium - ligt aanzienlijk lastiger.
Bij dergelijke zoekvragen, in onze tests telkens rijtjes van vier zoekwoorden,
zoals verbal memory children dyslexia, werd de testers gevraagd de relevantie in te schatten van de resultaatdocumenten
op bepaalde rangnummers (1-20, 51-55, 101-105, 501-505).
Daarnaast moesten zij bij elk van die documenten aangeven welke van de zoektermen in welk onderdeel
(titel, samenvatting), hoe vaak voorkwamen.
Zo hoopten we ook een meer objectieve indruk te krijgen van de factoren die de software
bij het ranken van de zoekresultaten liet meespelen.
Selectie
De resultaten van de functionele tests vormden een belangrijk element voor de uiteindelijke keuze.
De analyse van de resultaten van de 'probabilistische' testvragen was daarbij het meest complex.
Moest de relevantie worden beoordeeld op grond van vergelijking met de oude zoekmachine,
op grond van de eerder genoemde objectieve factoren of op de persoonlijke, per definitie meer subjectieve beleving van de testers?
Uiteindelijk heeft dat laatste - ook met het oog op het beoogde draagvlak - de doorslag gegeven.
Eén zoekmachine werd door meerdere personen echt afgewezen, ook al zouden de zoekresultaten volgens
een meer objectieve analyse gemiddeld niet significant slechter horen te zijn.
Hoewel Irion op basis van de PoC functioneel wat betere papieren had, heeft de Omega-stuurgroep op basis van de andere bovengenoemde factoren uiteindelijk voor Autonomy gekozen. Verity, op dat moment nog niet overgenomen door Autonomy, toonde zich erg verbaasd niet als winnaar uit de bus te zijn gekomen. Ervaringen
De hier beschreven zeer uitgebreide keuzeprocedure bleek een langere doorlooptijd te hebben dan we zelf al hadden ingeschat.
Dat speelde in vrijwel alle fases - zeker ook in die waar we van anderen afhankelijk waren.
Het verzamelen en verwerken van de gegevens van de pakketten uit onze longlist en
het opstellen van het advies door SEC nam meer tijd dan verwacht.
En ook de voorbereiding van de PoC kostte langer en leverde meer praktische problemen
dan - kennelijk ook door de leveranciers - was voorzien.
Of twee maanden echt te kort was om de PoC-systemen te realiseren, of dat men te laat was begonnen weten we natuurlijk niet.
In elk geval leek men zich op het indexeren van een miljoen records te hebben verkeken.
Uiteindelijk waren alle drie testsystemen pas een week later beschikbaar dan de met de testers afgesproken datum.
En ook toen bleken er af en toe nog problemen met toegankelijkheid en responsetijden.
|
|
|
© |
Informatie Professional (Otto Cramwinckel Uitgever, Amsterdam)
en Eric Sieverts
Voor een abonnement op Informatie Professional:
|