Informatie Professional
17 (2013) nr. 2 blz. 13

Informatie moeilijk gemaakt

terug

COLUMN
vorige | volgende | nieuwste

 
  [preview]  

Eric Sieverts

In een aflevering van Folia Magazine, het universiteits-/hogeschoolblad van HVA + UVA, stond onlangs een interview met een natuurkundetweeling. Allebei hoogleraar, de een in de VS, de ander bij de UVA. Gezamenlijk - zoals tweelingen betaamt - hadden zij nieuwe theoretische inzichten ontwikkeld rond de zwaartekracht. Dat zou geen fundamentele kracht zijn (hoezo Higgs?), maar een gevolg van de informatiehuishouding van de ruimte. "De ruimte is een opslagplaats van informatie over waar deeltjes zich bevinden."
'De coördinaten van alle atomen in het hele universum? Dat is nog eens big data'
Als deeltjes zich verplaatsen verandert die informatie. En dat is de zwaartekracht. Dat klinkt bijna als het woordgebruik dat je op sommige alternatieve pseudomedische websites tegenkomt. Maar dit zijn natuurkundehoogleraren en geen kwakzalvers (mag ik hopen). Het is wel pijnlijk dat zelfs een tot informatiespecialist omgeschoolde natuurkundige zoals ik, geen idee heeft op wat voor manier informatie tot natuurkundige wetten over zwaartekrachtvelden zou kunnen leiden. En wat bedoelen ze hier eigenlijk met "informatie"? Bedoelen ze echt gegevens over de posities van deeltjes? De coördinaten van alle atomen in het hele universum? Dat is nog eens big data.

Overigens is dit niet het enige voorbeeld van het gebruik van het woord informatie dat mijn pet te boven gaat.

In eerdere columns heb ik wel eens nonchalant de informatietheorie van Shannon laten vallen, alsof ik daar alles van afwist. Nou vergeet het maar. Die theorie gaat over signaalverwerking, datacompressie, datacommunicatie en datacodering. Met zo min mogelijk bits zorgen dat toch geen informatie verloren gaat. Het begrip entropie wordt daar ook bijgehaald, een begrip dat ik alleen kende uit - ook weer - de natuurkunde, uit de thermodynamica. Shannon schijnt onder meer te hebben afgeleid dat "de kortst mogelijke manier om berichten in een bepaald alfabet te coderen, gelijk is aan hun entropie gedeeld door de logaritme van het aantal symbolen in het betreffende alfabet". Bent u er nog? Shannon publiceerde zijn baanbrekende artikel over de informatietheorie precies 65 jaar geleden, maar ik begrijp dat die theorie nog heel populair is en allerminst met pensioen gaat. Het is wel een heleboel wiskunde. Vroeger schrok ik daar nooit zo van. Misschien moet ik me er toch maar eens in gaan verdiepen, nu ik zelf wel met pensioen ben.

In allebei die voorbeelden gaat het over heel andere zaken dan waar wij, eenvoudige informatiespecialisten aan denken, als we het over informatie hebben. Misschien wel jammer dat diepere gedachten over wat informatie is, bij ons zo ongeveer ophouden bij de vaak als pyramide getekende opeenvolging data>>informatie>>kennis. In dat schema zouden wij de informatie waarover Shannon en die zwaartekrachttweeling het hebben, misschien ook liever data noemen. Kennelijk denkt de een bij het woord informatie dus aan heel wat anders dan de ander. Zou men dat ooit nog eens goed in een ontologie kunnen krijgen, zodat het semantisch web wel precies begrijpt wat al die verschillende mensen ermee bedoelen?




© Eric Sieverts en Informatie Professional (Otto Cramwinckel Uitgever, Amsterdam)

Voor een abonnement op Informatie Professional:
bel: 020 - 627 6609

Zie ook IP Online