Wat ik doe

Vanuit mijn rol als Data Engineer en Data Science specialist, kunt u bij mij terecht om van
een abstract vraagstuk tot een concreet product te komen. Omdat ik mijn kennis graag deel,
is het niet slechts een project maar tevens een kans voor u om een volgende stap te zetten
in een data-driven bedrijfsvoering.

Dankzij mijn pragmatische en doelgerichte houding zorg ik snel voor resultaten. Bij voorkeur
werk ik dus ook met het learning-by-doing principe. Daarnaast biedt mijn technische
achtergrond het voordeel dat ik snel thuis ben in complexe materie en goed in staat ben om
brede vraagstukken op te knippen in haalbare doelstellingen.

Door de diverse specialisaties op universiteiten en kennisinstanties ben ik gewend aan een
internationale omgeving en kan ik gemakkelijk communiceren met collega’s, ondanks
eventueel verschillende opleidingen en achtergronden.

Waar gewenst of noodzakelijk, trek ik gemakkelijk de rol van coördinator naar mij toe. Ook
ben ik graag betrokken bij de besluitvorming van informatievraagstukken om zo tot een zo
goed mogelijk resultaat te kunnen komen.

De naam van mijn bedrijf Elean is een afgeleide van een moeilijk te doorgronden Oudgrieks
dialect en staat daarmee symbool voor de status die data tegenwoordig heeft. Mijn ambitie
is om dit te doorbreken door mijn kennis en kunde te delen. Als freelancer breng ik dus niet
alleen resultaten, maar ontvangt u tevens de achterliggende kennis. Interne of externe
trainingen op het gebied van Python, Data Science of Data Engineering behoren dan ook
zeker tot mogelijkheden.

Mijn achtergrond

Mijn naam is Viktor Knoben, met een MSc in Lucht- en Ruimtevaart aan de TU Delft heb ik veel modellering kennis opgedaan. Als logisch vervolg op deze achtergrond, en met het oog op de marktontwikkelingen, heb ik een verdiepingsslag gemaakt naar data science middels een traineeship.

Echter omdat de wereld van data alles behalve stil staat en in deze wereld vaak meerdere specialisaties hand in hand gaan ben ik inmiddels ook gespecialiseerd in BI (Tableau en PowerBI), data engineering en zowel de AWS als de Azure cloudoplossingen.

Zoals u wellicht merkt staat kennis en leren hoog in het vaandel. In lijn met de ambitie achter Elean wil ik dit ook allemaal graag kunnen inzetten en delen. Onderstaand treft u een reeks aan bedrijven aan waar ik dit reeds heb mogen doen:

Gemeente Veenendaal

Als dataexpert ben ik bij gemeente Veenendaal verantwoordelijk voor het helpen opzetten van een Generiek Data Platform (GDP). Dit doe ik door meerdere projecten op te starten en die zo ver mogelijk af te ronden en te integreren in dit platform. Enkele voorbeelden zijn:

  • De financiële effecten van COVID-19 in kaart brengen met een Python gebaseerde Monte Carlo risicoanalyse en te visualiseren in een PowerBI dashboard. Belangrijke eigenschappen van dit project zijn correctheid, snelheid en flexibiliteit (meerdere scenario’s automatisch doorrekenen). Dit dashboard is uiteindelijk een
    belangrijke bron van informatie voor de directie, wethouder en gemeenteraad. Het is daarmee tevens een groot project waarbij veel werk is gaan zitten in zowel het modelleringsaspect als de ontwikkeling van het dashboard.
  • Een classificatie van de type eindgebruikers binnen Wet Maartschappelijke Ondersteuning (WMO) in het Sociaal Domein middels een statistisch verantwoorde methode. Hiervoor is met Python data uit verschillende bronnen verzameld, gekoppeld en gemodelleerd. In dit project is tevens een dataverrijkingsslag gedaan door het achterhalen van de Customer Journey met bijbehorende databronnen.
  • Geografische data van een innovatief project analyseren en in kaart te brengen. De uitkomst van mijn analyses vormden de basis van de eerste terugkoppeling van de projectresultaten naar de deelnemers. Gezien de fase van het project heb ik de werkzaamheden in Python uitgevoerd.
  • Ondermijning zijn alle activiteiten met verkeerde intentie die afbreuk doen aan een gewenste woonomgeving. Deze brengen we in kaart middels een gelaagdheid aan databronnen en automatisch berekende kennisregels. De berekeningen vinden plaats in Python en de visualisaties in een GIS applicatie.
  • De woningmarktmonitor waarbij de focus ligt op het automatisch verzamelen en koppelen van data ten behoeve van inzichten op de woningen en bijbehorende behoeftes.

Overkoepelend is een zeer belangrijke rol het sparren met diverse afdelingen en eindgebruikers geweest. Dit om ideeën te toetsen op haalbaarheid en om projecten te kunnen (bij)sturen.

Startup (moet nog een naam krijgen)

In een internationale samenwerking werken we met een team aan een algoritme die input kan leveren over wanneer welke handelstransactie moet plaatsvinden. Mijn rol is om als technisch expert de kennis en kunde te combineren en te vertalen naar een algoritme. Hiervoor werken we met Python en diverse Amazon Web Services.

Unigarant

Inhoudelijk waren mijn werkzaamheden bij Unigarant te verdelen in een drietal onderwerpen. Allereerst was ik het aanspreekpunt voor Data Science binnen het bedrijf. Als gevolg hiervan werd ik betrokken bij vrijwel alle innovatie trajecten die gebruik maakten van kunstmatige intelligentie en gaf hierin mijn constructieve feedback.Ten tweede was ik als Lead Data Scientist uiteraard verantwoordelijk voor de diverse projecten die ik in handen nam, dit al dan niet in samenwerking met externe partijen.

Voorbeelden van mijn (grotere) projecten zijn:

  • Sentiment en onderwerp analyses van de chatdata die binnenkomen bij Unigarant. De chatdata heb ik eerst middels Python ontsloten om hier vervolgens NLP modellen voor te maken. Door deze modellen ligt er een fundament bij Unigarant die het mogelijk maakt intern op grote schaal taalkundige analyses uit te voeren.
  • Geografische data van een nieuwe polis analyseren. Dit was een bijzondere uitdaging omdat het ging om enorme hoeveelheden data >10 miljard gps datapunten die moesten worden gekoppeld met de juiste wegen. De bijbehorende vraagstukken werden samen met de ANWB in een speciaal projectteam van ca. 10 man opgepakt.
  • Fraude modellering was in samenwerking gedaan met een externe partij. In dit project hadden we samen middels Python binnen de verzekeringsbranche een uniek model van bijzonder hoog niveau gebouwd. Hier heb ik actief meegeholpen met het bouwen van de modellen, de implementatie binnen de straat van Unigarant verzorgd en was ik verantwoordelijk voor het beheer.
  • Honderdduizenden afbeeldingen analyseren door gebruik te maken van Azure en haar mogelijkheden. Dit project was in de startende fase en toonde veel belovende resultaten. Het stelt Unigarant in staat alle fysiek binnenkomende documenten te analyseren op inhoud en deze tekstuele inhoud beschikbaar te stellen voor rapportages.

Tot slot was ik bij Unigarant deel van het team Business Intelligence. Ik hielp de informatielagen soepel te laten draaien, voorzag ik afdelingen van rapportages en ontsloot ik diverse bronnen. Tevens beantwoorde ik vraagstukken van eindgebruikers en instrueerde ik collega’s waar nodig (dit ten behoeve van selfservice).

YP Your Partner

Mijn werkzaamheden bij YP Your Partner heb ik samengevat in een drietal projecten:

  • Het eerste was het analyseren van de servers waarop de software draait (het product van dit bedrijf). Door foutjes in de programmatuur viel regelmatig een server uit en aan mij was de taak dit in kaart te brengen en te voorspellen. Het eindresultaat is een dashboard met daarin het overzicht van diverse metrics en KPI’s.
  • Na dit succes was ik officieus de leidinggevende geworden van de stagiairs, ook heb ik actief deelgenomen aan een voorspellende algoritme voor het UMCG ter preventie van stroom black-outs. Hierbij lag de nadruk op een tijdige waarschuwing wanneer een nieuwe zekering gebouwd moest worden (bij dergelijke stroomsterktes is een zekeringkast een klein gebouw).
  • Medio deze periode heb ik deelgenomen aan het project “Smart Machines” van het Innovatie Cluster Drachten. Dit initiatief had als doel voorspellend onderhoud mogelijk maken door de krachten van 9 bedrijven te combineren. Deelnemende bedrijven zijn onder andere Philips, Resato, ZiuZ. Dit project werd opgedeeld in meerdere kleinere werkpakketten waarvan ik de grootste en belangrijkste mocht leiden, zijnde het werkpakket “Analyse en algoritmes”. De grootte van dit team was afhankelijk van welke onderdeel werd behandeld maar lag doorgaans rond de 15 man. Tot mijn vertrek bij YP Your Partner liep het werkpakket op schema en waren de stakeholders tevreden.

Certificaten

Een lijst met mijn belangrijke certificaten tot dusver:

  • Z-900 Microsoft Azure Fundamentals (2021)
  • AWS Certified Machine Learning Specialist, Expert Level (2021)
  • AWS Certified Cloud Developer, Associate Level (2020)
  • AWS Certified Cloud Developer, Practitioner Level (2020)
  • OTP-AWSD1: AWS Developer (2020)
  • Cursus Alteryx (2019)
  • Cursus Azure Stack – DataBricks (2019)
  • Cursus Scrum (2019)
  • Aanvullende cursus Data Science bij Anchormen (1 dag / week) (2018-2019)
  • VCA-Vol (2016)
  • Master of Science, Technische Universiteit Delft (2014-2016) | Aerospace technology, track Aerodynamics en sub-track Wind energy