7 principes voor het kiezen van de juiste IT management software

Het kiezen van de juiste IT management software is het zoeken van een speld in een hooiberg lijkt het soms. Er is zoveel keuze en ze lijken allemaal hetzelfde te doen en ze zijn allemaal fantastisch….toch?

De realiteit is anders. In een wereld die sneller verandert dan ooit, door virtualisatie en commodity hardware is het extreem lastig geworden om voor je organisatie de juiste tools te kiezen.

Om je toch een beetje de juiste richting op te sturen zal ik hieronder 6 regels uitwerken. Ik hoop dat je er wat aan hebt.

Begin overnieuw

Ga er niet vanuit dat 1 van de tools die je in het verleden hebt aangeschaft nog werkt.

Veel bedrijven die al jaren aanwezig zijn klagen dat partijen als Google en Facebook veel harder innoveren, minder verstoringen kennen en dat met minder mensen en lagere kosten kunnen doen omdat ze geen legacy mee hebben te dragen. Ja het meezeulen van legacy systemen kost geld en tijd maar waarom zou jij er op voort moeten borduren? Datzelfde geldt voor IT management software. Als jij als organisatie de applicaties vernieuwd moet je ook op dit vakgebied vernieuwen. Ga er niet vanuit dat partijen die al bestonden toen jij begon nu nog de beste oplossing hebben.

Challenge the dinosaurs šŸ™‚

Kies freemium, kies voor eigen installatie en test alleen in productie

Er zijn een aantal trends zichtbaar in het IT management software vakgebied;

  • Software moet gratis te proberen zijn ook al is de feature-set van de gratis variant beperkt. Zelfs met een beperkte feature-set kun je een goed gevoel krijgen van de software.
  • Software moet je zelf kunnen installeren zonder Professional Services organisatie. Dit is de beste methode om te beoordelen of de tools eenvoudig in gebruik en beheer zijn en dat is cruciaal. Dit verkort de ROI en verlaagt de TCO enorm.
  • En dit is eigenlijk de belangrijkste; zorg dat je test in productie voordat je koopt. Het is eeuwig zonde als de tools in de acceptatie omgeving goed werken maar in productie zoveel overhead creĆ«ren dat ze onbruikbaar zijn. Scheelt een hoop geld en frustratie!

Wees voorbereid op virtualisatie

Virtualisatie is een niet te stoppen trend in organisaties en je software moet daar mee om kunnen gaan. Dit heeft namelijk gevolgen. Veel legacy software is niet in staat om de juiste counters uit te lezen of is Ć¼berhaupt niet in staat om te gaan met omgevingen die o.b.v gebruik opgeschaald of juist naar beneden bijgesteld worden.

Performance = latency of responstijd en niet resource gebruik

De belangrijkste KPI in de toolset nu en in de toekomst is performance maar dan gemeten als latency of responstijd. Dit dient gemeten te worden vanaf de eindgebruiker tot in de backend.

In het verleden werd performance gemeten in resource gebruik, bijvoorbeeld CPU gebruik. Dit is achterhaalt. In gevirtualiseerde omgevingen is dit zeer lastig te bepalen wat vaak foute cijfers oplevert en wat zegt het over de eindgebruiker? Niets toch?

Zorg voor 100% dekking, niet 95%

De 80 / 20 regelt gaat hier niet op. De te kiezen tool moet het gehele applicatie landschap omvatten. Zowel horizontaal als verticaal is het belangrijk om elk aspect van de keten in kaart te hebben. Dit wil niet zeggen dat je alles, altijd moet meten maar dat je op de cruciale momenten over de juiste gegevens moet kunnen beschikken.

Data moet real-time, voorspelbaar en volledig zijn

Gelukkig zijn de meeste legacy tools ook real-time en volledig maar zeker nog niet allen zijn voorspelbaar.

Real-time verklaart zichzelf. Het is nutteloos om bij Incidenten pas naar enkele uren over de gewenste data te beschikking. De wereld van vandaag gaat zo hard dat met een uur het hele land weet dat je een probleem hebt wat imagoschade oplevert. Volledig sluit hier naadloos bij aan. Als extra handelingen nodig zijn om het juiste inzicht te krijgen is de tool niet voldoende. Integraties tussen meerder tools zijn cruciaal in de software-maatschappij. Het correleren uit meerdere bronnen is cruciaal voor iedereen om de juiste beslissingen te kunnen nemen.

Voorspelbaar is misschien wel de meest interessante. Het instellen van signalen om Incidenten zo snel mogelijk de kop in te drukken is veel werk en vaak nog gebaseerd op instellingen die een aantal jaren geleden afgesproken zijn maar wie zegt dat dit realistisch is? Wie weet er in een gevirtualiseerde omgeving nog wat normaal gedrag is? Niemand dus het is enorm belangrijk dat de tool die je kiest zelf leert wat normaal gedrag is zodat het voorspellend vermogen optimaal is. Uiteraard moet dit constant bijgewerkt worden want wat vorige week normaal was hoeft nu niet meer zo te zijn.

Data moet naar een externe dataĀ opslagĀ gestuurd kunnen worden

Een tool die machine, agent, wire of synthetische data verzamelt moet zelf als generiek data opslag kunnen fungeren of moet de data 1-op-1 door kunnen zetten naar een externe data opslag. Dit is onder andere nodig om correlatie over alle databronnen te kunnen doen. Daarnaast wil je niet dat de data gemanipuleerd kan worden en deze data opslag zorgt ervoor dat de ruwe data altijd beschikbaar is.

Meer hierover in mijn blogpost over de externe data opslag.

Over Coen Meerbeek

Splunk consultant @ Blue Factory, eigenaar en oprichter @ BuzzardLabs, basketbalspeler en Xbox-gamer. Lees meer van Coen op Launchers.nl en Twitter.

Laat wat van je horen

*