Tietojen raportointia ja analysointia on harjoitettu koko IT-historian ajan. Nyt on erityisen kova boomi päällä, sillä liiketoiminta tarvitsee kipeästi enemmän, parempaa ja uudenlaista tietoa esimerkiksi asiakkaista, potilaista ja nyt myös laitteista. Tietokanta-, BI- ja analytiikkateknologia on kiihtynyt voimakkaaseen tuotekehittelyyn. Silti kaikki vanhat opit eivät ole romuttumassa.
Ennenkin panostettiin raportointiin
Aloitetaan pienellä historiakatsauksella. 80-luvulla pankissa kaikki järjestelmät olivat yhdellä suurkoneella. Raportointia varten rakensimme toiselle koneelle erillisen ns. Infokannan. Tiedot saatiin näin parempaan rakenteeseen Focus-kielellä ohjelmoituja raportointeja ja kyselyjä varten rasittamatta perusjärjestelmän tietokantaa laajoilla lukuoperaatioilla. Käyttöliittymät olivat kömpelöitä, mutta liiketoiminta sai hyödyllistä tietoa.
Myöhemmin olin rakentamassa Essolle myynninraportointijärjestelmää, PC –palvelimelle ja SQL Server 1.0 versiolla. Tietovarastoon ladattiin Exxonin Lontoon suurkoneelta asiakas-, tuote- ja myyntitiedot ja raportit saatiin ulos jo seuraavana päiväna entisen 1,5 kuukauden viiveen sijaan. Parempien raportointityökalujen puutteessa tuotepäälliköt ja myyjät koulutettiin yhden päivän SQL-kurssilla ja he oppivat hyvin käynnistelemään kyselyjä ja tekemään uusiakin.
Arsenal –roskapankissa piti yhdistää erillisten asiakas-, pankki-, laina- ja perintäjärjestelmien tiedot, jotta voitaisiin analysoida minkälaiset asiakkaat ja lainojen vakuudet oikein kaatuivatkaan Arsenalin haltuun. Käsitemallinnuksen jälkeen veimme lopulta yli 20:n järjestelmän tiedot tietovarastoon, josta saatiin omat ja viranomaisraportit ja paljon muuta. Tietovarasto oli osana kokonaisarkkitehtuuria. Tietoasiantuntijat osastoilla kyselivät MS Accessilla tietoja suoraan tietovaraston helppokäyttöisistä summatauluista.
Entä nykyisin?
Nykyisin on tarjolla suuri joukko edellä mainittuja paljon helppokäyttöisempiä ja visuaalisempia työkaluja, kuten Qlikview, Tableau ja Microsoftin työkalut.
Uusia erillisiä tietojärjestelmiä hankittaessa ei nykyisinkään huomata, että samalla tullaan muodostaneeksi siiloutuneita kotipesiä huipputärkeille tiedoille. Asiakkaiden tietoja on tilaus-, myynti-, CRM- ja asiakaspalvelun järjestelmissä. Entäpä asiakkaan klikkauskäyttäytyminen kotisivuilla ja asiakastyytyväisyyskyselytiedot? Ja somen tiedot kiinnostavat. Tarvittaisiin tästä kaikesta asiakkaan 360 asteen näkymä.
Myös kuntalaisten asiakas- potilastiedot eli sote-alue halutaan nyt nähdä kokonaisuutena. Potilastietoja on terveydenhoidon, hammashuollon ja erikoissairaanhoidon järjestelmissä. Sosiaalipuolen asiakas, hakemus- ja erilaiset tukipäätöstiedot ovat omassa laajassa järjestelmässään. Potilaat ja asiakkaat ovat niitä samoja kuntalaisia ja ne on voitava yhdistää.
Toimiva ratkaisu on nykyisinkin rakentaa erillinen tietovarasto, johon tuodaan riittävän laajasti tietoja eri lähdejärjestelmistä. Tietovaraston hyvä kokonaissuunnittelu käsite- ja tiedonmallinnusmenetelmillä on avainasemassa. Sen jälkeen toteutus kannttaa tehdä ketterästi pala kerrallaan, jossa tuloksia käyttäjille saadaa koko ajan.
Big Data ja analytiikka
On herännyt suuri kiinnostus edellä mainitun lisäksi ei-strukturoituun dataan, kuten tekstiin, kuviin ja lokitietoihin. Lisäksi uuden ison ryhmänsä muodostaa sensoreista ja antureista syntyvä mittausdata.
Potilaista aletaan kerätä talteen sitä mittausdataa, jota jo nyt kertyy sairaalan eri osastoilla potilaisiin kiinnitetyistä laitteista. Analysoimalla automaattisesti pieniä muutoksia potilaiden mittaustiedoissa on jo pystytty ennakoimaan sairaalabakteerin puhkeaminen huomattavasti aiemmin kuin ennen. Teollisuuden puolella esimerkiksi hissien antureista kerätään toimintadataa ja pienistä toiminnan muutoksista voidaan ennustaa huoltotarvetta jo ennenkuin varsinainen vika syntyy.
Ennustaminen on esimerkki uudenlaisista analytiikkatarpeista, jota varten tietoja tarvitaan paljon enemmän kuin aiemmin, siis big dataa. Myös ei-rakenteelliset datat, kuten teksti ja kuvat alkavat olla analyysin kohteena. Eräs asiakaspalveluyritys tutki asiakkailta saamiaan sähköpostiviestejä tekstianalyysiohjelmin ja analysoi milloin ja kuinka paljon eri asioita yhä uudelleen eri sanamuodoissa kysyttiin. Tulosten pohjalta pystyttiin parantamaan palveluja ja aikaansaamaan säästöjä.
Tulevaisuudessa uutta ja vanhaa
BI-ohjelmistot ja analysointityökalut tulevat kehittymään vielä huomattavasti nykyisistä. Liiketoimintaihmisille tarjotaan itsepalvelutyyppisesti helpompaa pääsyä isoihin tietomassoihin tekemään vaativiakin analyysejä tietokoneavusteisesti. Enää ei riitä peruutuspeilianalysointi, on panostettava ennustemalleihin.
BI-, tietokanta- ja analyysituotteiden iso kehitysboomi on menossa. Kaikki perinteiset toimittajat ovat kisassa mukana ja lisäksi vielä uusia open source -tuotteiden toimittajia. Relaatiokantojen rinnalle tulee Big Data –alueen Hadoop-ratkaisuja mahdollistaen isompien massojen, ei-strukturoidun ja virtaavan datan tallentamisen halvemmalla ns. Data Lake –ratkaisuihin, yhä useammin pilviratkaisuna.
Vanhaa on se, että meidän on edelleen ymmärrettävä datamme ja tässä käsite- ja tietomallinnus auttavat. SQL-kielellä on ikää jo yli 40 vuotta, mutta sen rooli on vain kasvamassa myös Big Data ja Hadoop–alueella. Edelleen on töitä ihan perinteisenkin ”small datan” saamiseksi helposti analysoitavaksi.
Tiedon hyödyntäminen on kasvamassa nyt hurjaa vauhtia. Kouluttautumalla ja kokeilemalla pysymme kehityksessä ei vaan mukana vaan toivottavasti kärkijoukoissa.
Nyt esimerkiksi vedän itse SQL-kursseja:
SQL-peruskurssi 09.02.2016 – 10.02.2016 Helsinki. Lisätietoa tästä
SQL Syventävät päivät 17.02.2016 – 18.02.2016 Helsinki. Lisätietoa tästä