About Arto Santala

Olen töissä räätälöityjen ohjelmistoratkaisujen parissa Solita- nimisessä firmassa, tämä blogi on kuitenkin omia, henkilökohtaisia mietteitäni varten. Käsittelen pitkälti ohjelmistokehitykseen liittyviä teemoja kuten Agile, SOA, ja erilaisia Java kirjastoja ja trendejä. Blogi on ennen muuta muistio itselleni, mutta sitä saa myös kernaasti kommentoida ;)

Java 9 on ulkona

No niin, tällä kertaa vain nopea heads-up, eli Java 9 putkahti juuri putkesta:

http://www.oracle.com/technetwork/java/javase/downloads/index.html

Olen blogaillut tästä jo useampia kertoja, mutta nyt on aika asentaa se ja ottaa ensisavut, katsoa miten release versio toimii käytännössä.

jrepl ja modulet paukkumaan.

[edit]

Tuikataan nyt heti tähän huomio: Spring 1.x ei futaa JDK 9 kanssa, ei siis käänny, eikä tulekaan kääntymään. Siellä on sorkittu JDK internalseja joita ei enää ysissä saa sorkkia.

Spring 2 tulee tukemaan Java versiota 9 – Milestonesta 4 alkaen pitäisi jo periaatteessa tukea. En ole vielä ehtinyt varmentamaan.

Mainokset

GDPR – Tietosuoja ja sovelluskehitys osa 1

Pyydän jo etukäteen anteeksi, tämä jos mikään on TL;DR settiä. Asiaa on vain aika vaikeaa kuvata ytimekkäästi, tahoja on monia. Jos artikkelin pituus haittaa lukemista, asennoidu lukemaan vaikka yksi kappale päivässä. Ota mukaan yhtälöön kupillinen mielijuomaasi, ja hyvää musiikkia taustalle, niin kyllä se siitä. Lupaan että substanssi on rautaa, kuittaa kommentteihin jos olet eri mieltä – saa toki kuitata vaikka olisi samaakin 😉

Totean myös, että en ole lakimies, ja tällä hetkellä tietosuoja-asetuksessa on monia alueita joista edes lakimiehet eivät voi sanoa mitään varmaa. Paras viisaus on jälkiviisaus, ja vuonna 2027 osaan kertoa faktaa. Tässä kohtaa kaikki blogautusten pointit edustavat omia näkemyksiä, jotka ovat ilman muuta ainutlaatuisen arvokkaita ja fiksuja. Mutta osa niistä on väistämättä tässä kohtaa ennustellessa väärin, ja tulkinnat tulevat sen aikanaan todistamaan. Toivon kuitenkin että mahdollisimman pieni osa.

Miksi jotain kannattais tehdä?

Tietosuoja-asetuksen siirtymä-ajan päättyessä 2018, sovellukset jotka eivät tue uusia vaatimuksia ja käyttäjän oikeuksia, muodostavat merkittävän liiketoiminnallisen riskin yrityksille. Olemassaolevien sovellusten, järjestelmien, rekisterien ja infran osalta muutos on kivuliaampi. Helpompi on alkaa tutkailemaan ihannetilaa uusien sovellusten osalta, joita vielä vasta suunnitellaan tai rakennetaan, ja tulevaisuuden sovellusten osalta, joita tullaan rakentamaan jatkossa. Ajatuksena on, että aikaa myöten opitaan ottamaan tietosuojavaatimukset huomioon automaattisesti, ja niistä tulee yhtälailla sisäänrakennettu osa kaikkea tekemistä kuin esim. sovelluksen toimivuuden testauksesta eri selaimissa. Ja tätä myöden myös kuluja saadaan alas/opitaan laskemaan ne luonnolliseksi osaksi tekemistä ja testaamista.

Ok, tylsä johdanto. Terästetäänpä tätä toisin. Kun Harri H Hakkeri eräänä päivänä penetroi systeemin ytimeen, haluamme rajoittaa riskiä siitä miten paljon sakkoja tulee maksettavaksi, ja kuinka laajaa osaa asiakasrekisteriä joudut kontaktoimaan tietosuojamurron osalta, sekä millä sävyllä iltapäivälehdet repostelevat asiaa.

On väärinkäsitys ajatella myös, että tämä koskee vain suuria organisaatioita. Sen verran uskaltaudun ennustamaan tulevaisuutta, että muutamakin keskikokoinen paja tulee ajautumaan konkurssiin jos tietosuojan kanssa ollaan leväperäisiä tai peräti röyhkeitä. Tietämättömyys tai pää puskaan-strutsiefekti ei ole tässä puolustus tai suojautumiskeino, päinvastoin. Se että yrittää vaikkei 100% onnistuisikaan, lasketaan todennäköisesti eduksi ja sakkoja tai sakon uhkaa merkittävästi pienentäväksi tekijäksi.

TL;DR

No, tässä kuitenkin tiivistelmä, mitä tulisi huomioida sovelluskehityksessä vuonna 2017, ja projekti/järjestelmätasolla noin muutenkin. Jos muistan, rupattelen infratason ratkaisuista ja hallinnasta, ja organisaatiotason prosesseista lisää toisella kertaa.

  • Riskilähtöisyys: tunnista, minimoi, dokumentoi
  • Henkilötietojen esiprosessointi: Tunnista, minimoi, dokumentoi
  • Sama juttu 3. osapuolien riippuvuuksien osalta: tunnista, minimoi, dokumentoi
  • Sama juttu henkilötiedon prosessoinnin osalta myös sisäisesti: tunnista, minimoi, dokumentoi
  • Tiedon elinkaari: määrittele,minimoi, toteuta, dokumentoi
  • Varmuuskopiot ja arkistointi, huomioi kaikki edellämainitut
  • Testidata, huomioi kaikki edellämainitut
  • Testiympäristöt, tarkkana myös tämän kautta
  • Verkkoinfra, verkkosegmentointi, minimoidaan vahingot, maksimoidaan jäljet
  • Tietoaineiston suojaus: anonymisointi,pseudonymisointi,salaus
  • Käytön valvonta, monitorointi, hälytykset
  • Kyvykkyys osoittaa tehdyt toimenpiteet, ja prosessien toteutuminen
  • Murtautumistapauksessa: prosessien tuki, forensiikka, hälytykset
  • Tietoturva-ja muut päivitykset
  • CI- ja CD- toimitusputkien suojaus ja tietoturva
  • Huom. Myös availability, saatavuus, on tietosuoja-huolenaihe
  • Henkilön oikeudet uuden tietosuoja-asetuksen alaisuudessa, käytännön toteutus?

 

Oletusarvoinen tietosuoja tähtää aikalailla samaan asiaan kuin itse tietosuoja-asetuskin – riskipohjaiseen lähestymistapaan. Ja se taas tarkoittaa että matalan riskin järjestelmiä voidaan suojata keveämmin kuin korkean riskin järjestelmiä. Eli askel numero 1…

Tunnista henkilötiedot, tunnista riskit

Tietosuoja-asetuksen kannalta riskin näkökulma on vähän eri kuin yrityksen kannalta – mutta riskin kohde on silti sama, henkilötiedot. Aiemmin puhuttiin jo siitä, miten tietoa voidaan tunnistaa, luokitella. Järjestelmissä on paljon tietoa, joka ei ole tietosuoja-asetuksen mielessä kiinnostavaa, mutta on silti ollut – ja tulee olemaan – hyvin tarpeellista suojata, esim. tuotetiedot, strategiat, ennusteet. Se mitä ei tietosuoja-asetus määritä henkilötietoksi, on kuitenkin oman harkinnan mukaan edelleenkin vapaasti suojattavissa ja käytettävissä, miten halutaan. Henkilötiedon suojaamiseen taas löytyy GDPR suunnalta kättä pidempää.

Se, minkä voi rajata pois tietosuojalain tarkoittaman henkilötiedon piiristä, voidaan salata – tai jättää salaamatta – vapaasti miten halutaan.

Tietosuoja-asetuksen välineenä käytetään pitkälti DPIA analyysiä. DPIA, eli Data Protection Impact Analysis, on vaikutusten arvioinnin malli, jolla voidaan analysoida riskikulmaa. Ennestään käytössä on monessa yrityksessä ollut PIA, Privacy Impact Assessment, joka on tähdännyt samalle alueelle, mutta hieman laveammalla pensselillä. Molemmissa on ajatuksena määrämuotoinen ja kattava tarkastelu järjestelmässä kerättävälle tiedolle. Molemmat perustuvat riskien hallinnan ajatukseen. Eli analysoidaan kerättävän tiedon riskien taso, ja sen jälkeen, riskipohjaisesti, sovelletaan sopivia kontrolleja, kunnes riski saadaan laskettua hyväksyttävälle tasolle.

DPIA mallia ei tarvitse soveltaa joka järjestelmään, mutta jonkinmoinen esikarsinta olisi tietysti aina hyvä tehdä. Periaatteessa järjestelmän tavoiteltu tietosuojataso määräytyy aika yksinkertaisesti sen mukaan, mikä on sen sisältämä riskialttein yksittäinen tieto, eli vaikka muu järjestelmä olisi aika tylsä, jos yhdestä taulusta löytyy sairauspoissaolojen syitä, se määrittää aikalailla järeimmän kautta suojaustarpeen.

Tähän väliin on hyvä todeta oma lempiteesini. Sataprosenttista tietoturvaa ei ole. Sataprosenttista tietosuojaakaan ei ole. Jokainen järjestelmä voidaan murtaa, jokaiseen dataan päästä käsiksi, jos tarkastellaan asiaa rajattoman ajan, ja rajattoman budjetin suunnasta. Lisäksi tietojärjestelmät elävät mutatoituvassa maailmassa – järjestelmä joka on tänään 99% turvallinen, kokee muutoksia vuoden aikana, ja voi ensi vuonna ollakin vain 70% turvallinen, koska sen ympäristöön on vuoden aikana tullut uusia komponentteja, avauksia, muutoksia, tai vanhoista komponenteista on löytynyt haavoittuvuuksia. Yksi suurimmista tietoturva-haavoittuvuuksista on security misconfiguration, eli virhe ympäristöjen asetuksissa, ja niitä pujahtaa sisään helposti myös järjestelmiin jotka olivat luotaessa arkkitehtuurisesti kauniita ja täydellisiä. Kun huomioidaan prosessit, ympäristöt, teknologiat, muuttujia on vain niin paljon, ettei kukaan voi väittää hallitsevansa niitä kaikkia, nyt ja aina, ja vaikka istuisit palvelimen päällä haulikko kädessä vahdissa 24 tuntia vuorokaudessa, niin mörkö pujahtaa sisään heti jos herpaannut hetkeksi. Ja ensi vuonna voi olla että istut väärän palvelimen päällä.

Eli, ainoa oikea lähestymistapa on tunnistaa suurin riski, madaltaa sitä sopivin keinoin, ja jatkaa kunnes ollaan hyväksyttävällä riskitasolla. Lisäksi tätä ei voi tehdä kertarysäyksenä, projektina, vaan tietosuojan täytyy olla jatkuva prosessi.

Tai vielä mielummin sisäänrakennettu, läpinäkyvä osa prosesseja, kaikkea tekemistä. Siihen on vielä useimmilla yrityksillä pitkä aika. Valitettavasti monet ottavat lähtölaukauksen tekemiseen vasta ensi kesänä, kun uhat alkavat toden teolla realisoitumaan.

Tietosuoja-asetuksen kannalta erityisriskin muodostavia tietoja, joihin tulee kiinnittää erityistä huomiota, ovat mm.

  • Alaikäisistä rekisteröidyistä kerätyt tiedot (vaikka rekisteröity sittemmin olisi jo täysi-ikäinen)
  • Rotu,uskonto,politiikka,terveydentila,rikosrekisteri eli eiheet jotka monen mielestä eivät ole hyviä ruokapöytäkeskustelun aiheita (mutta omasta mielestäni niitä kiintoisimpia, moukka kun olen!)
  • Biometriset tunnisteet

Eli näitä tietysti suojataan rankimman kautta. Hyvä huomata kuitenkin, että ns kovan ja yksilöivän henkilötiedon ohella, myös identiteettiin liittyvää tietoa koskee moni tietosuoja-vaatimus, esim. henkilön oikeudet. Ja se mikä liittyy identiteettiin voi joissain tapauksissa olla yksilöivää, ’jos yksilöinti voi tapahtua kohtuullisella vaivalla tietoja yhdistelemällä’ – esim. muutama erillinen paikkatieto, tai erityinen tietopaketti harvaan asutulla alueella, jne – eli samalla lailla kuin itse identifioivaa tietoa, voi varautua suojaamaan myös identiteettiin liittyviä tietoja.

Toinen tapa lähestyä riskiä on miettiä ihan terveellä järjellä, miten suuren riskin REKISTERÖIDYLLE muodostaa, jos tämä tieto julkaistaisiin iltapäivälehden etusivulla. On hyvin tärkeää muistaa, että tietosuoja-asetuksen riskianalyysissä riskin näkökulma on aina rekisteröity, ei rekisterinpitäjä. Se näkökulma määrää, miten raskaasti tietoa tulisi suojata ja vartioida.

Toisaalta samoja periaatteita voi myös soveltaa muuhun sensitiiviseen tietoon, vaikka ei henkilötietoa olisikaan. Se ei ole tietosuoja-asetuksen kannalta mielenkiintoista, mutta voi olla liiketoiminnan kannalta hyvinkin mielenkiintoista.

Minimoi ja dokumentoi kerättävä tieto

No niin, nyt tulee se hyvä uutinen. Paras tapa keventää kuluja ja suojauskontrollien tarvetta, on olla keräämättä sitä henkilötietoa alunperinkään. Ennen vanhaan oli tapana keräillä kaikenlaista ihan vain varmuuden vuoksi, ties vaikka sitä jossain raportissa tai analyysissä kaivattaisiin, ja miksikäs ei. Sellainen lähestymistapa ei enää tietosuoja-asetuksen aikana kanna pitkälle.

Nyt kannattaa aloittaa miettimällä, mitä tietoa todella tarvitaan, ja millä oikeudella sitä kerään, varastoin, prosessoin. Tämä osa kannattaa dokumentoida hyvin, ja keskustella niistä harmaista alueista, joista ei olla varmoja. Voi myös miettiä sitä, voiko henkilötietoja eristää esim. omaan erilliseen järjestelmään, palveluun, kantaan, tauluun, jota voidaan suojata järeämmin kuin muita.

Sen ohella että minimoidaan siis ’leveyssuunnassa’ kerättävää tietoa – kyseenalaistamalla jo alun alkaen mitä kenttiä laitetaan, mitä tietoja kysellään – kannattaa myös huomioida aikadimensio, eli minimoida miten pitkään tietoja säilytetään. Minimointi ei tarkoita, että kaikki tieto pitäisi heti pyyhkiä, mutta tiedon elinkaaren suunnittelu on erittäin hyvä käytäntö ottaa mukaan tietomalliin alusta alkaen. Elinkaari voi olla vaikkapa puoli vuotta, tai viisi vuotta, kymmenen vuotta, jne. Mutta kun se ymmärretään, dokumentoidaan, ja toteutetaan, on taas pienennetty merkittävästi hyökkäyspinta-alaa.

Jos tapahtuu se pahin, eli huomataan tietomurto tai väärinkäytös järjestelmän ytimessä, muualle arkistoitu ja erikseen suojattu, tai täysin poistettu tieto voi olla sellaista, jota tietomurron ei katsota koskevan, ja näin ollen joudutaan kontaktoimaan vain niitä, joiden tiedot ovat aktiivisessa kannassa. Lisäksi tämäntyyppinen elinkaariajattelu ja suojauskontrollit lasketaan eduksi jos joudutaan jotain sakkorangaistuksia tai muita sanktioita miettimään.

Mutta siis, vanha tapa kerätä kaikki mahdollinen, ja säilyttää sitä ajan tappiin on huono käytäntö, ja sitä ei enää pitäisi harrastaa. Ja jos tiedon pinta-alaa tai säilytysaikaa ei pysty fiksusti minimoimaan, ainakin se kannattaa dokumentoida. Dokumentaatiota tulisi tuottaa sekä järjestelmäkehityksen ja ylläpidon tarpeisiin, että myös rekisteröidyn selosteeseen, jotta läpinäkyvyyden periaate toteutuu. Ja jos rekisteröity pystyy ymmärtämään kerätyn tiedon laajuuden, syyt, ja elinkaaren sen perusteella, pyynnöt esim. poistaa tietojaan järjestelmästä saattavat harventua.

Varaudu kuvaamaan MITÄ kerätään, MIHIN tarkoitukseen, ja MITEN sitä prosessoidaan (aka keiden toimesta). Varaudu tarjoamaan yhtä helpot keinot myöntää lupia tiedon keruuseen ja käyttöön, kuin lupien tarkistamiseen ja poistamiseen.

Minimoi pääsy

Tietosuojassa ei ole kyse vain ulkoisista tietomurroista, yli 30% väärinkäytöksistä tapahtuu verkon sisäpuolella, usein omien työntekijöiden, nykyisten tai entisten, toimesta. Huonosti suunnitellussa (tai monimutkaisessa, suurikokoisessa, iäkkäässä) verkossa voi olla myös pääsyä partnereilla, ulkoisilla työntekijöillä, konsulteilla, vuokratyöntekijöillä, tai miksei myös sovelluskehittäjillä, ylläpitäjillä, järjestelmätoimittajilla, jne.

Motiiveja voi olla esim. uteliaisuus, pyrkimys hyötyä, vandalismi, jne. Tietosuoja-asetus on tältä osin hyvin yksinkertainen. Henkilötietoon ei tulisi olla pääsyä enempää kuin mitä on tarpeen. Se mitä on tarpeen tulisi olla dokumentoituna. Eli ei ole kiellettyä että ylläpitäjillä on pääsy tietoon, kunhan se on läpinäkyvää. Eri asia on millaisen riskin se muodostaa.

Jos jotain tapahtuu, pääsyn minimointi myös voi rajoittaa vahinkoja, tai parantaa mahdollisuuksia näyttää toteen, mitä osaa tietoja tietomurto tai tietosuojaloukkaus koskee.

Näissä on hyvä suunnata huomiota terveydenhuollon järjestelmien suhteen, Suomessa ja muualla. Niissä on jouduttu jo iät ja ajat huomioimaan potilastietojen luottamuksellisuus, ja sieltä löytyy hyvin ideoita, käytäntöjä, toimintatapoja. Eri asia on, onko niitä terveydenhoidon järjestelmissäkään aina toteutettu ideaalisti. Mutta siellä on jouduttu jo pitkät ajat vastaamaan tällaiseen vaatimukseen.

3. osapuolen prosessointi

Tietosuoja-asetus ei estä sitä että dataa voi nyt ja jatkossakin prosessoida myös 3. osapuoli. Itse asiassa, prosessoijaksi kun lasketaan myös esim. pilvipalvelutarjoajat, kuten Amazon AWS, ja Microsoft Azure, enenevässä määrin toimitaan ympäristössä jossa on useampia osapuolia prosessoijina.

Nyt mennään alueelle joka ei ole omaa vahvinta aluetta: Lakipykälät ja niiden tulkinta. Mutta vapaasti oman ymmärryksen mukaan tärkeää on huomioida tämän osalta dokumentointi, ja sen mukana tulee luonnollisesti muut hyveet, kuten tiedon ja pääsyn minimointi ja suojaus, sekä sopimukset. Sopimustekniikka tulee varmaan tässä vielä kehittymään vuoden sisään, esim. Amazon on luvannut että ensi vuoden kesään mennessä tulee olemaan tietosuoja-asetuksen edellyttämät asiat huomioituna palvelusopimuksissa.

Se missä tulee olla tarkkana, on yhteisen vastuualueen kasvu, ja se missä rajat kulkevat. Moderni tietojärjestelmä on kokonaisuus jossa on aika monia tahoja. Jos nyt sattuisi että esim. AWS vastuunjakomallin mukaisesti tietosuojaloukkaus on tapahtunut 3. osapuolen tontilla, esim. medioiden huolimattoman hävityksen, tai fyysisen tietoturvan puutteen vuoksi, kantaako Amazon myös rahallista vastuuta sakoista, ja minkä firman liikevaihdon mukaan se menee? Entä jos 3. osapuoli ei olekaan AWS, joka sinällään on rutinoitunut ja ison talon koneisto, vaan autotallissa majaileva analytiikkafirma?

Mitä ajan takaa tässä, on pari huomiota. Tulkinnat tulevat elämään ja muotoutumaan vielä vuosia, sitä mukaa kun ikäviä asioita tapahtuu. Ja jatkossa ei riittäne pestä käsiään tietoturvasta ja tietoturvasta siinä kohtaa kun data siirtyy 3. osapuolen käsiin. Yhteisvastuullisuus on päivän sana, ja hyvä niin.

 

Jatkuu ensi numerossa…

No niin, kuten varoittelin, tästä tulee pitkä juttu. Kulmia on monia. Kirjailen lisää ajatuksia toisella kertaa, mennen lähemmäs kehittäjän konkretiaa. Osa näistä asioista, kuten 3. osapuolen sopimukset, eivät ole välttämättä heti toimittajan mielestä ehkä asioita joihin voi vaikuttaa, mutta softaprojektissa tulisi asianmukaisen matkaopastelijan kiinnittää huomiota siihen, miten asiat kokonaisuutena tehdään. Jos joku osa-alue on rempallaan, siitä kannattaa keskustella, ja kiinnittää huomiota, vaikka sieltä voisikin löytyä lisäkuluja.

Osittainen tietoturva on hyödytöntä tietoturvaa.

 

GDPR – henkilön (uudet) oikeudet

Uuden tietosuoja-asetuksen alla henkilöllä on terävöitettyjä oikeuksia, kuten oikeus poistaa tietonsa (right of erasure/right to be forgotten), tai siirtää niitä, ja tietysti myös tarkistaa ja korjata niitä. Tässä voi tulla muutama suorastaan ironinen ongelma vastaan – miten voimme varmuudella yksilöidä ja ennenkaikkea tunnistaa kaiken henkilöön liittyvän tiedon?

Screenshot 2017-06-28 10.01.52

Otetaan skenaario, Harri A Tötteström, asiakkaamme, ottaa yhteyttä ja haluaa 25.5.2018 poistaa tietonsa järjestelmästä. Kehen hän ottaa yhteyttä? Miten prosessi etenee? Vai saako tätä itsepalveluna?

Tunnista

Ensimmäinen temppu on tunnistaa Harri varmasti. Miten sen teemme? Jos käytössä on sähköinen id ja tunnistus jo ennestään, homma hoituu sillä. Jos ei, miten tunnistetaan? Asetus erikseen mainitsee, että tunnistamisen vaikeus ei ole syy evätä pyyntö. Tarvittaessa tulee hyväksyä Harrilta riittävä määrä tietoja, että voidaan varmasti tunnistaa. Tullaanko näyttämään passi paikan päälle? Piisaako lista henkilökohtaisista tiedoista identifioimaan? Tätä pitää terävöittää useimmissa yrityksissä.

Mitä jos meillä ei ole rekisterissä varmaa tunnistetta, vaan vain etunimi+sukunimi-pari?

Tarkista

Seuraava askel on tarkistaa, onko pyyntö validi. Jos kyseessä on esim. asiakassuhde, ja tiedot ovat toiminnan jatkamisen kannalta välttämättömiä, ja Harri ei ole päättämässä asiakassuhdettaan, tietojen poistoa ei voitane tehdä, ja tästä tulee tiedottaa Harrille. Muita syitä evätä pyyntö on jos Harri yrittää poistaa jonkun muun tietoja, tai jos lainsäädäntö vaatii tietojen säilyttämistä. Henkilön oikeudet ovat tässä kuitenkin hyvin vahvat, ja erityisen tärkeää on, että vastaus pyyntöön tulee 1kk kuluessa pyynnön esittämisestä. Kuulostaa että siinä olisi paljonkin aikaa, mutta ellei tätä prosessia ole jo jumpattu hyvissä ajoin, ja aletaan vasta pyynnön tultua pähkäilemään, ollaan pulassa.

Suorita

Päästiinkö tänne asti? Rekisteröity on tunnistettu, pyyntö on validi, ja nyt pitäisi toimittaa. Pari uutta haastetta ratkaistavaksi. Voiko henkilötiedot oikeastaan poistaa järjestelmästä ilman että viite-eheydet kärsivät tai ilmenee bugeja? Useimmissa tapauksissa voi olla turvallisempaa suorittaa poisto päällekirjoittamalla, anonymisoimalla tiedot tarpeeksi vahvasti. Tätäkin tulee järjestelmän tukea, esim. jos anonymisoinnissa poistetaan henkilötunnus, puhelinnumero, jne, järjestelmän tulee siitä huolimatta toimia. Tämä ei välttämättä toimi etenkään vanhoissa järjestelmissä ihan oikein. Jos kylmästi poistetaan tietorivejä, tulee ymmärtää miten ne liittyvät toisiinsa, katsoa että poistetaan tarpeeksi, mutta ei liikaa.

Tässä voi herätä ajatus, että ainakin alkuun palvellaan muutamia pyyntöjä käsin, manuaalisilla prosesseilla. Se on ihan validi ajatus, joskin täytyy tarkistaa, että siinäkin toteutuu muut tietosuojan edellyttämät vaateet, esim. minimointi tietoihin pääsyyn, ja kyky näyttää toteen kuka pääsi tietoon, ja mitä tiedolle on tapahtunut. Jos logataan sql:llä suoraan kantaan, tämä voi toteutua, tai sitten olla toteutumatta.

Tähän kohtaan ei ole mitään fiksua viisasten kiveä jaossa. Manuaalisia prosesseja tullaan tarvitsemaan jossain määrin, mutta niiden kanssa täytyy olla tarkkana, tai ne avaavat lisää tietosuojahaavoittuvuuksia tai riskejä, ja ihan liiketoiminnallisiakin riskejä. Itse vihaan manuaalisia prosesseja, ja jonain päivänä automatisoin ne kaikki, se on minun riskiretkeni. Mutta reaalimaailmassa tähän voi parhaiten vaikuttaa uusien ja tulevien tietojärjestelmien osalta. Muille pitää luoda paras mahdollinen ratkaisu nykytilassa, ja tarpeen vaatiessa laittaa parannuksia roadmapille. Yksi idea voi olla esim. datan virtualisointi abstraktiokerrokseen, jossa valvotaan pääsyä ja tekemisiä. Mutta se ei ole yleensä halpaa.

Jutustelen myöhemmin sovelluskehityksen näkökulmasta miten asiaa kannattaa taklata, mutta tärkeintä on että tietomalli sallii poisto- ja siirtopyynnöt, siitä lähtee kaikki.

Anna mun kaikki tiedot, kiitos

Toinen mielenkiintoa herättävä pyyntö on saada kaikki itsestään kerätyt tiedot konekielisessä yleisessä siirtomuodossa. Tämä on uudistus jo aiemmin voimassaolevaan direktiiviin, jossa oli mukana oikeus tarkistaa tietonsa. Nyt puhutaan tietojen siirtämisestä. Se voi tapahtua siten, että rekisteröity lataa tietonsa, esim. csv, xml, json muodossa itsepalvelukäyttöliittymässä, mutta asetus rohkaisee myöskin kehittämään valmiuksia siirtää tietoja suoraan toisille vastaaville palveluntarjoajille, ilman että rekisteröidyn täytyy toimia välissä. Se, millä toimialoilla tässä on järkeä, tietysti vaihtelee.

Mutta Harri T esittää taas siis pyynnön. Anna mun kaikki tiedot, kiitos. Aikaa kuukausi – tai kolme kuukautta jos pyynnön toteuttaminen on erityisen hankalaa syystä tai toisesta. Mitä tapahtuu?

Samat kuin aiemmin. Tunnista vahvasti. Tarkista pyynnön validiteetti. Jos kaikki näyttää hyvältä, on aika miettiä, mitä tietoa laitetaan pakettiin. Asetuksen mukaan pakettiin pitäisi tulla kaikki henkilöstä suoraan kerätyt ja henkilön itse toimittamat tiedot, mutta pakettiin ei kuulu tiedot jotka on näistä johdettu, analysoitu, tai jotka edustavat liiketoiminnallisia salaisuuksia. (No, asetus ei itseasiassa mene näin tarkkoihin lausuntoihin, mutta Working Party 29 tulkinnat tarkentavat). Hyvä huomata myös artiklan 23 asettamat rajoitukset siihen milloin näitä oikeuksia ei voi harjoittaa.

Mielenkiintoinen kohta tulee, jos henkilön tietopaketti sivuaa toisen henkilön tietoja. Jätän kotitehtäväksi selvittää mitä sitten tapahtuu. Vinkkinä voin kertoa, että se ei ole syy evätä pyyntöä saada tietonsa.

Ai niin, ja tämä oli se kohta josta on tarjolla 20 miljoonan sakko tai suurempi, jos homma ei toimi.

Otetaanpa tuosta vielä maistiainen lakipykälää, tietosuoja-asetuksen peruslausunto (recital) 68:

Jotta voitaisiin edelleen vahvistaa rekisteröityjen oikeutta valvoa henkilötietojaan silloin, kun henkilötietojen käsittely suoritetaan automaattisesti, rekisteröidyn olisi myös voitava saada häntä koskevat henkilötiedot, jotka hän on toimittanut rekisterinpitäjälle, jäsennellyssä, yleisesti käytetyssä, koneellisesti luettavassa ja yhteentoimivassa muodossa ja siirtää ne toiselle rekisterinpitäjälle. Rekisterinpitäjiä olisi kannustettava kehittämään yhteentoimivia muotoja, jotka mahdollistavat tietojen siirtämisen. Tätä oikeutta olisi sovellettava silloin, kun rekisteröity on antanut henkilötiedot oman suostumuksensa perusteella tai kun käsittely on tarpeen sopimuksen täytäntöönpanemiseksi. Sitä ei sovelleta silloin, kun käsittely perustuu muuhun lailliseen perusteeseen kuin suostumukseen tai sopimukseen. Tämä oikeus on luonteeltaan sellainen, ettei sitä olisi käytettävä niitä rekisterinpitäjiä vastaan, joiden julkisiin velvollisuuksiin henkilötietojen käsittely kuuluu. Siksi sitä ei pitäisi soveltaa silloin, kun henkilötietojen käsittely on tarpeen rekisterinpitäjää koskevan lakisääteisen velvoitteen noudattamiseksi tai yleisen edun vuoksi toteutettavan tehtävän suorittamiseksi tai julkisen vallan käyttämiseksi. Rekisteröidyn oikeus siirtää tai vastaanottaa häntä koskevia henkilötietoja ei saisi luoda rekisterinpitäjille velvoitetta hyväksyä tai ylläpitää tietojenkäsittelyjärjestelmiä, jotka ovat teknisesti yhteensopivia. Jos tietyssä henkilötietoja sisältävässä tietojoukossa tiedot koskevat useampia kuin yhtä rekisteröityä, oikeus vastaanottaa henkilötietoja ei saisi rajoittaa toisten rekisteröityjen tämän asetuksen mukaisia oikeuksia ja vapauksia. Tämä oikeus ei saisi myöskään rajoittaa rekisteröidyn oikeutta saada henkilötiedot poistetuiksi eikä tämän asetuksen mukaisia rajoituksia kyseiseen oikeuteen, ja se ei etenkään saisi merkitä niiden rekisteröityä koskevien henkilötietojen poistamista, jotka tämä on antanut sopimuksen täytäntöönpanoa varten, siinä määrin ja niin kauan kuin henkilötiedot ovat tarpeen sopimuksen täytäntöönpanoa varten. Kun se on teknisesti mahdollista, rekisteröidyllä pitäisi olla oikeus saada henkilötiedot siirrettyä suoraan rekisterinpitäjältä toiselle.

Muut oikeudet

No niin, nämä oikeudet ovat saaneet eniten huomiota, mutta ei pidä laiminlyödä muitakaan. Aika pitkälle tosiaan päästään jos muistetaan nämä:

  • Tietojen keruun ja käsittelyn tulee olla läpinäkyvää
  • Henkilöllä tulee olla helppo pääsy siihen mitä tietoja hänestä on kerätty, miksi, ja mikä on niiden elinkaari
  • Pitää olla helpot keinot poistaa tietonsa järjestelmistä, kun niiden säilytykselle ei ole enää perustetta, tai ladata ne itselleen tai kolmannelle osapuolelle käyttöön
  • Kaiken tämän tulee tapahtua tietoturvallisesti ja tietosuojaa kunnioittaen
  • Rekisteröidyllä tulee olla mahdollisuus tarkastaa myös luvituksensa, ja peruuttaa niitä yhtä helposti kuin antaa niitä

Nämä johtavat kohden keskitettyä tunnistamista, ja jonkunmoista identiteetin ja lupienhallinnan näkymää/portaalia, jossa on paljon itsepalveluita. Pakko ei ole moiseen ryhtyä, mutta pitkällä juoksulla homma tulee varmasti halvimmaksi, ja tätä kauttahan ne uudet liiketoimintamahdollisuudet avautuvat. Jos lupien antaminen ja peruuttaminen on helppoa, se rohkaisee antamaan niitä pienemmilläkin täkyillä, ja avaamaan henkilötietojensa käyttöä jopa rohkeammin alueille joille ei ole vielä menty.

Automaattinen poisto

Aika paljon rahaa säästää myös, jos alusta alkaen sovelletaan kerättyjen tietojen minimointia hyvänä periaatteena järjestelmäsuunnittelussa. Minimoinnissa on kaksi tärkeää pointtia: Kerätään vain se mitä on tarpeen, ei tarpeetonta. Ja säilytetään sitä tietoa vain sen verran mitä on tarpeen, sen jälkeen arkistoidaan, ja aikanaan automaattisesti poistetaan. Jos nämä prosessit on myös selkeästi kuvattu tiedon keruun yhteydessä, tarvetta erilliselle tietojen poistolla asiakassuhteen päätyttyä on vähemmän. Arkistointivaihe välissä voi olla tarpeen, ja se voi olla esim. kuudesta kuukaudesta vuosiin, riippuen vähän siitä, millaisia tarpeita kerätylle tiedolle on jälkeenpäin.

Tämä edellyttää kuitenkin prosessijumppaa, ja se on organisaatioille aina paljon kivuliaampi ja hitaampi ratkaisu kuin joku järjestelmähankinta tai koulutus.

Ensi kerralla lisää tiedon suojaamisen keinoista, ja sovelluskehitys/hankintanäkökulmista.

GDPR – Tiedon tunnistaminen ja luokittelu

Kirjailin taannoin blogautuksen yleisesti GDPR tietosuoja-asetusta koskien. Nyt on aika pureutua tarkemmin muutamaan osa-alueeseen. Otetaanpa ensin taklaukseen tiedon dokumentointi, henkilötiedon tunnistaminen, löytäminen, ja luokittelu. Kaikki kiteytyy kysymykseen: Mikä on henkilötietoa?

Perinteisesti organisaatioissa on totuttu suojaamaan sensitiivistä tietoa tarvittavassa määrin, esim. luokittelemalla tiedot neliportaisella mallilla, esim. public, internal, sensitive, confidential/restricted/critical. Tämän ohella on suojattu raskaamman kautta esim. maksutiedot, tilitiedot, luottokorttitiedot, jotka vääriin käsiin joutuessaan voivat aiheuttaa taloudellista vahinkoa ja maineenmenetystä raskaimman kautta (Esim. Sony). Myös terveydenhoito-alalla on totuttu suojaamaan ja valvomaan pääsyä rekisteröityjen terveystietoihin.

Tietosuoja-asetuksessa suojauksen tarve laajenee. Asetuksessa mainitaan henkilötiedon määritelmäksi seuraavaa (artikla 4):

Tässä asetuksessa tarkoitetaan 'henkilötiedoilla' kaikkia tunnistettuun tai tunnistettavissa olevaan luonnolliseen henkilöön, jäljempänä 'rekisteröity', liittyviä tietoja; tunnistettavissa olevana pidetään luonnollista henkilöä, joka voidaan suoraan tai epäsuorasti tunnistaa erityisesti tunnistetietojen, kuten nimen, henkilötunnuksen, sijaintitiedon, verkkotunnistetietojen taikka yhden tai useamman hänelle tunnusomaisen fyysisen, fysiologisen, geneettisen, psyykkisen, taloudellisen, kulttuurillisen tai sosiaalisen tekijän perusteella.

Tässä on pari kiintoisaa huomattavaa kohtaa. Henkilötietoa on luonnollisesti kaikki suoran yksilöivä tieto, esim. henkilötunnus, tai sähköpostiosoite. Tämän ohella ilmiselvästi yhdistelmätiedot identifioivat yksilön ja aiheuttavat datan tulemisen tietosuoja-asetuksen piiriin, esim. etunimi, sukunimi ja syntymäaika.

Uutta on viittaus esim. sijaintitiedon yhdistelmiin. Näistä on käyty jo paljon tulkintakeskusteluja, ja tullaan käymään jatkossakin. Tällä hetkellä näkemys on, että muutama sijaintitietopiste, joka voi olla esim. ostos + ostospaikka, yhdistettynä aikaleimaan, voi jo identifioida henkilön. Eritoten jos otos on niin pieni tai tiedot niin uniikkeja että yksilöinti on triviaalia. Tämän ohella on huomioitu biometriset tunnistetiedot, ja analytiikka. Tästä voimme päätellä, että a) henkilötiedon ja ei-henkilötiedon raja on tilannekohtainen, veteen piirretty viiva, ja b) merkittävä osa kantadatasta voidaan todennäköisesti, jossain olosuhteissa, tulkita henkilötiedoksi. On olemassa hyvin harvoin dataa joka ei varmuudella mitenkään yhdistelemällä identifioi yksilöä, tai liity yksilöön. Ja jos se on henkilötietoa, tai siihen liittyvää tietoa, siihen kohdistuu useampikin GDPR tietosuoja-asetuksen vaatimus.

Hyvä huomata myös verkkotunnistetiedot, ja se että järjestelmän sisäisen id:n käyttö, ja viittaus toisaalla sijaitsevaan kantaan ei varsinaisesti vapauta dataa tietosuojavaatimuksista, joskin se voi keventää riskiä jonkun verran (pseudonymisointi).

Miten olemme tähän asti ajatelleet tiedon sensitiivisyydestä ja suojauksesta, menee tavallaan päälaelleen. Ja on aika selvää, että kun aiemmin riitti suojata muutama sarake koko järjestelmästä erityisen hyvin, nyt on aika harva tietokenttä jota ei tietosuoja-asetuksen joku pykälä koske. Pitäisikö kohottaa suojauskontrolleja kaiken datan osalta samalla vaivalla?

Kotitehtävä: Jos olisi olemassa kuvitteellinen (huonosti suunniteltu) tietokantataulu/excel dumppi, jossa olisi seuraavia kenttiä, mitä niistä pitäisi poistaa, että se olisi varmuudella täysin vapautettu tietosuoja-asetuksen vaatimuksista ja vapaasti liikuteltavissa ja käytettävissä?

  • Id
  • FirstName
  • LastName
  • SocialSecurityCode
  • Birthday
  • PhoneNumber
  • StreetAddress
  • State
  • City
  • Country
  • ZipCode
  • WorkAddress
  • ProductId
  • Price
  • PurchaseDate
  • VisitCount
  • Comment

Yksi haaste on nuo vapaamuotoiset kommentti/kuvauskentät, mikään ei estä arkikäytössä kirjoittamasta niihin jotain henkilötietosisältöä, esim. emailit. Haasteena voi olla, miten löytää kaikki kentät joissa oikeasti on henkilötietoa, versus kentät joissa on suunniteltu olevan henkilötietoa alunperin?

Hyvä huomata että yksilöivän tiedon ohella identiteettiin liittyvät tiedot lasketaan myös suojattavaksi henkilötiedoksi, ja ne nousevat erityisen tärkeiksi esim. tietojen siirron kannalta. Jos rekisteröity tekee validin pyynnön siirtää tietojaan sähköisesti, mitä tietoa pakataan mukaan?

Tiedon luokittelusta

Itse tietosuoja-asetus ei totea tiedon luokittelusta paljoakaan, mutta sieltä löytyy kategoria erityisen arkaluonteiset tiedot. Kategoriaan kuuluu mm:

  • Ala-ikäisiä koskevat henkilötiedot
  • Uskontoa koskevat tiedot
  • Seksuaalista suuntautumista koskevat tiedot
  • Rikoshistoriaa koskevat tiedot
  • Terveydentilaa koskevat tiedot
  • Rotua tai etnistä alkuperää koskevat tiedot
  • Poliittiset mielipiteet, uskonnollinen vakaumus
  • Geneettiset tiedot, biometriikkatiedot

Näitä tulee siis suojata järeämmin kuin ns perustietoja. Tästä saamme kaksi kategoriaa henkilötietojen luokitteluun. Kolmas on luonnollisesti tieto joka ei ole henkilötietoa tietosuoja-asetuksen mielessä. Sitä ei koske mitkään säädökset mistä näissä pakinoissa olen keskustellut, joten sitä voi käyttää ja liikutella vapaasti. Toki hyvä huomata, että tietosuoja-asetuksen kannalta esim. tulevien tuotteiden suunnitelmat eivät ole kiinnostavaa tai suojattavaa tietoa, koska eivät liity henkilöön, mutta yrityssalaisuuksien kannalta voivat olla hyvinkin olennaisia suojata hyvin.

Screenshot 2017-06-29 12.15.51

Tästä saamme siis kolmiportaisen luokittelukategorian: avoin, suojattava, ja arkaluonteinen. Ja liikennevalovärein ilmaistuna: vihreä, keltainen, punainen. Jos ei ole vihreää, on erityisen tärkeää miettiä mitä varmuuskopioita siitä otetaan ja miten niitä säilytetään, miten siitä otetaan ylipäätään kopioita, jne. Huomaa kuitenkin että tässä punainen ei tarkoita STOP! vaan tarkoittaa: Ole erityisen varovainen. 🙂

Tarvitaanko lisää luokittelukategorioita? Mielestäni ei ole perusteita sille. Yksinkertainen on kaunista, tässäkin. On jo muutenkin epäselvää, mitä tarkoittaa järeämpi suojaus arkaluonteisille tiedoille, ja mikä on sopiva taso suojata gdpr asetuksen ulkopuolisia tietoja. Jos tarpeen, tähän voi keksiä väliportaita, tai määritellä uuden kategorian ’public’, julkisesti saatavilla olevat. Aalto yliopistolla on tästä jo näkemyksiä – linkki tämän artikkelin lopussa.

Hyvä huomata myös että luokitteluissa on yleensä ideana tarkistaa voiko jotain muualla käytettyä käyttää, tai tehdä oma. Monessakin liiketoiminnassa on erityispiirteitä jotka voivat tuoda lisäportaita ja näkökulmia mukaan.

Miten näitä voi dokumentoida?

Koska Solitalla tehdään aika hemmetin fiksua analytiikkaa ja koneoppimista, unelmoin ohjelmistosta jolle voi osoittaa kannan, ja joka louhii sen läpi ja tuottaa hienon liikennevaloraportin siitä mitä luokituksia tauluista löytyy. Tämäntapaista voi jo nyt tehdä osalla virtualisointiratkaisuista, ja data warehouse alustoista, mutta ratkaisut pakkaavat olemaan aika järeitä järjestelmähankintoja. Omaan sen verran ennustajan lahjoja että tälle alueelle tulee varmaan jotain nopeampaa täsmälääkitystä lähitulevaisuudessa. Mutta vielä ei ole omissa hyppysissä sellaista. Sellainen olisi hurjan kätevä etenkin olemassaolevien järjestelmien dokumentoinnissa, ja dokumentaation ylläpidossa.

No, joka tapauksessa, tietoa on paljon ja dokumentaatio tarvitaan saraketasolla, joten näppärä tapa ainakin tuottaa dokumentaatio voi olla ihan perinteinen excel muoto, jossa käydään läpi kannan sarakkeet yksi kerrallaan, kerrotaan niiden tyyppi ja säännöt, käyttötarkoitus, ja tietosuojaluokitus. Sitten voidaan luoda laajempi silmäys kokonaisuuksiin, katsoa löytyykö taulujen tai kantojen klustereita jotka voidaan kokonaisuutena luokitella tiettyyn ryhmään, jne. Järjestelmän tietosuojaluokitus määräytyy, noin karkeasti ajatellen, korkeimman tietosuojaluokituksen mukaan joka sarakkeista löytyy.

UML on myös nastaa, monet rakastavat UML:ää. Normaalit tietomallien ja arkkitehtuurien dokumentointitavat käyvät hienosti pohjaksi myös tietosuojatiedon luokitukselle, ja jo nyt monet kaavioiden tuottoon sopivat välineet ja alustat alkavat tarjoamaan tukea tälle ulottuvuudelle.

Jos käytössä on jo kantatyökalu, joka osaa tuottaa fyysisen tason näkymiä hyvin, ja sitä jo käytetään, kenties siitä saa hyvää nostetta tähän?

Näissä kaavioissa ja dokumentaatioissa on peevelisti työtä, mutta voisi ajatella että jatkossa tietosuoja yksinkertaisesti huomioidaan osana uusien tuotettavien sovellusten dokumentaatiota.

Luokittelun ja tiedon ohella tosiaan on syytä tuottaa ainakin kaksi muuta dokumenttia. Aina parempi jos näitä voidaan pitää dynaamisesti yllä jossain muualla kuin pölyttymässä levynnurkalla jossain – sillä dokumentaatio jota ei ylläpidetä on vaarallisempaa kuin dokumentaatio jota ei ole.

Ensimmäinen on tietovirtakuvaus, eli mitä tietoa liikkuu, mihin suuntaan, missä kohden ylitetään järjestelmärajat, organisaatiorajat, tai maiden rajat, tai EU rajat. Nyrkkisääntö on, että monissa rajanylityksissä tarvitaan sopimuksia, ja

Toinen on kuvaus siitä mitä tietoa rekisterissä/järjestelmässä säilytetään, mihin tarkoitukseen sitä kerätään, ja millä oikeutuksella sitä kerätään ja prosessoidaan. Oikeutus voi olla esim. sopimus, lain vaatimus, tai lupa rekisteröidyltä. Tämä on aika olennainen avainkohta tietosuoja-asetuksen toteennäyttämisen mielessä, ja myös tyypillisesti se kohta, josta organisaatioiden kannattaa aloittaa tietosuojajumppa. Kartoitetaan rekisterit, leimataan ne sen mukaan millaista henkilötietoa ne sisältävät, ja selvitetään käsittelyn oikeutukset ja sopimukset.

Ideaalitapauksessa nämä kaikki olisivat dynaamista, elävää dokumentaatiota, jota olisi rekisterin omistajien helppo päivittää, josta saisi generoitua tarvittavat raportit, ja jotka linkittyisivät muodostaen helposti navigoitavan mallin. En ala nyt mainostushommiin mutta kuten sanottua, tässä on kasvavaa tarjontaa. Täytyy toki olla tarkkana ettei osta ongelman ratkaisuun alustaa, järjestelmää tai ratkaisua joka ratkookin ihan muita ongelmia ja tarjoaa vain sivutuotteena apua tähän kulmaan 😉

Loppusanat ja linkit

No niin, siinä taas tämänkertaiset mietelmät. Aiheita piisaa lisää, ja jos aikaa löytyy, palaan vielä esim. dokumentoinnin, sovelluskehityksen, testidatan tiimoilta keräilemään ajatuksiani. Tässä taas linkkivinkkejä:

https://www.vahtiohje.fi/c/document_library/get_file?uuid=ddb05959-40d1-435f-af23-fd20fc21d63f&groupId=10229

http://www.tietosuoja.fi/fi/

 

GDPR – tieto suojatuksi

No niin, pitkästä aikaa. Aika murtaa myyttejä, parantaa moraalia, ja avata uusia mahdollisuuksia.

Ensi vuonna loppuu siirtymäaika EU tietosuoja-asetuksen (EU) 2016/679 osalta. Asetushan on jo voimassa, mutta 25.5.2018 loppuu siirtymäaika, ja siitä alkaen henkilötietojen käsittelyn on oltava asetuksen mukaista, tai muuten…

Mielenkiintoista kyllä liikkeellä on taas monenlaista vipellystä tämän tiimoilta. Tuntuu löytyvän kosolti ääripään reaktioita: Joko taivas putoaa niskaan ja mitään ei saa tehdä, tai sitten ei koske meitä, pää puskaan ja eteenpäin kuin ennenkin.

 

Screenshot 2017-06-28 10.01.52

Olen itsekin viettänyt aikaa kosolti asian parissa ja ajattelin kirjoitella vähän mietintöjä. Oma lähestymistapa on ehkä vähän erilainen: Mitä kannattaa jatkossa huomioida että ollaan sovellus- ja ratkaisukehityksessä yhteensopivia asetuksen hengen kanssa, ja mitä mahdollisuuksia se jatkossa luo.

20 miljoonaa tai 4% vuotuisesta maailmanlaajuisesta liikevaihdosta

Merkittävimpiä uutisaiheita asetuksen suhteen on ensimmäistä kertaa tiukennettu sakkoja, toisin sanoen määritetty uhkasakko joka voidaan asettaa jos tietosuoja-asetuksen vaatimuksia ei ole toteutettu. Sakon yläraja on törkeimmissä rikkomuksissa 20 miljoonaa euroa, tai 4% vuotuisesta maailmanlaajuisesta liikevaihdosta, kumpi onkaan suurempi. Aika monellakin isommalla firmalla, jopa Suomessa tuo 4% voi helposti olla 20 miljoonaa suurempi, moninkertaisestikin, ja vähän pienemmille pajoille 20 miljoonan sakko voi olla aika kova pala.

Tätä vipua on helppo viuhutella pelotteena, ja sillä on puolensakin. Sekä tietosuoja että tietoturva vaativat investointeja järjestelmiin, infraan, palveluihin, ja edellyttävät tarkempaa seurantaa sille missä tieto liikkuu ja miten sitä käsitellään – todennäköisesti huomiointia prosessi ja liiketoiminta-tasolla. Monet sovelluskehitysprojektit ovat sellaisia, että siellä keskitytään vain toimintoihin ja ominaisuuksiin, ja tietoturva tulee siellä jossain perässä, jos tulee. Usein tietoturvaan investoidaan vasta kun jotain tapahtuu – ja se on huonoin mahdollisin hetki investoida. Tämän asetuksen myötä alkaa löytymään rahaa parantaa tietoturvaa ja tietosuojaa, ja se taas laskee riskejä mahdollisen tietomurron tai tietosuojaloukkauksen tapahtuessa.

Niille jotka ajattelivat painaa päänsä puskaan ja jatkaa kuten ennenkin, lienee hyvä huomioida että tuo uhkasakko siis pamahtaa kohdalle esim. sillä hetkellä kun järjestelmiin tapahtuu tietomurto, ja sana siitä kiirii tietosuojaviranomaisille. Sakko voi myös uhata jos tulee jostain syystä muu epäilys siitä että tietoja ei käsitellä asetuksen mukaisesti. Ensimmäinen asia mitä siellä kysytään on miten sensitiivistä ja laajaa tietoa murto koskee, miten laajaa joukkoa, ja mitä toimenpiteitä on tehty tiedon suojaamiseksi suhteessa riskeihin. Sakko tirahtaa rankimman kautta, jos vastaus tähän on: HÄ?

No, niille jotka ajattelivat kieltää kaiken ja vetää paniikkimoodin päälle, sen verran lohtua että sakkoa säädetään sen mukaan mitä toimenpiteitä on tehty tiedon dokumentoimiseksi ja suojaamiseksi, ja miten nopeasti on pystytty reagoimaan, ja miten yhteistyöhaluisia on oltu. Ensi vuonna näemme miten tuota käytännössä tulkitaan viranomaisten toimesta – olisin kuitenkin aika isosti yllättynyt ellei jo ensi vuoden puolella tulisi ainakin muutama tapaus tarkasteluun.

On myös äärimmäisen todennäköistä, että asetuksen siirtymä-ajan päättyessä tulee jonkunmoinen purske ihmisiä harjoittamaan oikeuksiaan, ainakin mielenkiintoisimmissa rekistereissä. Miten pystyt tällä hetkellä vastaamaan esim. pyyntöön tulla unohdetuksi? Tai pyyntöön saada kaikki kerätyt tiedot itsestään konekielisessä siirtomuodossa?

Riskeistä puheenollen

Uusi tietosuoja-asetus puhuu useassakin kohtaa riskeistä, ja riskilähtöisestä lähestymistavasta. Tämä on hyvä pitää mielessä kun tulkitsee asetuksen vaatimuksia suhteessa omiin rekistereihinsä tai järjestelmiin. Ideana ei ole, että kaikki henkilöön liittyvä tieto pitäisi nyt varastoida raskaimmin mahdollisin kontrollein suojattuna holvien uumeniin, tai olla käyttämättä sitä tai tekemättä mitään. Ideana on analysoida millaisen riskin ko henkilötieto muodostaa, mitä uhkia sen varastointiin ja käyttöön voi liittyä, ja valita sopivat kontrollit jotta riski vähenee. Toisin sanoen, on tunnistettavissa selkeästi eri sensitiivisyydellä olevia tietoja joita tulee suojata eri tasoilla.

Tässä kohtaa kukaan ei pysty varmasti sanomaan missä rajat menevät – valitettavasti tietosuoja-asetus ei tätä kerro, ja opimme asiaa vasta tulkintojen kautta. Mutta tietosuoja-asetus määrittelee erikseen sensitiivistä tietoa, esim. alaikäisten tiedot, tiedot joissa käsitellään esim. terveystietoja, sukupuolista suuntautumista, rotua, uskontoa, rikoshistoriaa, jne ovat selkeästi sensitiivisiä. Sen ohella voi tietysti käyttää tervettä järkeä: Jos Harri H Hakkeri murtautuu juuri tähän kantaan, lataa sieltä dumpin tietoa, ja se julkaistaan Internetissä tai iltapäivälehdissä, miten suuri vahinko siitä voi tulla. Suhteessa siihen kannattaa soveltaa kontrolleja.

Toteennäyttäminen

Aika monessa paikkaa asetuksessa puhutaan toteennäyttämisestä. Se tarkoittaa, että tiedon suojaaminen ei riitä, vaan asetuksen toteuttaminen tulee olla näytettävissä toteen, pääpiirteittäin dokumentaation avulla.

Mitä sieltä dokumentaatiosta pitäisi löytyä? No, osapuilleen kaikki. Päätasolla olisi syytä olla jossain muodossa kuvaus järjestelmistä ja rekistereistä, ja siitä mitä tietoa ne sisältävät. Kun on kuvattu mitä tietoa varastoidaan, tietokannoissa ja tiedostoissa (tähän olisi hyvä liittää vähän luokittelua), on tarpeen myös kuvata tietovirrat, eli tässä tapauksessa mihin tieto liikkuu järjestelmissä. Asetuksen kannalta kiinnostaa eritoten, missä ylitetään maiden rajoja, ja kenen käsittelijöiden kautta tieto liikkuu. Tässä käsittelijöitä ovat esim. pilvipalvelualustat. Kokemus on osoittanut, että voi olla tarpeen/hyödyllistä viedä näitä kuvauksia teknisemmällekin tasolle, jotta saadaan näkyviin esim. protokollat ja muut data-in-motion suojaustarpeet.

Sopimukset on toinen alue mihin tulee kiinnittää huomiota. Asetuksessa tullaan hakemaan vastuullisuus-alueita, ja enää ei myöskään riitä että pestään kädet siinä kohtaa kun maa/organisaatioraja ylittyy. Tiedon alunperäinen kerääjä ja varastoija tulee olemaan ensisijainen vastuullinen koko ketjusta. Esim. pilvipalvelualustoilla tulee olla sopimukset kunnossa. Tähän ovatkin jo suurimmat pilvipalvelualustat reagoineet, ja esim. AWS pilvessä tulee olemaan sopimuspäivityksiä vuoden sisään, ja lisäapua vaatimusten täyttämiseen.

Prosessit tulee luultavasti tuoda tarkempaan syyniin. Tietosuoja-asetuksen yksi tärkeä nurkka on oikeutus henkilötiedon käsittelyyn. Aiemmin oikeutusta ei ole niinkään mietitty, monessa paikkaa. On vain kerätty kaikki mitä saadaan, ja käytetty sitä vapaasti miten voidaan. Nyt jos käsittely ja keruu tulee valokeilaan, tai peräti auditin alaiseksi, pitäisi pystyä näyttämään toteen myös minimaalinen pääsy ja minimaalinen keruu, eli kerätään vain mitä tarvitaan, keräämiselle on hyväksyttävä oikeutus (sopimukset, luvat, lain vaatimukset, jne), ja tietoon pääsevät käsiksi vain minimissään ne joille se on tarpeen, ja oikeutettua. Tämä karsii pois kaikki villit uusiokäytöt joille ei ole oikeutusta, tai tuotantodatan dumppaamisen muistitikuille tai tiedostoihin esim. testausta varten. Ja edellyttää prosessien kehittämistä ja dokumentoimista. Ne jotka ovat tätä jo tehneet ovat tietysti jo hyvällä alulla.

Edelleen yksi dokumentoinnin alue on kyetä esittämään, mitä tietoturvakontrolleja on toteutettu, ja miten toteutuu asetuksen edellyttämä data protection-by-default vaade. Tämä lienee alue joka isoimmin hakee muotoaan. Toisaalta tämä on ollut alue jossa perinteisesti on jo tietoturvanäkökulmasta aina dokumentoitu jotain, eli jonkunmoista pohjaa löytyy jo.

Asetuksen henki

Tulkittaessa lakipykäliä ja vaatimuksia, ja väistellessä uhkasakkoja, usein helposti unohtuu, miksi tätä asetusta on alettu puuhailemaan. Sen taustalta löytyy hyvin kauniita ajatuksia, ja potentiaalista liiketoiminnallista hyötyä myös, ei pelkkiä kulueriä. Seuraamalla asetuksen henkeä mennään jo aika pitkälti oikeaan suuntaan.

Mikä sitten on asetuksen henki? Se tiivistyy pariin ajatukseen:

  • Lisää oikeuksia rekisteröidyille, henkilöille joista tietoa kerätään
  • Läpinäkyvä ja oikeudenmukainen tietojen käsittely
  • Lisää valtaa siihen miten ja mihin omia tietoja saa käsitellä
  • Sisäänrakennettu ja oletusarvoinen tietosuoja, aina järjestelmiä rakentaessa ja hankittaessa

Kun nämä ynnää yhteen, hyväähän siitä tulee. Läpinäkyvyys toteutuu kun rekisteröity voi nähdä tarkasti mitä tietoja hänestä kerätään, ja mihin niitä käytetään, ja miksi. Kun rekisteröity voi lisäksi helposti tarkistaa käyttötarkoitukset, ja hallita niitä itse, päättäen esim. mitä tietoja voidaan käyttää profiloinnissa ja analyyseissä, voimaantumisen tunne vain kasvaa. Lopulta kun tiedot voi poistaa rekistereistä kun niitä ei enää tarvita, ja siirtää ne helposti toiselle prosessoijalle tai vaikka itselleen, luulisi henkilökohtaisen tiedon alkavan jo kiinnostaa.

Tässä piilee business mahdollisuuksia, luottamuksen lisääntyessä ja itsepalvelun helpottaessa luvitusta, voidaan saada potentiaalisesti paljonkin enemmän tietoa ja lupia kuin aikaisemmin, läpinäkyvästi. Kun tietosuoja ja tietoturva järjestelmissä kehittyy, niihin liittyvät liiketoiminnallisetkin riskit pienenevät. Viime aikoina on ollut aika massiivisia tietomurtoja, joissa kantoihin varastoituja tietoja on vuotanut maailmalle, esim. salaamattomia luottokorttitietoja, salasanoja, ostoshistoriaa, jne. Tällaiseen tilanteeseen on aina ankeaa herätä, etenkin jos asiaa penkoessa löytyy rumaa aluetta jossa ei ole tehty ollenkaan tarpeeksi eikä oikeastaan edes uskallettu tarkastella.

Yksi kulma miettiä asiaa on että useimmilla firmoilla pitäisi nyt olla ainakin 20 miljoonaa euroa käytettävissään pistää vähän asioita kuntoon. Sillä saa jo ostettua viipaleen jos toisenkin tietoturvaa.

Sähköinen identiteetti

Asetuksessa hiipii sisään yksi piilo-feature joka on sekä uhka että mahdollisuus. Jotta henkilö voi harjoittaa oikeuksiaan, ja esim. vaatia kaikkien tietojensa poistamista järjestelmästä asiakassuhteen päätyttyä, hänet pitää luonnollisesti tunnistaa, ja pystyä liittämään kaikkiin tietoihin.

Miten tunnistetaan riittävän vahvasti, ettei tässä kohtaa tapahdu väärinkäytöksiä? Jos käytössä on jo sähköinen tunnistaminen kaikille rekisteröidyille, tässä ollaan pitkällä. Jos ei ole, nyt taitaa olla aika kehittää. Mitenkäs se kantojen tietosisältö? Mitä varmasti identifioivaa tietoa sieltä löytyy? Voiko email osoitteen perusteella varmasti tunnistaa että pyyntö tuli samalta Matti Möttöseltä joka löytyy rekisteristä? Entä jos se on vanhentunut? Voiko puhelinnumerolla tunnistaa? Voiko tunnistautua tulemalla paikan päälle ja näyttämällä passinsa?

Vastaus kaikkeen tähän: Tunnistamista ja sähköistä identiteettiä pitää luultavasti kehittää. Luultavasti pitää kuvata ja kenties parantaa henkilö/asiakastiedon laatua, sitä miten taulut ja järjestelmät liittyvät toisiinsa. Luultavasti tämän tekeminen on epämiellyttävää jumppaa, johon kuluu rahaa.

Luultavasti kun se on tehty, kyvykkyys tarjota asiakkaalle tehokkaita itsepalveluita on huimasti kasvanut, ja samoin on datan laatu.

Oma odotus on myös, että kun pöly vähän laskeutuu, sekä tietoturvan että tietosuojan oletusarvoinen taso sovelluskehityksessä on taas pykälän korkeammalla, ja kun se on jokapäiväistä, se ei merkittävästi lisää edes tekemisen kustannuksia. Nostetaan vain taso korkeammalle kuin ennen, ajan vaatimusten mukaisesti.

Perästä kuuluu?

Tietosuoja-asetus on massiivinen mittaluokaltaan, se tuo muutoksia aika moneenkin ulottuvuuteen. Tarkoitukseni on käsitellä sitä palasina, sovelluskehityksen vinkkelistä tässä blogissa. Aika näyttää löytyykö siihen aikaa, mutta toivon että palataan asiaan täsmäiskujen merkeissä aiheen tiimoilta.

Tässä vähän linkkivinkkejä sitä odotellessa:

http://eur-lex.europa.eu/legal-content/FI/TXT/HTML/?uri=OJ:L:2016:119:FULL&from=FI

http://www.informationisbeautiful.net/visualizations/worlds-biggest-data-breaches-hacks/

http://www.tietosuoja.fi/material/attachments/tietosuojavaltuutettu/tietosuojavaltuutetuntoimisto/oppaat/1Em8rT7IF/Miten_valmistautua_EUn_tietosuoja-asetukseen.pdf

 

AWS Certified Solutions Architect – Associate

Kävin viime viikolla suorittamassa tuon otsikossa mainitun sertifikaatin – vaikeampi kuin odotin mutta läpi meni. Ajattelin kirjailla tähän vähän fiiliksiä, ajatelmia ja vinkkejäkin tuohon liittyen.

Nykyisessä pajassani (Solita) ollaan aika pilvinatiiveja. Meillä on omaa pilveä, ja aina kun projektit sen sallivat, pyritään tarjoamaan alustaksi jotain pilven nurkkaa. Syyt tähän ovat ilmeisiä. Pilvi tarjoaa parhaimman DevOps kokemuksen (tai ainakin mahdollistaa sen), koska on mahdollista välttää siiloutumista, ja pääsy ja työvälineet ja hallinta ovat ensiluokkaisia. Pilvi tarjoaa loistavan alustan kokeilulle edukkaasti, investoimatta raskaaseen rautaan, ja sieltä saa resursseja nopeasti, nappia painamalla. Pilven skaalautuvuus on myös (hyvin tehdyille sovelluksille) lähes rajaton, ja vikasietoisuutta saa globaaleilla pilvillä ruuvattua todella erinomaiseksi. Juuri mitään näistä hyödyistä ei saa paikallisesta konesalista, ja siihen on monissa paikoin suorastaan totuttu.

Itse olen puljaillut AWS EC2 koneiden kanssa jo pitkiä aikoja, mutta oikeastaan vasta nykyisissä hommissa havahduin siihen, mitä muuta AWS tarjoaa. Kiitokset siitä Data Science-puolen väelle. Yksi ensimmäisiä hommiani Solitalla oli tukea Data Science projektia teknisessä mielessä, jossa haluttiin vertailla kalliin kaupallisen datan rouskutusvälineen kyvykkyyksiä open source pinoon. (Kallis kaupallinen veti kokonaiskustannuksiltaan liput kotiin mennen tullen tässä skenaariossa). Myös firman HipChat kanavalla huhuillaan aika ajoin kiinnostavia juttuja mm. Lambdoista ja Serverless-malleista, tai S3-website hostauksesta. Vanhana hardcore koodinvääntäjänä jolle aiemmin oli kunnia-asia tehdä kaikki työkalut itse, olen sittemmin kokenut tietynlaista tuottavaa laiskuutta, ja näin tällaiset ovat nykyään kiinnostavia huhuiluja, kun pyritään tekemään entistä enemmän entistä fiksummin.

Mitäs niitä serttejä löytyy?

No niin, joka tapauksessa, AWS pilvestä löytyy sertifiointeja joka lähtöön. Kovan ytimen muodostaa viisi sertifikaattia, joista kolme on perustasoa, ja kaksi on professional-tasoa. Jenkkien palkkavertailuissa jo perustason arkkitehtisertifikaatti oli arvostetuin ja paraspalkkaisin mitä sertifiointeihin tulee. Pro-tason arkkitehtisertifikaatti on jo käytännössä hyvän työpaikan tae, etenkin jos sen mukana tulee kykyä kommunikoida ja oikeasti ratkoa ongelmia. Näiden viiden päälle löytyy sitten erikoistumissertifikaatteja, mm. tietoturvasta, ja verkoista.

Sertifikaatit ovat vain monivalintakysymyksiä, ja niitä usein kritisoidaan. Ne eivät ole hyvä osaamisen ja soveltamisen mittari. Mutta samoin kuin aikanaan Java-sertifikaateissa, itse puolustan niitä silti. Koska jos on henkilö, joka on suorittanut tietyn sertifikaatin, se kertoo minulle, että hän on ainakin jossain vaiheessa hallinnut kokonaiskuvan teknologia-alustasta, yksityiskohtia myöden. Henkilö jolla ei sertifikaattia ole, voi osata jonkun nurkan erinomaisesti, toisen surkeasti, ja kolmatta ei ollenkaan. Hänestä en tiedä siis mitään.

Jos työhaastattelussa haastateltavalla on esittää sertifikaatti, se ei kerro että hän on loistava ohjelmoija, mutta antaa silti tietyn baseline-tason laadulle. Henkilö jolla ei sertifikaattia ole, vaatii huomattavasti pidempää tenttausta jos haluaa päästä osaamisesta selville. Projekteissa olen havainnut, että sertifioitumattomat henkilöt voivat olla suorastaan hasardeja: Tehdä enemmän vahinkoa kuin hyvää. Tämä johtuu siitä, että työkalupakki on, metaforaa käyttääkseni, vajavainen. Siellä voi olla yksi upea, kiiltävä vasara, mutta ei mitään muuta. Palkkaan mielummin työmaalle tyypin jolla on kulunut pakki jonka kaikkia perustyökaluja on käytetty tasapuolisesti. Häneltä löytyy hihasta vaihtoehtoja ja joustavuutta. Se kiiltävän vasaran kaveri etsii vain kaikkialta nauloja.

No liittyykö sertifikaatti sitten juuri tähän? Ei välttämättä, sama oire voi olla sertifioituneillakin. Mutta käytännnössä olen suuri fani sille että jos haluaa syvälle tekkiin, aloitetaan sertifikaatista, ja siitä alkaa opiskelu. Vähän kuin taistelulajeissa, musta vyö aloittaa varsinaisen oppimispolun – ei päätä sitä.

Vinkkejä

Vinkkejä opiskeluun? AWS sertifikaatit ovat huomattavasti vaikeampia kuin esim. SUN/Oracle Java-sertifikaatit, vaikka puitteet ovat suunnilleen samat. Perustason sertifikaateissa on yleensä n. 60 kysymystä, ja muutama tunti aikaa. Läpäisyyn piisaa 65-70% oikein. Mutta AWS on yhä vain laajempi kokonaisuus, palveluiden määrä lisääntyy koko ajan, tätäkin kirjoittaessa. Ja sertifiointikysymykset ovat todella yksityiskohtaisia, sieltä voi tulla esim. kysymyksiä koskien kapasiteettia, kaistaa, jne. Osa on onneksi ihan terveen järjen kysymyksiä, niistä selviää jos on oikeasti tehnyt jotain AWS konsolissa.

Mutta tässä pari vinkkiä:

  • Kaikkein tärkeintä on mock exam/testi-testit, että totut kysymyksien tyyppeihin, tapaan, ajoitukseen. Niitä löytyy jonkun verran ilmaisia, mutta parhaat maksavat jonkun verran. Amazonin kautta saa ’virallisen’ harjoitustestin, mutta itse löysin loistavia harjoitustehtäviä myös android-sovelluksista, joita voi mukavasti naputella tabletilla läpi vaikka työmatkalla
  • Valmistautumiseen tärkeintä on lukea AWS Whitepaperit ja FAQ lätyskät, ainakin tärkeimpien palveluiden osalta. Core palveluita ovat EC2, S3, VPC, RDS, ja DynamoDB, mutta niiden ohella yllättävät paljon tulee myös kysymyksiä myös esim. SNS, SQS ja SWF osista.
  • Ehdottomasti kannattaa investoida johonkin online-preppaukseen koskien sertifikaattia. Niitä saa alennus-aikaan muutamalla kympillä, itse käytin acloud.guru kursseja (jotka ovat itsessään tehty AWS Serverless+Lambda arkkitehtuurilla, kustannustehokkuussyistä)

Itse ajattelin jatkaa sertifioitumista tällä suunnalla, koska tämä on hyvin kiinnostava suunta, ja viimein antaa mukavan oppimishaasteen. Osa asioista on jo käytännön tasolla tuttuja, mutta osa ei. Bonuksena kakun päällä olen myös kiinnostunut AWS Alexa rajapinnoista, ja harrastepuolella olen jo niiden kanssa näperrellyt. Acloudguru sitella on tehty muuten Alexan päälle botti joka kyselee AWS sertifiointiin testikysymyksiä 😉

 

 

 

 

Docker + Java Trixx

Sattuneesta syystä Docker työkalupakin käyttö on itsellä lisääntynyt suorastaan räjähdysmäisesti viime aikoina. Se ei ole aina helppoa, mutta on kyllä palkitsevaa. Kun ensi kertaa saa hallittua kunnon könttiä palveluita parilla komentorivikomennolla, sensijaan että aiemmin seikkaili siellä ja täällä ja saastutti konettaan X kappaleella erilaisia asennuksia… Ja kun aiemmin Vagrant-koneet haukkasivat suurimman osan muistista, IntelliJ loput, ja nyt docker-kontteja voi läiskiä samaan tilaan tusinan.. Niin olen myyty.

Miten kontit juttelevat?

Pari niksiä on tullut opittua – tai oikeastaan luettua manuaalia tarkemmin. Niksi yksi oli, miten saada docker-compose alla docker-palvelut näkemään toisensa? Ratkaisu oli häkellyttävän yksinkertainen: Käytä docker-compose.yml versiota 2.0, tähän tapaan:

version: '2'
 services:
  web:
    build: .
    depends_on:
      - db
      - redis
  redis:
    image: redis
  db:
    image: postgres

That’s all you need. Versiossa yksi piti linkitellä palveluita, mutta versiossa kaksi oletuksena saman docker-composen osat ovat samassa virtuaaliverkossa. Se tarkoittaa että ne näkevät toisensa suoraan imagen nimen mukaan, esim. jos web haluaa viitata redis-palveluun http protokollalla porttiin 6379, homma hoituu:

http://redis:6379

Tietysti voi olla että ajat palveluita välillä dockerissa, välillä ei. Itse olen havainnut käteväksi Spring Boot sovelluksissa käyttää tähän profiileja, docker-profiili ylikirjoittaa tarvittavat url viitteet tai vastaavat palvelinviitteet näillä image nameilla, ja perusprofiilissa voi olla että viitataan vielä localhostiin, testiympäristössä voidaan viitata taas ihan muualle.

Dockerin verkkoja voi hallita myös manuaalisesti, ja niistä voi koostaa haluamiaan kokoonpanoja. Kuitenkin, oletuksena siis kontit näkevät toisensa kunhan ovat samassa verkossa. Ei tarvitse avata mitään portteja, ellet sitten halua niihin ulkoapäin viitata.

Miten kontti viittaa hostiin?

Nogh, kaikkea ei saa konttiin vieläkään. Omassa OSX koneessa esim. Windows SQL server ei konttina pyöri, vaikka konttina löytyykin. Docker for Mac antaa vain herjaa, ympäristön pitäisi olla Docker for Windows. Joten joudun tekemään vähemmän ideaalin ratkaisun: Viittaamaan kontista ulospäin.

Onneksi homma hoituu, pitää vain välittää Dockerille tieto siitä ip-osoitteesta jossa host toimii. Se onnistuu esim. näin (OSX kone):

export DOCKERHOST=$(ifconfig | grep -E "([0-9]{1,3}\.){3}[0-9]{1,3}" | grep -v 127.0.0.1 | awk '{ print $2 }' | cut -f2 -d: | head -n1)

Dockerfilessa ei voi valitettavasti viedä ihan helpolla sisään env muuttujia, ja oletuksena kontit eivät näe ympäröivien hostien muuttujia. Vaan eipä hätää. Olen itse siirtynyt enenevässä määrin käyttämään docker-composea, ja siellä homma hoituu. Määritellään env muuttuja uudestaan docker-composessa, sitten käytetään sitä java-komentorivillä, viedään todellinen url sisään joka siis viittaa env muuttujan mukaiseen ip-osoitteeseen.

mah_service:
  environment: 
    - HOST_ADDRESS="localhost"
  build: ./mah_service
  command: echo "HOST ADDRESS FOR SQL SERVER $HOST_ADDRESS"
  command: java -Dspring.profiles.active=docker -Dspring.datasource.url="jdbc:jtds:sqlserver://${DOCKERHOST}:1433;DatabaseName=demo" -jar mah_app.jar
  ports:
    - "8080:8080"

Tah-dah, magic happens. Joka tapauksessa, tämä ei ole nätti ratkaisu, vain workaround. Windows dockesterijat eivät tarvitse tätä, vaan käyttävät mieluiten sql serveriä kontissa. Se on aina paras vaihtoehto. Lienee ihan reilua että MacOS puolellakin saa joskus kärvistellä. MS SQL Server for Linuxia ootellessa…

No, siinä tällä kertaa havainnot. Postailen tänne itselleni muistiin jatkossakin niksejä, ettei unohdu. Pian tulee Docker 1.3 ja lisää kivaa… 😉