Ilmainen lounas

Vuoden 2018 keväällä jouduimme katsomaan, kuinka Facebookin perustaja Mark Zuckerberg vastasi Yhdysvaltain senaatissa kyselyihin yrityksensä tietoturvapolitiikasta. Tapaus juonsi juurensa konsulttiyhtiö Cambridge Analytican käsiinsä saamista Facebook-käyttäjätiedoista. Käyttäjätiedot päätyivät Cambridge Analytican haltuun käyttäjille suunnatusta viattoman oloisesta testistä, jota jaettiin Facebookin käyttäjien keskuudessa. Testin yhteydessä sovellus sai käyttöönsä sekä testin tekijän että hänen Facebookin kaverilistalla olevien henkilöiden tiedot, jotka lopulta päätyivät Cambridge Analytican haltuun.

Tietojen kerääminen oli lähteiden mukaan aloitettu jo vuoden 2015 puolella, mutta asia nousi julkisuuteen vasta, kun paljastui väitteitä, joiden mukaan Cambridge Analytica käytti tietoja vaikuttaakseen mielipiteisiin Yhdysvaltain vuoden 2016 presidentinvaaleissa. Tällöin nousi esiin Facebookin vastuu siitä, mitä käyttäjätietoja heidän tarjoamallaan rajapinnalla voi kerätä, ja mihin niitä voi käyttää.

Tapaus tuo hyvin esille mm. sen, kuinka ”ilmainen” oikeasti tarkoittaa ”maksutonta”, mutta myös raa’an tiedon valtaisan merkityksen globaalissa mittakaavassa. Tapauksen jäljiltä on helppo maalailla uhkakuvia dystooppisesta yhteiskunnasta, jonka jokainen jäsen on ylikansallisten yhtiöiden pelinappulana jatkuvan valvonnan ja arvioinnin kohteena. Mitä, jos asia pyrittäisiinkin kääntämään positiiviseksi? Cambridge Analytican tapaus osoittaa, että ihmisten mielipiteitä ja käyttäytymistä todella voidaan ennustaa, ja sitä kautta niihin voidaan vaikuttaa. Löytyisikö tästä jotain hyviä puolia?

Pohjimmiltaan algoritmit, jotka ennustavat käyttäytymistä, toimivat hyvin simppelillä logiikalla. JOS alkuehto A on toteutunut, NIIN tapahtuman B toteutuminen vaikuttaa tietyllä todennäköisyydellä tapahtuman C toteutumiseen. Vaalien yhteydessä pystytään käyttämään samaa logiikkaa. Löydetään Facebookin kävijämassasta vielä päättämättömiä äänestäjiä, ja rakennetaan heistä käyttäjäprofiili (asia A). Tämän jälkeen tuotetaan heille sisältöä (tapahtuma B), joka optimoidulla todennäköisyydellä johtaa haluttuun äänestyskäyttäytymiseen (tapahtuma C). Lopputuloksena käyttäjä joutuu elämään uutiskuplassa, jossa vain analytiikkayhtiöiden määräämät sisällöt muodostavat käyttäjän some-todellisuuden.

Mitä, jos asiaa käsiteltäisiin aidosti hyödyn kautta. Jokainen joskus verkko-ostoksia tehnyt on törmännyt kauppapaikkojen suosituksiin. Suosituksia voidaan kauppapaikoilla laukaista monella eri tapaa mutta periaate algoritmien käytössä voi olla sama: sen perusteella, mitä verkkokauppa sinusta tietää, voi se suositella sinulle hyödyllisiä tuotteita. Jos urheiluvälinekauppias, jonka kanssa olemme asioineet vuosia, suosittelee meille uusia lenkkareita juoksutyylimme mukaan, kutsumme sitä hyväksi asiakaspalveluksi.

On ymmärrettävää, että haluamme olla kontrollissa siitä, mitä tietoja jaamme ulkopuolisten tahojen kanssa, ja siitähän koko Facebook-gatessa oli loppujen lopuksi kysymys. Minkälaista tietoa sitten luovutettaisiin tietoisesti ja vapaaehtoisesti, ja mihin tarkoitukseen? Ostohistorian ja mieltymysten hyödyntäminen lenkkareita ostellessa on kätevä juttu mutta esimerkiksi kehon toimintaa mittaavat puettavat laitteet ja anturit voisivat tuoda täysin uuden ulottuvuuden datan hyödyntämiseen. Arjen askareissa erilaisilla yksinkertaisilla sovelluksilla on mahdollista kerätä tietoa mm. päivän aktiivisuudesta, kävelystä, istumisesta, ympäristöstä, nukkumisesta ja ravinnosta. Cambridge Analytican tapauksessa jopa 87 miljoonan käyttäjän tietoja arvioitiin vuotaneen. Mitä jos hyväntahtoinen analytiikkayritys louhisikin tästä valtavasta datamäärästä varhaisia merkkejä vaikkapa stressistä, sydänsairauksista tai univaikeuksista, ja toimisi yhteistyössä terveydenhoitoalan kanssa tarjoten ongelmiin ratkaisuja kymmenien miljoonien tietueitten voimin? Tarvitsisiko silloin vaatia kenenkään päitä vadille?

Lehtori (FT) Jaani Väisänen
Saimaan ammattikorkeakoulu

 

 

 

 

Kategoria(t): Taide ja teknologia Avainsana(t): , , , . Lisää kestolinkki kirjanmerkkeihisi.