Tekoäly kerää meistä tietoa

Ylen Aamussa 11.2.2026 ennen aamuseitsemää käyty keskustelu ”Tekoälyn vaikutukset tietoturvaan” vaikutti mielestäni huonosti valmistellulta ja oli noloa katsottavaa. Satuitko jakamaan kanssani tämän kokemuksen? Toimittajan esittämät näkökulmat olivat minusta pintapuolisia ja kärjistettyjä ja paikalla olevia asiantuntijoita yritettiin ohjailla tekemään tekoälystä syyllinen tiedonkeruuseen. Mukana olivat asiantuntijat Kyberturvallisuuskeskuksesta ja Helsingin yliopistosta.

Molemmat asiantuntijat tekivät heti aluksi selväksi, ettei oikeastaan tekoäly kerää meistä tietoa, vaan tieto on jo kerätty. Toimittaja ei enää voinut perääntyä, räjäyttää käsikirjoitusta ja runnoi siten keskustelun loppuun samaa uhkakuvaa maalailevilla ennalta mietityillä kysymyksillään. Näkökulmaksi oli valittu tietoturvallisuus, mutta kärjistys meni överiksi ja keskustelulla luotiin lähinnä pelkoa tekoälyyn vihkiytymättömille. Osa uhkakuvista tuntui olevan vuosien takaisia. Kannustettiin pakoilemaan tekoälyä, josta tulee väkisinkin kansalaistaito ihan kuten atk:sta joskus tuli.

Haastattelu vahvisti käsitystäni siitä, että olemme luovuttanut intiimiäkin tietoa kiihtyvällä tahdilla jo viimeiset 15-20 vuotta kaupan kassalla, somessa tai missä tahansa netin palvelussa. Sijaintitietoina, hakuhistoriana, ostokäyttäytymisenä, somesisältönä, laitetietoina ja selauskäyttäytymisenä.

Vuosikaudet tottumusdataamme on myyty IT-firmoilta mainostajille ja sitä tietoa hyödyntäen meitä on manipuloitu joka päivä kohdennetulla mainonnalla porautuen mieltymyksiimme tai riippuvuuksiimme, jotta rahamme päätyisivät halutuille tileille. Näemme jatkuvasti vähemmän ystäviimme liittyvää sisältöä some-tiliemme feedissä algoritmien muututtua yhä kaupallisemmiksi. Ks. myös Netflix: Valvontakapitalismin vaarat. Ei tätä tekoälyn piikkiin pidä laittaa.

Tekoälymallit yhdistelevät dataa, tunnistavat käyttäytymismalleja ja kirjoitustyylejä, laativat ennusteita ja voivat soveltaa tietoa tehokkaammin laskutoimituksilla. Mitä uutta neitseellistä dataa tekoäly sitten todella meistä nyhtää? Ehkä aiempaa enemmän ääninäytteitä, biometristä dataa kuten kasvo- tai sormenjälkiä, chat-keskustelujen sisältöä (prompteja) tai vaikka sensoridataa älykellosta tai terveyssovelluksista. Jos nuo eivät jo ole vuotaneet.

Tottakai kielimallit tuottavat jatkuvasti yhä aidommalta tuntuvaa kieltä, koska ne on opetettu ymmärtämään ja tuottamaan ihmisen aiemmin käyttämää kieltä. Ja tottakai uusimmat AI-mallit, kuten ByteDancen kohuttu Seedance 2.0, generoivat hämmentävän aidon näköisiä videoita ja leffoja, joita on enää lähes mahdoton erottaa perinteisistä aidoista kohtauksista, jotka nekin ovat sisältäneet trikkikuvausta, tehosteita, tietokonemuokkauksia.

Vastuu tulee ainakin aluksi olemaan kuluttajalla, joka valitsee uskooko kuvan, tekstin tai videon aitouteen. Joku uskoo, joku ei usko ja joku ei välitä tai kiinnostu, jos materiaali miellyttää tai tuottaa iloa tai hyötyä. Ehkä jonakin päivänä voi syntyä säännöstöjä, joilla viranomaistahot vaativat tiettyjä tunnistetietoja. Ehkä syntyy luokitus tekoälyasteelle eli mitä ja missä määrin on sisällytetty. Nyt kun tällainen juolahti mieleeni, kysyin tottakai tekoälyltä onko tällaista kehitteillä:

ChatGPT: ”Euroopan unionin tekoälyasetus (EU AI Act) on suuri sääntelykehys, joka koskee tekoälyn käyttöä ja läpinäkyvyyttä. Se ei suoraan tarjoa “tekoälyasteen” numeroarvoa esimerkiksi elokuville, mutta asettaa vaatimuksia siitä, miten käyttäjiä on informoitava AI-järjestelmien käytöstä ja millaisia riskejä hallitaan eri luokissa. Tämä sääntely on yksi ensimmäisistä yrityksistä laatia lainmukainen kehys tekoälyn vastuulliselle käytölle, mutta se ei luo media- tai sisältöluokitusta mediatuotteille.”

On varmasti merkityksellinen asia, että tekoälysisällön voi erottaa tai jos ei voi, se kerrotaan kuluttajalle. Kriittinen tarve tietysti on pitää perinteinen tutkimuspohjainen fakta erillään tekoälyn jäsentelemästä tulkinnasta tai viihdyttävästä tekstistä. Aito taide ja kulttuuri, jossa käyttäjä luo suhteen tekijöihin ihmisinä, erillään fiktiivisestä tekoälyhömpästä.

Onkin sitten jo vaikeampi kysymys, missä määrin työelämässä yksilön osaamisen ja ammattitaidon todentaminen voi pohjautua jatkossa tekoälysisältöön. Luultavasti paljonkin! Koulutustaustan eli ammattitutkintojen ja työhistorian pitää tietysti olla aitoja, mutta mitä sen päälle sitten rakennetaan?

Prosessit käyvät yhä monimutkaisemmiksi ja syy-seuraus-ketjut vaikeammiksi nähdä ihmissilmin tai hahmottaa. Tehokkuusvaatimus on noussut jo tasolle, jossa kenelläkään ole aikaa paneutua yhden ongelman selvitykseen tunteja tai päiviä. Dataa on liikaa ja dokumentointi työlästä. Arjen ongelmanratkaisutyössä moni asia on jo nyt perustunut teorioihin ja todennäköisyyksiin, uskottavan loogisen tarinan rakentamiseen ja tiimityöhön.

Eli eksaktien faktojen ja todisteiden puuttuessa uskottavimman selityksen tarjonnut voittaa. Jos tarinan vielä osaa jäsennellä annetussa aikaikkunassa loogisesti, siitä tulee totuus. Harvat ovat tässä tekoälyä lahjakkaampia, ja itsehän voit promptissasi määritellä, mitä on pidettävä reunaehtoina, ns. tarinan faktoina.

Minusta tekoälystä ei pidä provosoitua ja sitä ei voi pelätä. Kyllähän kuka tahansa hyötyy sen ymmärtämisestä riippumatta mitä uhkia sen ympärille maalaillaan. Samalla, kun Ylen aamun kaltaiset rajatut näkökulmat ohjailevat meitä yhteen suuntaan ja tietojamme on jo laajasti tekoälymallien prosessoitavina, siitä voi ottaa myös hyötyä irti ja helpottaa omaa elämää.

Jätä kommentti

Kommentoi artikkelia! Huomioithan, että vain asialliset kommentit voidaan lisätä näkyviin. Sähköpostiosoitteesi ei tule näkyviin kommenttiin.Pakolliset kentät on merkitty *

Please comment the post! Note that only discreet comments can be published. Your email address will not appear in the comment. Mandatory fields are marked with *