Tekoälyn etiikka lääkärin työssä
Lääkärien mahdollisuus ja velvollisuus on hyödyntää uusi teknologia vastuullisesti ja täysimittaisesti potilaidensa hyväksi.
Tekoälyn käytössä lääkärin on toimittava lääkärin etiikan periaatteiden mukaisesti. Algoritmin antamaan tulokseen on aina suhtauduttava tietyllä varauksella.
Tekoälyllä (artificial intelligence AI, augmented intelligence) tarkoitetaan järjestelmän kykyä tulkita ulkoisia tietoja oikein, oppia tällaisista tiedoista ja käyttää opittuja asioita tiettyjen tavoitteiden ja tehtävien saavuttamisessa joustavan sopeutumisen kautta. Tekoäly vaikuttaa lääkärin työhön kahdella eri tavalla: mitä se tekee tänään, ja mitä se mahdollisesti kykenee tekemään huomenna. Ensin mainitussa on kysymys erilaisista kapean tekoälyn sovelluksista ja jälkimmäisessä mahdollisen yleisen tekoälyn tulemisesta. Nämä kaksi kehityslinjaa asettavat hyvin erityyppisiä eettisiä haasteita.
Kapea tekoäly kykenee suoriutumaan älykästä toimijaa muistuttavasti tietystä kapeasta tehtävästä. Aiemmin tekoälyä pyrittiin kehittämään laatimalla monimutkaisia tietokoneohjelmia, jolloin koko tekoälyn suoritus on ohjelman kirjoittajan hallinnassa. Sekä eettiset että juridiset kysymykset ovat suhteellisen yksinkertaisia. Ohjelman kirjoittajalla on vastuu siitä, että ohjelma toimii oikein, ja käyttäjällä vastuu, että hän käyttää ohjelmaa oikein. Nyt toimivat tekoälysovellukset ovat lähes kaikki koneoppimisen tulosta. Tämän ovat tehneet mahdolliseksi nykyisin saatavilla olevat valtavat datamäärät, kyky nopeaan informaation liikkeeseen sekä tietokoneiden laskentakyvyt. Koneoppiminen on välttämätöntä, jos halutaan hyödyntää käytettävissä oleva data. Tämä tuo mukanaan uusia eettisiä näkökulmia myös lääkärin työhön. Lääkärien mahdollisuus ja velvollisuus on hyödyntää uusi teknologia vastuullisesti ja täysimittaisesti potilaidensa hyväksi.
KONEOPPIMISEN PERIAATE
Koneoppimisessa annetaan data ja vastaus, ja tuloksena on malli päästä vastaukseen, toisin kuin traditionaalisessa ohjelmoinnissa, jossa annetaan data ja laskentamalli ja tuloksena on vastaus. Tekoäly käyttää koneoppimisella kehitettyä ja optimoitua laskentakaavaa (algoritmi). Kyseessä on useimmiten laajasti käsittäen tunnistus tai ennustustehtävä: onko kuvassa kallonsisäinen verenvuoto vai ei, mihin riskiluokkaan henkilö kuuluu sairauden suhteen ja niin edelleen. Tekoälyä on käytetty esimerkiksi keskoslasten sepsisinfektion varhaisessa tunnistamisessa.
Koneoppiminen voi olla joko 1) ohjattua (supervised), jolloin koneelle opetusvaiheessa kerrotaan, onko se oikeassa, tai 2) ohjaamatonta (unsupervised), jolloin algoritmi laitetaan esimerkiksi jakamaan aineisto luokkiin. Viimeksi mainittua käytetään esimerkiksi hypoteesien luomiseen. Valtaosa nykyisin käytössä olevista tai kehitettävistä sovelluksista perustuu ohjattuun oppimiseen.
KONEOPPIMISEN KÄYTTÖTARKOITUKSET - LÄÄKÄRIN ETIIKKA JA VASTUU
Koneoppiminen perustuu induktiiviseen päättelyyn, jossa ei ole definitiivistä vastausta, vaan päätelmä vahvistuu lisääntyvien havaintojen myötä. Yhdellä tautia sairastavalla on tietty oireisto, ja seuraavalla ja sitä seuraavalla. Tämän oireiston havaitessaan kone alkaa ehdottaa kyseistä tautia. Käytännössä kapea tekoäly tekee kahta asiaa, se tunnistaa (usein luokkiin jakamalla) ja ennustaa. Induktio on keskeinen kapean tekoälyn eettisiä haasteita aiheuttava piirre, sillä kapean tekoälyn rakentama algoritmi käyttää suorituksissaan vain niitä piirteitä, joilla sitä on opetettu. Kun lääkäri arvioi tekoälyn antamaa tulosta, hänen pitäisi kyetä vastaamaan kysymykseen, onko potilaani kuvattavissa niillä piirteillä (syötteillä), joilla koneoppimismalli on rakennettu, ja onko näitä syötteitä käytetty oikein. Koneoppimismallien monimutkaisuuden takia tämä voi olla hyvin vaikeaa.
Kun tekoälyä käytetään ihmisen lisänä esimerkiksi erilaisten sertifioitujen laitteiden ohjauksessa, aistien tukena tai luomaan virtuaalitodellisuutta kirurgin avuksi, tilanne on eettiseltä kannalta selkeä. Jos näillä teknologioilla voidaan parantaa potilaan hoitoa, niitä tulisi käyttää.
Kun tekoälyn tulosta käytetään päätöksenteossa, on keskeistä, mihin saatua tunnistetta tai ennustetta käytetään. Se voidaan joko vain 1) ilmoittaa, 2) sen perusteella voidaan tehdä toimenpide-ehdotus tai 3) kone voi suorittaa tuloksen pohjalta automaattisesti jonkin toimenpiteen. Eettiset ja vastuukysymykset liittyvät tekoälyn käyttöön tunnistuksessa, ennustamisessa ja päätöksenteossa.
- Ilmoitustilanteessa tekoälyn antama ennuste toimii yhtenä lääkärin päätöksenteon apuvälineenä, ja lääkäri antaa sille ammattitaitonsa avulla tietyn painoarvon. Jos laite tekee yksiselitteistä aritmeettista laskutoimitusta monimutkaisempia laskutoimituksia tai loogista päättelyä, algoritmin antama hoitoehdotus on jo vaativampi tilanne. Voidaanko lääkäriä moittia, jos hän toimii algoritmin ehdotuksen vastaisesti, vai voidaanko häntä moittia, jos hän toimii sen mukaisesti, mikäli lopputulos on huono? Koska molemmat ajatuskulut ovat mahdollisia, tulisi lainsäädännön turvata näissä tilanteissa sekä lääkärin riittävä autonomia että oikeusturva. Tässä on huomioitava tekoälyn induktiivisuus, jonka takia lääkärin on aina suhtauduttava algoritmin antamaan tulokseen tietyllä varauksella. Käytännössä vastuu päätöksestä jää lääkärille.
- Jos ohjelma laukaisee varoituksen esimerkiksi tietyn pistemäärän ylittyessä, algoritmi on lääkinnällinen laite. Valmistajalla on vastuu siitä, että laite suorittaa laskutoimituksen oikein. Mikäli tarvitaan tiedon syöttöä, tiedot syöttävä henkilö vastaa tiedon oikein syöttämisestä. Tulkinta ja tiedon käyttäminen oikeassa yhteydessä on käyttäjän vastuulla. Lääkärin tulisi myös jollain tavoin ymmärtää, millä perusteilla tekoäly päätyi ehdotukseensa. Kun kone on oppiessaan käyttänyt usein erittäin suurta määrää erityyppisiä tietoja ja monimutkaisia laskentamenetelmiä, on näiden perusteiden hahmottaminen usein vaikeaa. Toisaalta tekoälyn hyödyntämättä jättäminen ei välttämättä ole eettistä. Haasteeseen ei ole yksinkertaista ratkaisua. Lääkäreillä on eettinen velvollisuus olla mukana tekoälyn käyttöä koskevassa keskustelussa, koska kehityksen tässä vaiheessa ei ole olemassa valmiita toimintamalleja.
- Yleisessä eettisessä keskustelussa on nostettu ongelmana esiin vastuu tilanteessa, jossa tekoälyn avulla tehdään asioita suoraan tekoälyn tuottamasta tuloksesta ilman ihmisen harkintaa. Tilanne vertautuu viime kädessä muuhun teknologian käyttöön. Tilanteessa, jossa algoritmi suorittaa automaattisesti toimenpiteen, lääkärin vastuu kohdistuu oikean algoritmin valintaan potilaalle ja luonnollisesti sen toiminnan valvontaan. Tässä lääkärin pitää voida tehdä ratkaisunsa puhtaasti hoidollisin perustein. Algoritmin toimivuus on sen valmistajan vastuulla. Samoin valmistaja vastaa siitä, että algoritmin toiminta ja siihen vaikuttavat muuttujat on kuvattu kattavasti ja avoimesti.
TEKOÄLYN PÄÄTÖSTEN HAASTEITA
Monimutkaisiin, suuria datamääriä käyttäviin algoritmeihin liittyvä päätösten perusteiden läpinäkymättömyys on ongelma. Tällöin valmistajalla on ideaalitilanteessa aina vastuu kuvata sekä ne muuttujat, joita mallille tarjottiin, että ne muuttujat, jotka lopulliseen malliin valikoituivat. Kun kyseessä ovat selkeästi numeroina tai loogisina luokkina määritettävät muuttujat, tämän kuvauksen voi tehdä. Koneoppimisessa käytetään kuitenkin paljon esimerkiksi kuvadataa. Tällöin voi olla vaikea hahmottaa koneen tuottaman luokituksen tai suosituksen kaikkia perusteita. Kenellä on eettinen vastuu, jos koneen ehdotus on väärällä tavalla diskriminoiva? Esimerkkinä todellisuudesta on rikoksen uusimisriskiä ennustava algoritmi, joka painotti ihonväriä. Lääkärin työssä algoritmien pohjaoletusten pitää olla tiedossa. Esimerkiksi aasialaiseen tai amerikkalaiseen potilasdataan perustuvat johtopäätökset eivät välttämättä ole sellaisenaan sovellettavissa suomalaisessa väestössä.
Eettisesti kyseenalaista on sisällyttää hoidollisen tekoälyn syötteeseen taloudellisia attribuutteja. Hoidollista päätöksen tekoa tukevat algoritmit on erotettava taloudellisia näkökohtia arvioivista algoritmeista.
Koneoppimisen prosessi voi olla myös syklinen. Kone oppii koko ajan lisää ja edelleen optimoi algoritmia. Lääkinnällisissä laitteissa ja hoidollisissa algoritmeissa pulma on, että jokaisen uuden optimoinnin jälkeen algoritmin turvallisuus ja tehokkuus pitäisi testata uudelleen. Tämän takia on laadittu ohjeet tietokoneohjelmista lääkinnällisinä laitteina (software as a medical device). Käytännössä algoritmia käytetään sellaisena, miksi se on optimoitu. Uusi optimointi suoritetaan erillisinä päivityksinä.
KÄYTTÄYTYMISYLIJÄÄMÄN HYÖDYNTÄMINEN
Meistä kaikista syntyy digitaalisessa maailmassa suuret määrät dataa, jota kuvataan termillä käyttäytymisylijäämä (behavioral surplus). Kyseessä on siis data, jota on syntynyt yksilön verkkokäyttäytymisen sivutuotteena. Tekoälyn käytännön etiikka kytkeytyy paljolti juuri käyttäytymisylijäämän hyödyntämiseen. Tekoälyä voi esimerkiksi hyödyntää laajasti väestön terveydentilan seurannassa. Mitä enemmän erilaista tietoa kykenemme yksilöstä keräämään (liikkuvuus, kulutustottumukset, sosiaalinen media, ja niin edelleen) sitä paremmin kykenemme arvioimaan hänen terveysriskejään. Näin voidaan toimia kuitenkin vain yksilön suostumuksella, koska EU:n tietosuoja-asetus asettaa tiukat rajat tiedonkeruulle ja tiukat yksilön tietosuojavaatimukset. Suostumuksen tulisi olla tarkkaan määritelty tiettyyn tilanteeseen ja käyttötarkoitukseen. Jos olemassa olevaa dataa yhdistelemällä on mahdollista havaita yksilöä koskeva terveysriski, jonka toteutuminen on asianmukaisella interventiolla estettävissä, voidaanko tämä analyysi tehdä ja yksilöä informoida tilanteesta? Kyllä, jos tällaiseen tiedon käyttöön on henkilön suostumus.
Digitaalinen maailma seurantakeinoineen on jo osoittanut, että ihmiset ovat erilaista hyötyä saadakseen myös valmiita luopumaan yksityisyydestään. Ei ole yksiselitteistä vastausta siihen, miten lääkärin tulee asemoitua tässä muutoksessa. Tärkeää on päivittää toimintamalleja tarpeen mukaan ja olla mukana keskustelussa. Yksilön valmius tietojensa jakamiseen ei aina perustu näiden tietojen kaikkinaisten käyttömahdollisuuksien ymmärtämiseen. Siinä missä jotkin tiedot yksittäiseltä ihmiseltä eivät kertoisi mitään syvällistä henkilön terveydentilasta, samat tiedot kerättynä miljoonilta ihmisiltä voivat tekoälyn avulla tuottaa merkittävää tietoa esimerkiksi tietyn yksilön terveydestä. Kysymyksessä ei ole tällöin terveystietojen toisiokäyttö, jota säädellään erillisellä lailla, vaan muiden kuin terveystietojen toissijainen käyttö terveyteen liittyvissä tarkoituksissa. Lääkärin eettinen velvollisuus on toimia potilaan ja yksilön parhaaksi myös, kun lääketieteellistä asiantuntijuutta kysytään lisääntyvässä määrin algoritmisen terveysteknologian tuotantoon.
Tekoäly avaa uusia mahdollisuuksia käyttää kaikista meistä kertyvää dataa terveysriskien havaitsemiseen jo varhain, joten lääkärin tulisi käyttää näitä tietoja potilaan hyödyksi ja hänen yksityisyyden suojaansa kunnioittaen. Algoritmien kehittyessä niiden käyttäminen terveydentilaa koskevien ennusteiden luomiseen ei kuitenkaan vaadi lääketieteellistä asiantuntemusta. Voiko siis esimerkiksi työnantaja vaatia työnhakijasta sosiaaliseen mediaan kertyneitä tietoja itselleen tehdäkseen hakijasta luonne- tai riskianalyysin? Miten työterveyslääkärin tulisi suhtautua pyyntöön olla mukana tällaisessa työssä? Onko henkilö, josta lääkäri saa itselleen koneen tekemän riskiprofiilin, potilas vai jotakin muuta? Kaikkiin asioihin ei ole vielä selviä vastauksia. Lääkäri on ensisijaisesti potilaan puolella ja luottamuksen säilyttäminen lääkärin ja potilaan välillä on olennaista myös tekoälyä hyödynnettäessä.
YLEISEN TEKOÄLYN MAHDOLLISUUS
Yleinen tekoäly kykenisi toimimaan ihmisaivojen tavoin useiden erityyppisten ongelmien ratkaisijana ja käyttämään aikaisempaa oppimaansa järkevästi uusissa tilanteissa ilman erillistä ohjelmointia. Asiantuntijoiden arviot siitä, milloin tällainen tekoäly olisi olemassa, vaihtelevat reilusta kymmenestä vuodesta ennusteeseen ei milloinkaan. Tämä johtuu osin siitä, että kukaan ei vielä tarkalleen tiedä, miten ihmisäly toimii. Niitä ohjeita ja koodeja, joita tällaiseen superälyyn tai siihen liittyvään juridiikkaan pitäisi liittää, on jo pohdittu.
Yleinen tekoäly on vielä teoreettinen käsite, mutta jo sen mahdollisuus synnyttää eettisiä kysymyksiä. Näistä lääkäriä koskettavat erityisesti asiat, jotka liittyvät lääkärinvalan elämän suojelua kosketteleviin osiin. Jos meillä olisi keskellämme jotakin tai jokin, joka olisi älylliseltä suorituskyvyltään meidän vertaisemme tai yläpuolellamme, pitäisikö tekoälylle antaa tällöin myös oikeuksia itsellisenä oliona? Arvotammeko ne älykkyyden, vaikeasti määriteltävän tietoisuuden vai jonkin muun perusteella? Näihin kysymyksiin ei ole yksiselitteistä vastausta. Ihminen ja muut eläinlajit muodostavat kokonaisuuden. Tämän takia pelkkä yleisen tekoälyn mahdollisuus on tuonut uusia ulottuvuuksia lääkärintyön eettiseen pohdintaan esimerkiksi eläinkokeiden suhteen.
Tekoäly antaa mahdollisuudet sekä laajentaa ymmärrystämme että supistaa sitä. Eettisyyden ratkaisee kykymme edistää ensin mainittua ja välttää jälkimmäistä. Tekoälyn käytössä lääkärin tulee aina toimia lääkärin etiikan periaatteiden mukaisesti.
LISÄTIETOJA
Domingos P. The Master algorithm. Basic Books, 2015.
Software as a medical device. https://www.fda.gov/medical-devices/digital-health/software-medical-device-samd.
Zuboff S. The age of surveillance capitalism. www.profilebooks.com, 2019.
Boström N. Superintelligence. Oxford University Press, 2017.