top of page

AI-agenttien autonomia ei ole on/off. Se on asteikko, joka määrittää riskin, vastuun ja kontrollin.

Päivitetty: 7.3.

Edellisessä artikkelissa kirjoitin vastuusta. Tässä tarkennan missä kohtaa AI-agenttien autonomia käytännössä alkaa ja missä kohtaa riski muuttuu olennaiseksi.


AI-agenttien autonomiasta puhutaan usein yksinkertaisella tavalla.

 

Onko agentti autonominen vai ei? 

Onko ihminen loopissa vai ei?

 

Todellisuudessa tämä kehys on liian karkea. Autonomia ei ole kyllä/ei-kysymys vaan asteikko. Ja jokainen askel tällä asteikolla on johtamispäätös.

 

Autonomian asteikko käytännössä

 

AI-agentin autonomia rakentuu käytännössä neljällä tasolla.

 

1) Analysoiva autonomia

 

Tällä tasolla agentti jäsentää tietoa, tekee yhteenvedon ja tuo esiin havaintoja.

Se ei tee päätöksiä eikä muuta järjestelmän tilaa. Se voi esimerkiksi analysoida asiakasdataa tai tuottaa yhteenvedon riskikohdista, mutta ihminen tekee kaikki ratkaisut.

 

Hyöty on selkeä: tehokkuus kasvaa ilman, että päätösvaltaa siirtyy. Riskitaso on suhteellisen matala.

 

2) Ehdottava autonomia

 

Seuraavalla tasolla agentti ei ainoastaan analysoi vaan tuottaa ehdotuksia.

 

Se voi esitäyttää dokumentteja, luokitella vaihtoehtoja tai muotoilla päätösluonnoksia. Ihminen hyväksyy ennen toimeenpanoa. Tällöin riskin luonne muuttuu. Päätös ei synny enää tyhjästä vaan agentin kehystämänä. Hyväksymisprosessin laatu alkaa ratkaista.

 

3) Toiminnallinen autonomia

 

Kolmannella tasolla agentti voi käynnistää toimenpiteitä. Se voi esimerkiksi lähettää asiakkaalle viestin, päivittää järjestelmän tietoja tai julkaista sisällön ilman erillistä hyväksyntää jokaisessa yksittäisessä tapauksessa. Tällä tasolla autonomia ei ole enää pelkkä tehokkuustyökalu vaan päätöksentekoa.

 

Autonomia muuttuu riskiksi siinä hetkessä, kun agentti saa muuttaa todellisuutta. Ja päätöksenteko on aina myös vastuun jakamista.

 

4) Itseohjautuva autonomia

 

Neljännellä tasolla agentti ei ainoastaan toimi annetussa kehyksessä.

 

Se priorisoi tehtäviä, optimoi omaa toimintaansa ja voi päättää mitä ongelmaa se seuraavaksi ratkaisee tavoitteen saavuttamiseksi. Se ei enää vain toteuta. Se alkaa ohjata. Juuri tässä siirtymässä innostus ja hallinta joutuvat vastakkain. Autonomia ei enää tarkoita yksittäisten toimenpiteiden suorittamista vaan toimintasuunnan muokkaamista. Agentti ei pelkästään reagoi. Se valitsee.

 

Tällä tasolla kysymys ei ole siitä, mihin teknologia pystyy. Kysymys on siitä, onko organisaatio valmis kantamaan seuraukset siitä, että päätösvaltaa on siirretty järjestelmälle.

Mitä korkeammalle asteikolla noustaan, sitä vähemmän kyse on teknisestä kyvykkyydestä ja sitä enemmän kyse on kontrollirakenteesta. Miten autonomia rajataan? Miten toiminta voidaan keskeyttää deterministisesti? Miten päätökset auditoidaan?

 

Kun asteikkoa ei tunnisteta

 

Suurin virhe AI-agenttien käyttöönotossa on ajatella autonomiaa yhtenä ominaisuutena.

 

Organisaatiot siirtyvät huomaamattaan tasolta 1 tasolle 3 eli analyysista toimeenpanoon. Ehdotuksesta päätökseen. Riskin dynamiikka ei kuitenkaan kasva lineaarisesti. Se, mikä on turvallista analyysitasolla, ei ole enää turvallista toiminnallisella tasolla. Mittakaava ei lisää ainoastaan volyymia vaan se moninkertaistaa vaikutukset.

 

Siksi kysymys ei ole siitä, annetaanko agentille autonomiaa. Kysymys on siitä, millä tasolla sitä annetaan ja missä kohtaa raja kulkee.

 

Autonomia kirjoitetaan arkkitehtuuriin

 

Autonomia ei saa olla piilossa oleva ominaisuus tai hiljainen oletus. Se on määriteltävä. Missä kohtaa agentti saa tehdä päätöksen? Missä kohtaa sen on pysähdyttävä? Milloin asia siirtyy ihmiselle? Autonomia ei ole tekninen asetus vaan johtamispäätös.


Ja jokainen askel autonomian asteikolla ylöspäin on päätös riskitasosta.


Älykäs organisaatio ei kysy, onko agentti autonominen. Se kysyy, millä tasolla sen pitää olla ja miksi. Lopulta jokainen askel autonomian asteikolla on myös päätös siitä, kuinka paljon epävarmuutta organisaatio on valmis hyväksymään.


 
 
 

Kommentit


bottom of page