Tässä osiossa käymme läpi Euroopan unionin tekoälylainsäädäntöä, joka vaikuttaa tekoälyn kehittämiseen ja käyttöön. Lainsäädäntö pyrkii varmistamaan, että tekoälyjärjestelmät ovat turvallisia, läpinäkyviä ja eettisiä.
1. eu:n tekoälydirektiivi
EU:n komissio ehdotti huhtikuussa 2021 ensimmäistä EU:n sääntelykehystä tekoälylle. Tämän lainsäädännön tavoitteena on luoda paremmat olosuhteet tekoälyn kehittämiselle ja käytölle, ottaen huomioon tekoälyn tuomat hyödyt, kuten parempi terveydenhuolto, turvallisempi liikenne ja kestävämpi energia.
2. riskiluokitus
Tekoälyjärjestelmät luokitellaan niiden käyttäjille aiheuttaman riskin mukaan. Lainsäädäntö jakaa tekoälyjärjestelmät kolmeen pääluokkaan riskin mukaan:
A. hyväksymätön riski
Nämä järjestelmät katsotaan uhkaksi ihmisille ja ne tullaan kieltämään. Esimerkkejä hyväksymättömästä riskistä ovat:
- Kognitiivinen käyttäytymisen manipulointi, kuten lasten vaaralliseen käyttäytymiseen kannustavat lelut.
- Sosiaalinen arviointi, jossa ihmiset luokitellaan käyttäytymisen tai sosioekonomisen aseman mukaan.
- Biometrinen tunnistus ja luokittelu.
B. korkea riski
Korkean riskin tekoälyjärjestelmät, jotka vaikuttavat turvallisuuteen tai perusoikeuksiin, jaetaan kahteen kategoriaan:
- Tekoälyjärjestelmät, jotka liittyvät EU:n tuote- ja turvallisuuslainsäädäntöön (esim. lelut, ilmailu, autot).
- Tietyt erityisalueet, jotka on rekisteröitävä EU:n tietokantaan, kuten:
- Kriittisen infrastruktuurin hallinta
- Koulutus ja ammatillinen koulutus
- Työllisyys ja työnhallinta
- Oikeuspalvelut ja julkiset palvelut
- Lainsäädäntö ja rajavalvonta
Kaikki korkean riskin tekoälyjärjestelmät arvioidaan ennen markkinoille pääsyä ja niiden elinkaaren aikana. Käyttäjillä on oikeus tehdä valituksia kansallisille viranomaisille.
C. alhainen riski
Alhaisen riskin tekoälyjärjestelmät eivät vaadi tiukkoja sääntöjä, mutta ne on silti arvioitava.
3. läpinäkyvyysvaatimukset
Generatiivisten tekoälyjärjestelmien, kuten ChatGPT:n, on noudatettava läpinäkyvyysvaatimuksia. Tämä tarkoittaa muun muassa:
- Tiedon antamista siitä, että sisältö on luotu tekoälyn avulla.
- Mallin suunnittelua niin, että se ei tuota laitonta sisältöä.
- Tekijänoikeudellisesti suojatun datan käytön tiivistämistä.
Korkean vaikutuksen yleiskäyttöiset tekoälymallit, kuten GPT-4, tarvitsevat perusteellisia arviointeja ja vakavista onnettomuuksista on ilmoitettava Euroopan komissiolle.
4. innovaatioiden tukeminen
Lainsäädäntö tukee innovaatioita tarjoamalla startupeille ja pienille ja keskikokoisille yrityksille mahdollisuuksia kehittää ja testata tekoälymallejaan ennen julkista käyttöä. Kansallisten viranomaisten on tarjottava yrityksille testausympäristö, joka simuloi todellisia olosuhteita.
5. seuraavat askeleet
Euroopan parlamentti hyväksyi tekoälylakiehdotuksen maaliskuussa 2024, ja neuvosto seurasi hyväksyntäänsä toukokuussa 2024. Tämä lainsäädäntö tulee olemaan keskeinen tekijä tekoälyn turvallisessa ja eettisessä käytössä Euroopan unionissa.
Tulemme tarkastelemaan tarkemmin, miten nämä säännökset vaikuttavat tekoälykoordinaattorin rooliin ja vastuisiin seuraavissa osioissa.
