
Kirjoittanut Jewel Thomas, 2. joulukuuta 2024, IEC E-Tech 06/2024, käännös ja muutokset Jukka Alve SESKO ry
Tekoälyn myötä tavat, joilla työskentelemme ja hankimme tietoa, ovat muuttumassa. Yksi merkittävästi muuttuva alue on valmistava teollisuus, jossa teollisuusautomaation ja ennakoivan kunnossapidon käyttö on yleistynyt. Tekoäly mullistaa myös lääketieteellisiä diagnooseja tiedonkeruun ja analyysin avulla. Energiateollisuudessa älykkäät sähköverkot hyödyntävät ennakoivaa kunnossapitoa ja itsekorjausmekanismeja, jotka perustuvat tekoälyyn. Rahoitusalalla tekoälyjärjestelmiä käytetään esimerkiksi omaisuudenhallinnassa ja petosten tunnistamisessa. Lista jatkuu edelleen.
Tekoälymarkkinoiden maailmanlaajuisen koon arvioitiin vuonna 2023 olevan 196,63 miljardia Yhdysvaltain dollaria, ja sen odotetaan kasvavan vuosittain 36,6 %:n vauhtia vuosina 2024–2030. International Data Corporation ennustaa, että vuoteen 2026 mennessä 75 % suurista yrityksistä käyttää tekoälyjärjestelmiä. Vuonna 2027 tekoälyratkaisuihin odotetaan käytettävän yli 500 miljardia dollaria.
Tekoälyn käytön riskit
Tekoälyn yleistymisen myötä turvallisuuskysymykset ja sen aiheuttamat uudet riskit ovat nousseet esiin. Näitä ovat muun muassa tekniset riskit, kuten kriittisten järjestelmien pettäminen, mutta myös eettiset ongelmat, kuten vinoumat, sekä uudet riskit, kuten digitaalinen manipulointi ja aseistaminen.
Useissa tapahtumissa, kuten Yhdistyneen kuningaskunnan hallituksen AI Safety Summit 2023:ssa ja ITU:n toukokuussa 2024 järjestämässä AI for Good Global Summitissa, on korostettu tekoälyjärjestelmien käyttöön liittyviä riskejä ja sitä, kuinka niiden turvallisuuden ja vastuullisuuden varmistaminen on ensiarvoisen tärkeää. YK:n syyskuussa 2024 julkaisema raportti Governing AI for Humanity toteaa:
”Tällä hetkellä tekoälyyn liittyy globaali hallintovaje. Vaikka etiikasta ja periaatteista keskustellaan paljon, normien ja instituutioiden tilkkutäkki on vasta alkuvaiheessa ja täynnä aukkoja. Vastuuvelvollisuus puuttuu usein, erityisesti silloin, kun käytetään selittämättömiä tekoälyjärjestelmiä, jotka vaikuttavat muihin. Vaatimustenmukaisuus on usein vapaaehtoisuuden varassa, käytäntö eroaa puheista.”
IEC:n rooli
IEC:n kansainväliset standardit, yhdessä ITU:n ja ISOn vertailukohtien kanssa, voivat osittain täyttää tämän aukon. Sähköisten ja elektronisten laitteiden turvallinen käyttö on IEC:n toiminnan ytimessä. Toiminnallisella turvallisuudella tarkoitetaan IEC 61508 -sarjassa järjestelmän tilan pitämistä turvallisena (tai sen ajamista takaisin turvalliseen tilaan, jos siitä on jo poistuttu) aktiivisen turvajärjestelmän toimenpiteillä.
IEC 61508 -sarja, jonka kehittämisestä vastaa älykkään valmistuksen standardeja laativa IEC TC 65, on yksi toiminnallisen turvallisuuden keskeisistä standardeista. IEC Advisory Committee on Safety (ACOS) ohjaa näitä standardointitoimia ja on julkaissut oppaita, kuten IEC Guide 104, joka selittää turvallisuusjulkaisujen valmistelua ja turvallisuusstandardien kehittämiseen liittyvien perus- ja ryhmäturvallisuusjulkaisujen käyttöä.
Suomessa älykkään valmistuksen standardeihin ja toiminnallisen turvallisuuden standardeihin pääsee vaikuttamaan osallistumalla SK 65 komitean toimintaan.
Tekoäly ja toiminnallinen turvallisuus
Millaisia standardeja kehitetään tekoälyn turvallisen ja vastuullisen käytön varmistamiseksi? Voidaanko toiminnallisen turvallisuuden käsitettä soveltaa tekoälyjärjestelmiin?
ISOn ja IEC:n yhteinen tekoälykomitea, ISO/IEC JTC 1/SC 42, on aloittanut tämän polun. Komitea on julkaissut useita teknisiä raportteja, jotka käsittelevät tekoälyn aiheuttamia riskejä ja huolenaiheita. Näistä raporteista ISO/IEC TR 24368 nostaa esiin muun muassa seuraavat eettiset haasteet:
- Luvaton tiedonkeruu tai käsittely
- Vääristyneen tai edustamattoman opetusdatan käyttö
- Päätöksenteon läpinäkymättömyys ja dokumentoinnin puute
- Jäljittämättömyys
- Teknologian sosiaalisten vaikutusten riittämätön ymmärrys
Uudempi raportti, ISO/IEC TR 5469, käsittelee tekoälyn käyttöön liittyviä erityisiä näkökohtia turvallisuuskriittisissä järjestelmissä. Tämä raportti toimii pohjana uudelle tekniselle spesifikaatiolle, ISO/IEC TS 2240, jota kehitetään yhteistyössä SC 42:n ja TC 65:n alakomitean kanssa.
TS 2240:n keskeisiä aiheita ovat:
- Riskinarviointi ja vaarojen analysointi
- Läpinäkyvyys ja selitettävyys
- Validointi ja verifiointi
- Turvallisuusanalyysit
IEC ja muut standardointiorganisaatiot työskentelevät yhdessä täyttääkseen tekoälyn sääntelyyn liittyvät aukot ja rakentaakseen luottamusta tähän maailmaa muuttavaan teknologiaan. Näin tekoäly voidaan ottaa parhaalla mahdollisella tavalla käyttöön ilman, että turvallisuutemme vaarantuu.
Lue alkuperäinen artikkeli täältä: Functional safety for AI | IEC e-tech
Lisää suosikiksiLisätietoja aiheesta
