Null intelligens

Kunstig intelligens er krevende – selv for spesialister. Når byråkrater og politikere blander seg inn, blir det ofte enten latterlig eller pinlig. Så skal journalister forklare det hele, og siste spor av intelligens blir borte. Risikabel forkludring av viktige utfordringer.

Det finnes unntak. Financial Times skriver jevnlig om AI/ML og leverer solid journalistikk, ofte god innsikt. Vi kan ikke si det samme om Aftenposten, som på lederplass 28/4/21 formidler EU-byråkratiets tapre forsøk på å regulere bruken av kunstig intelligens. Intensjonene fra Aftenpostens redaktør er utvilsomt de beste. Forståelsen er det verre med.

Utfordringen EU griper fatt i er relevant nok – å unngå misbruk. Skrekk-eksempler fra fjern og nær har demonstrert mangelfull intelligens i både teknologi og brukermiljøer, ofte med bisarre - noen ganger fatale konsekvenser. Spesielt balanse oppleves ofte som en utfordring, gjerne i etterkant – situasjoner der algoritmer forventes å levere beslutningsgrunnlag, kanskje sågar ta beslutninger. På områder som strekker seg fra generell ansiktsgjenkjenning via ansettelser og medisinske/helse-relaterte anvendelser til selvkjørende biler - og andre områder som direkte påvirker mennesker. Et bredt spekter med én tydelig fellesnevner: Feil forventninger leder til feil anvendelser som leder til feil resultater.

Uten å forstå denne fundamentale sammenhengen, gir EUs regulatorer seg i kast med utfordringen. De vil ha god balanse og lav risiko for feil – der 'feil' har en bred definisjon, og ofte er relatert til holdninger: Diskriminering, forutinntatthet, irrelevante eller ulovlige preferanser. Det de synes å gå glipp av er at målestokken – referansegrunnlaget – er mennesker. Mennesker gjør alle disse feilene hele tiden. Har preferanser, holdninger, er forutinntatte, har sin egen agenda – mer eller mindre bevisst. Eller er sløve, ukonsentrerte, trette, ruset, inkompetente og mange andre varianter. Treffer ofte, feiler av og til, får premie eller en skrape, lærer og går videre. Objektivt sett er vi vandrende feilkilder - med evne til læring og innebygd agenda – self-preservation - som sjelden eller aldri er balansert.

Mens byråkratene regulerer misforståelser, formidler pressen vrangforestillinger – og hemmer eller stopper naturlig utvikling.
Dataene vi mater inn i ML-systemene er det samme – praktisk talt  alltid ubalanserte (se Data-balanse? Glem det …). Hvilket var årsaken til at politiet i mange amerikanske byer måtte slutte å bruke ansiktsgjenkjennings-systemer i 2019. Dårlig datagrunnlag, mange feil, uegnet til oppgaven, alvorlige konsekvenser. En åpen invitasjon til byråkrater som vil vise handlekraft og alltid er på jakt etter nye områder å markeder seg på. Og la det være sagt - at EU vil detaljregulere spesifikke bruksområder er helt OK, egentlig lovfesting av sunn fornuft – av typen 'verktøyet skal være egnet for oppgaven'. Men den underliggende ideen om å ‘regulere inn’ feilfrihet – rettferdighet, uhildethet, pålitelighet eller balanse – fremstår som en indikasjon på manglende forståelse.

Denne mangelen gjør 'innsatsen' fra EU – og formidlingen i media - risikabel. Mens byråkratene regulerer misforståelser, formidler pressen vrangforestillinger – og hemmer eller stopper naturlig utvikling. Viktige fremskritt hindres fra å bli utnyttet og Europa blir hengende etter resten av verden. En utfordring som er spesielt relevant på områder der utviklingshastigheten er høy.

Det underlige er ikke at data er ubalanserte, men at vi trodde noe annet. Verden er ubalansert, og vi har siden tidenes morgen omskrevet historien (tilpasset data) slik det passer. Hvor skulle balansen eller nøytraliteten komme fra?Data-balanse? Glem det ...

For eksempel - styringssystemer for biler og skip er påviselig mer pålitelige i mange settinger enn mennesker i samme jobb. Ikke perfekte, men mindre ulykkes-utsatte – til lands og til vanns. Om det er nyttig eller farlig å kreve at mennesker skal være tilgjengelige for å kunne gripe inn, kommer an på situasjonen.  På andre områder er det motsatt: ML-systemene er (eller skal være) beslutningsstøtte, ikke ‘besluttende’ eller ‘utøvende’ – som har vært tilfelle i avanserte medisinske anvendelser i mange år. Videre – som også Financial Times observerte forleden – er det feil å forby bruk av ansiktsgjenkjenning hos politiet. Målet må være å unngå misbruk, ikke å blokkere bruk av nye verktøy.

Vi tror det er en god idé å starte med grunnleggende forståelse, der første punkt alltid er å fjerne 'intelligens'-begrepet fra ligningen. 'Intelligens' inviterer til misforståelser og feilaktige forventninger hos alle, inklusive politikere, byråkrater og journalister. Mens ‘maskinlæring’ (ML), som er hva vi egentlig snakker om, er uten historisk ballast og dermed fungerer – for alle. Punkt nr. 2 er  å definere ambisjoner, mål og målestokk for reguleringene. Skal det utvikles et mål for nøytralitet/balanse/uhildethet etc.? Finnes det noe eller noen som er i stand til det? Skal vi utvikle hjelpemidler som leverer bedre enn mennesker? Da kan vi starte med å identifisere våre svakheter, både de holdningsmessige og - i mange situasjoner - hvor ofte mennesker er årsak til små og store katastrofer. Det vil gjøre vondt, kanskje er det umulig. Mennesker er spontane og agerer ofte spontant. Eller vi trenger tenketid for å evaluere, agere (se The Human Factor). Maskiner og 'boter' kan reagere mye raskere, alltid 'rasjonelt' ut fra datagrunnlaget de har, aldri med spontanitet. Det må være en fordel - men etter hvilken målestokk?

Det er lett å si seg enig med både Aftenposten og EUs byråkrater i at det haster med å få på plass normer og - etterhvert - krav. Det haster imidlertid enda mer å få på plass grunnleggende forståelse av utfordringene - og mulighetene. Pluss et nytt begrepsapparat. Hvis dette er første runde, er det langt igjen. Og avstanden mellom juss, politikk og byråkrati på den ene siden,  og virkeligheten på den andre,  øker for hver uke. En blind-leading-the-blind situasjon som i beste fall blir humoristisk, i verste fall selvskudd: Forbud mot viktige hjelpemidler, verktøy, tjenester.

Legg igjen kommentar

Dette nettstedet bruker Akismet for å redusere spam. Lær om hvordan dine kommentar-data prosesseres.