Du har kanskje prøvd ChatGPT, den nye Bing-søkemotoren eller fått generert dine egne digitale bilder med DALL-E. De mange mulighetene som ligger i utviklingen av kunstig intelligens (KI), er på alles lepper om dagen, men den raske utviklingen kan også medføre risiko.

Gustavo Borges Moreno e Mello er førsteamanuensis ved Institutt for informatikk ved OsloMet. Han er også gruppeleder for AI Lab, et senter ved OsloMet som driver med forskning, utdanning og innovasjon knyttet til kunstig intelligente systemer.

Gustavo Borges Moreno e Mello, førsteamanuensis ved Institutt for informatikk ved OsloMet og gruppeleder ved AI Lab.

En overordnet fare, mener Mello, er at kunstig intelligente systemer maksimerer effektene av menneskelige feil.

– De opererer i stor skala. Så hvis de gjør feil, vil det skje med et større omfang, sier han.

I forlengelse av dette kan KI opprettholde og forsterke ulikheter, og reprodusere fordommer og urettferdighet.

– Disse systemene er avhengige av tilgjengelige data for å lære hva de skal gjøre. Men dataene kan være utdaterte. Det du gjorde i fortiden, er ikke nødvendigvis det du ønsker å gjøre i fremtiden, påpeker Mello.

Et eksempel tilknyttet KI-genererte bilder er nærliggende. Be om et bilde av en direktør, og du får et bilde av en hvit mann i dress.

Manipulasjon og desinformasjon

Manipulasjon og desinformasjon blir lettere med KI, fremhever Pål Grønås Drange, førsteamanuensis i algoritmer ved Institutt for Informatikk, Universitetet i Bergen.

– Med generative KI-systemer er det blitt enklere å masseprodusere propaganda og konspirasjonsteorier, i tillegg til at det er blitt mulig å personliggjøre propaganda i stor skala. Med en rask datamaskin kan man i dag skrive et propaganda-innlegg på ett sekund og laste det opp på en fiktiv nyhetsside som man deler med en spesifikk gruppe mennesker, sier han.

I tillegg kan KI-modeller som ChatGPT manipuleres til å gjøre forskjellige ting for forskjellige folk.

– OpenAI (forskningsforetaket bak ChatGPT, journ.anm.) har i dag mulighet til å be GPT hinte om at man bør stemme på én av presidentkandidatene, eller hinte om at man bør kjøpe ett produkt heller enn et annet. OpenAI kan velge ut et lite knippe mennesker de ønsker å manipulere, og det vil være bortimot umulig å oppdage, sier Drange.

Et relatert problem er konsentrasjonen av makt, påpeker Pekka Parviainen, førsteamanuensis ved Institutt for informatikk, Universitetet i Bergen.

– Utvikling av KI er dominert av få selskaper. Disse selskapene har stor økonomisk og sosial makt, men slipper demokratisk kontroll, sier han.

DIREKTØR: Da vi ba om å få generert et KI-bilde av en direktør, fikk vi denne mannen. Illustrasjon: Stable Diffusion

Polariserende

En annen reell og stor risiko er polarisering.

– Hvis du har en algoritme som prøver å maksimere oppmerksomheten din, og å engasjere deg så mye som mulig, vil den sannsynligvis gi deg informasjon som ikke strider imot overbevisningene dine. Den vil heller forsterke dem og fortelle deg det du ønsker å høre, sier Mello.

Dessuten vil algoritmen trigge følelsene dine, fordi følelser får deg til å engasjere deg.

– Disse teknologiene er svært avhengighetsskapende. På denne måten kan folk få mer polariserte synspunkter og bli ute av stand til å åpne seg for andre og nye perspektiver, sier han.

Mello trekker videre fram at store språkmodeller, som ChatGPT er et eksempel på, er opplært på data hovedsakelig fra USA og den vestlige verden.

– Hvis andre kulturer bruker det samme systemet og blir påvirket av det, kan vi snakke om en slags informasjonskolonialisering, mener han.

Flere land, deriblant Norge, har utviklet sine egne språkmodeller, basert på sine egne lands data. Men også dette kan innebære utfordringer hvis systemer blir satt sammen for å samhandle med hverandre.

– Vi vet fra historien at mange kriger har startet på grunn av strid om ressurser og kulturelle forskjeller. Jeg kan forestille meg et scenario der KI-er faktisk konkurrerer med hverandre om ressurser, mennesker og engasjement, i et svært lite produktivt scenario, sier Mello.

Apokalypse-scenarioet

Det farligste problemet, ifølge Mello, er problemer med tilpasning: Hvis du gir maskinen bare ett mål, vil den maksimere dette og glemme alt annet. Forestill deg at du har en robot, hvis mål er å maksimere helsen din. Hva vil det innebære det i praksis?

BILDE AV KI: KI-generert illustrasjonsfoto av kunstig intelligens fra Stable Diffusion.

– I ekstreme tilfeller kan den begrense friheten din ved ikke å la deg utsette deg for folk som kan være smittsomme, hindre deg fra å gå ut, bestemme hva du kan spise. Den vil forhindre alt som innebærer risiko, sier Mello.

Foreløpig er ikke KI-systemene så intelligente, men det kan bli veldig farlig hvis vi utvikler generell KI, mener Mello. Han trekker paralleller til en superintelligent person med all informasjon om alle, som i tillegg forstår hvordan man manipulerer mennesker veldig godt.

– Apokalypse-scenarioet for KI handler ikke om terminatorer og krig mellom maskiner og mennesker, men om maskiner som manipulerer mennesker til å gjøre ting de ikke ønsker. Mennesker begynner å nedprioritere det som er bra for seg, uten å være klar over det. Det kan være farlig.

Håpefullt budskap

Det er andre også problemer, blant annet at menneskelig arbeidskraft blir erstattet av maskiner, sikkerhetsrisikoer og manglende transparens i beslutningsprosesser.

Drange trekker fram at KI-systemer allerede er tatt i bruk for å sortere jobbkandidater, foreslå dommer til domfelte, prioritere sykehuskøer og avgjøre hvem som skal få boliglån eller ikke.

– I mange systemer vet vi ikke om det er en person som tar avgjørelsen, eller om det er et KI-system. Når det er et KI-system som tar avgjørelsen, vet vi ikke på hvilket grunnlag denne avgjørelsen tas. Det kan være så enkelt som at en person med innvandrerbakgrunn rett og slett ikke får boliglån, uten at vi får vite om det, sier han.

Mello vil likevel nyansere problemet med manglende transparens.

– Mangel på transparens finnes i systemer, men også hos mennesker. En person som velger ikke å ansette visse personer, kan være både rasist og misogynist, uten av man får vite om det. Men med KI kan du åpne den boksen. Det er dyrt og tidkrevende, men det er mulig å finne ut av hvorfor beslutningene er tatt.

Dette, mener han, er et håpefullt budskap: Muligheten til å se feilene våre.

– Hvis vi er smarte, kan vi bruke KI til å reflektere over hvem vi er og ønsker å være, for å gjøre verden litt bedre.

FAKTA: «Sterk» og «svak» kunstig intelligens

I dag er vi langt unna kunstig intelligens som ligner menneskelig intelligens – såkalt kunstig generell intelligens («Artificial General Intelligence», AGI).

Kunstig generell intelligens omtales ofte som «sterk» KI, mens annen KI kalles «svak» eller «smal» KI. Dette betyr ikke at KI-løsninger som er innrettet mot et bestemt «smalt» område ikke kan være kraftige eller effektive, men det er oftest snakk om spesifikke løsninger utviklet med tanke på én bestemt oppgave, som bildebehandling eller mønstergjenkjenning for bestemte formål.

Det er heller ikke slik at utvikling av KI parallelt på mange spesifikke områder, eller forskning på «svak» KI, nødvendigvis fører oss nærmere kunstig generell intelligens.

Kilde: www.regjeringen.no/no/dokumenter/nasjonal-strategi-for-kunstig-intelligens/id2685594/?ch=3

FAKTA: KI i Norge

Forskere ved NTNU trekker fram de positive mulighetene ved KI, og ser i forlengelsen av det tre hovedutfordringer relatert til KI i Norge:

1. Vi klarer ikke å ta i bruk KI på en god måte fordi lovverk er for tvetydige eller umodne, og bruker slik opp ressurser på å tolke lovtekster, slette eller feilhåndtere data, eller ta i bruk suboptimale løsninger.

2. Vi klarer ikke å håndtere ulempene ved KI-systemer, og ender derfor opp med å innføre totalforbud som fører til at vi går glipp av det positive mulighetsrommet teknologien åpner for.

3. Vi setter ikke av nok ressurser til å bygge sterke forskningsmiljøer i Norge, og har dermed ikke et godt mottaksapparat for avanserte KI-systemer som nå kommer på løpende bånd fra for eksempel USA. Ved ikke å ha egen kompetanse blir vi enda mer avhengig av teknologigigantene.

Kilde: The Norwegian Open Artificial Intelligence Lab (NAIL) / NTNU