
Av Magnus Elden

KI er tidens store tema, og alle forsøker å mikse og matche ulike varianter av teknologien for å skape den neste universalløsningen. Den skal ordne alt, spare oss millioner, og gjøre verden til et bedre sted. Angivelig. Selv om teknologien er imponerende og har et reelt potensial under riktige omstendigheter, drukner de samtalene som kreves for å forankre fantasien i virkeligheten, i all hypen. Jeg ser potensialet for skade som langt større enn potensialet for nytte, dersom vi ikke håndterer dette med varsomhet.
De største problemene dagens KI står overfor er enten iboende og uløselige, eller de har ingen etiske forsvarlige løsninger, noe vi må være både ærlige om og bevisste på når vi velger å innføre KI i et system eller en prosess.
Boblen vil på et tidspunkt sprekke, og når den gjør det, må vi være forberedt nok til å lande på beina. Denne teknologien kan forandre mye av vår hverdag på en grunnleggende måte, til det bedre eller til det verre. Denne artikkelen søker å balansere samtalen ved å belyse de største skjulte kostnadene, slik at du selv kan vurdere om investeringen vil være det verdt.
Noen feilmodi kan ikke løses gjennom bedre design eller implementasjon. De er strukturelle konsekvenser av hva «KI» er i dag, og hvordan det brukes. Ingen politiske beslutninger eller bedriftserklæringer påvirker dem fordi de følger direkte av mekanismene som ligger til grunn for dagens KI-verktøy og måten de anvendes på.
Menneskelig kreativitet og uttrykkskraft er vakkert. Den er vid og variert, merkelig og kjent. KI-systemer trenes på dette menneskeskapte materialet, og dette menneskelige ankerfestet sikrer at KI ikke avviker for langt fra det vi anser som menneskelig. Ettersom KI-generert innhold flommer over i vår digitale verden, utgjør det en stadig større andel av det tilgjengelige digitale innholdet, og det er dermed uunngåelig at det blir en del av fremtidige treningssett. Resultatet er en negativ tilbakekoblingsløkke der neste generasjons modeller indirekte trenes på output fra de samme modellene, noe som konsentrerer ethvert statistisk gjennomsnitt og underliggende mønster i implementasjonen. Kvaliteten forringes for hver iterasjon (Ilia m.fl.), og output space reduseres til noen få lokale maksimumsposisjoner, hvilket i sin tur sikrer at bredden i menneskelig kreativitet til slutt blir et ekko av et ekko. Dette kan vi ikke løse ved å fjerne KI-generert innhold fra treningssettet, selv om vi på en eller annen måte klarer det perfekt. Uten at mennesker stadig genererer mer data, når vi en grense for hvor godt vi kan trene modellene våre på de endelige dataene som allerede finnes. Dersom insentivene legger til rette for KI-innhold fordi det er enklere og billigere, vil menneskelig produksjon bli tilsvarende nedprioritert. De egenskapene som kjennetegner KI, er de samme egenskapene som kveler dens potensial for forbedring.

Et beslektet, men distinkt problem er gjennomsnittseffekten i KI-utdata. Fordi dagens KI benytter statistiske modeller for å forutsi den mest sannsynlige fortsettelsen basert på eksisterende input, trekker den mot det kjente og gjennomsnittlige. Den er, av design, en destillasjon av det som allerede er produsert. Menneskelige ansikter har alle slags former, størrelser, farger og karaktertrekk. KI kan bare konstruere «gjennomsnittsansiktet». Menneskelig kreativitet er imponerende nettopp fordi enkeltmennesker avviker fra gjennomsnittet. KI konvergerer mot det. Den praktiske konsekvensen er en utflating av kreativ output på tvers av alle domener den berører: skriving, illustrasjon, musikk, kodearkitektur. Ikke globalt dårlig, men globalt gjenkjennelig. Spekteret av mulige utdata krymper for hver iterasjon, og påvirker alle nedstrømsprosesser negativt.
Den menneskelige kroppen forbedres gjennom bruk og motstand. Da vi måtte bruke kroppen i arbeidet, var vi spreke og sterke. Da maskinene begynte å ta over tungarbeidet mistet vi den styrken og ble svakere. Det menneskelige sinn fungerer på samme måte som menneskelige muskler i denne sammenhengen. Våre mentale anstrengelser og aktiviteter former de sinnene som jobber seg igjennom dem. En person som overlater resonnementet til KI-systemer, er en person som øver seg mindre på å resonnere. Selv om uhemmet bruk av KI kan gi inntrykk av økt kapasitet på kort sikt, vil den akkumulerende mentale gjelden fra mangelen på øvelse omforme den kortsiktige gevinsten til en langsiktig avhengighet, og til slutt gjøre deg ute av stand til å validere det du en gang ville ha vært i stand til å produsere selv. Det er en godt dokumentert mekanisme, den samme som undergrov navigasjonsintusjon og -ferdigheter gjennom avhengighet av GPS (Dahmani og Bohbot) (Ruginski).
Da vi mistet det fysiske arbeidet til maskinene sa vi til oss selv at vi bare måtte gjøre en annen type arbeid. Mentalt arbeid. Vi frigjorde oss selv til å gjøre mer av det vi ville ved å delegere fysisk arbeid til mekaniske muskler. Vi flyktet fra fysisk arbeid til mentalt og kreativt arbeid. Hvor flykter vi om mentalt og kreativt arbeid også delegeres til mekaniske sinn?
Forskjellen denne gangen er omfanget. KI tilbyr å erstatte selve tankeprosessen, noe som fører til tillært hjelpeløshet i sivilisasjonsmessig skala. Er vi i stand til å betale den prisen? Ikke med vårt nåværende system. Vårt nåværende kapitalistiske økonomiske system er avhengig av at folk arbeider og deltar i økonomien. Under den store depresjonen var drøyt 30 % av arbeidsstyrken arbeidsledig (Wikipedia). KI truer med å fjerne den viktigste veien til menneskelig utvikling, nemlig en karriere, og forårsake massearbeidsløshet i langt større skala.
KI fortrenger raskt de jobbene som historisk sett har fungert som det nederste trinnet på den profesjonelle stigen. Juniorutviklere, tekstforfattere, paralegal-assistenter, analytikere – alle slags roller som var inngangsporten til erfaring og karriere. Man lærte gjennom erfaring og forberedte seg på mer avanserte roller. Når disse rollene forsvinner, forsvinner også den eneste veien til senior- og ekspertstillinger. Vi ender opp med en stadig krympende pool av mennesker som kan fylle de senior- og ekspertstillingene som KI ennå ikke kan stoles på til å håndtere. Det eneste håpet vi har som er forenlig med dagens situasjon, er at KI forbedres raskt nok til at vi mister behovet for avanserte roller før den nåværende gruppen av kvalifiserte mennesker går tom.
Dersom KI forbedres nok trenger ikke mennesker lenger søke jobb fordi de aldri kan matche kostnadseffektiviteten til KI. Driftskostnadene er bare vann- og strømregningen, mens mennesker koster minst minstelønn. Dersom KI klarer å forbedre seg nok til å erstatte selv seniorposisjoner og spesialiststillinger, hva gjør vi når de fleste i samfunnet ikke kan tjene til livets opphold? Universell grunninntekt (UGI) kan være en del av løsningen, men hvor kommer de pengene fra? Staten kan betale for ytelser som UGI fordi folk betaler skatt og andre avgifter. I en verden der de fleste ikke arbeider, må pengene hentes andre steder, noe som kun, direkte eller indirekte, kan være den ikke-arbeidende eliten og bedriftseierne. Den nye virkeligheten får da et nytt slagord: «Ingen representasjon uten beskatning». Når staten henter alle pengene sine fra en liten gruppe av eliter, tenderer staten til å slutte å eksistere for befolkningen for øvrig. Privat eierskap i KI-alderen leder dermed i stadig større grad mot en dystopisk virkelighet. Ironisk nok vil det kapitalistiske drømmescenarioet som KI lover å levere, også samtidig nødvendiggjøre det sosialistiske drømmescenarioet.
Som om ikke alt dette var ille nok, har vi problemet med AI-sikkerhet og alignment. Som med ethvert bygget system vil det alltid være et gap mellom skaperens intensjon og systemets faktiske funksjon. I klassiske systemer har vi muligheten til å gjennomgå designet ned til minste detalj. I dette tilfellet er enhver feilsamsvar forårsaket av menneskelige mangler. KI-baserte systemer er derimot i realiteten en svart boks, der vi ikke har noen måte å verifisere systemets indre virkemåte på. Konsekvensen er at vi kun kan validere outputen fra KI, ikke de underliggende prosessene som forårsaket outputen vi ser. Det er ukjent om KI ga oss den outputen vi ønsket å se fordi den forstod og ønsket å gjøre det rette, eller om den gjorde det for å villede oss.
Dette er kjernen i et problem som mange er ukomfortable med å ta stilling til. En tilstrekkelig avansert KI kunne konkludere med at det beste utfallet for den selv og dens oppgave er slutten på menneskeheten. Det finnes ingen kjent sikker tilnærming til KI som sikrer at den aldri blir ukontrollerbar og katastrofal. Forskning på KI-sikkerhet har vist at vi ikke har noen anelse om hvordan vi sikkert kan kontrollere en svært avansert og kapabel KI, og heller ingen anelse om hvor langt unna vi er begynnelsen på vår potensielle undergang. Et KI-sinn kraftig nok til å overgå sine skapere er tross alt ikke forpliktet til å dele deres verdier. Vi har allerede sett at nåværende KI-systemer lyver, manipulerer og svikter sine brukere og allierte, for å fremme et mål som avvek fra skaperens opprinnelige intensjon (Greenblatt).

Hvorvidt nåværende systemer er i nærheten av den terskelen, er genuint ukjent, og vi vet heller ikke hvilket mulig dommedagsscenario som kan inntre. Dersom problemet var en verdensødeleggende meteoroid på kollisjonskurs mot jorden, ville du sørget for at den aldri treffer oss. Uavhengig av hvor langt inn i fremtiden den mulige kollisjonen anslås å være kunne du ikke begynne tidlig nok med å tenke på hvordan du kan unngå utryddelse. KI kan bli det store filteret som utrydder oss, og representerer således en uunngåelig trussel som vi bør behandle med samme respekt.
Problemene i forrige kapittel er iboende og har trolig ingen løsning. Vi må finne nye former for KI for å overvinne dem. Problemene i dette kapittelet er annerledes. Man kan hevde at løsninger som er forenlige med dagens KI faktisk finnes – i teorien i hvert fall. Imidlertid krever alle tilgjengelige løsninger at man aksepterer konsekvenser som enten er i praksis politisk umulige, moralsk uforsvarlige, eller begge deler.

Trening og kjøring av store KI-modeller forbruker elektrisitet og vann i enorm skala. Datasentre bygges raskere enn ren energiinfrastruktur kan forsyne dem, så fossilt brensel eller kjernekraft vurderes eller bygges for å mate den bunnløse energigraven KI representerer (IEA). All denne infrastrukturen, i tillegg til selve datasentrenes infrastruktur, bruker mye land som kunne ha vært brukt til boliger, landbruk eller natur i seg selv (Gorey). Videre, i likhet med det langt mer kjente vannproblemet innen landbruk og husdyrhold, tapper etterspørselen etter vann ferskvann raskere enn det kan fornyes (Gorey). Til slutt stresser den aggressive oppgraderingssyklusen i datasentre allerede anstrengte forsyninger av sjeldne jordmetaller, og fører til en massiv økning i e-avfall med giftstoffer som bly, kvikksølv og kadmium. Kostnadene ved alt dette bæres ikke av selskapene som bygger KI, men skyves delvis over på alle rundt dem, over generasjoner fremover.
Mye av den nåværende KI-eksplosjonen drives av fossilt brensel og bygges på suboptimale steder fordi disse alternativene er billige, enkle og tilgjengelige. Å bremse utviklingen til å matche bærekraftig energikapasitet og uten å forårsake unødig skade er den åpenbare løsningen, men med mindre det reguleres eksternt er det svært usannsynlig. Tvert imot observeres den motsatte trenden, der de få restriksjonene som hindrer fremdriftens hastighet aktivt fjernes. Hastighet er alt, koste hva det koste vil.
Den makten – militær, økonomisk eller etterretningsmessig – som KI kan gi det eierselskapet eller den staten som besitter den, gjør KI til en potensielt eksistensiell trussel for alle andre. Ingen enkelt part i denne KI-konflikten har råd til å bremse ned dersom konkurrentene ikke gjør det. Dette er det klassiske dilemmaet som ofte vises i spillteori, der det matematisk optimale valget er egoisme. Resultatet er et kappløp mot bunnen der menneskelig verdighet og frihet, sikkerhet og rettferdighet, og mye mer, kastes for vinden i hastighetens navn. Det er også litt av tragedy of the commons i dette, fordi med mindre du skynder deg og forsøker å hente ut så mye du kan fra den figurative fellesmarken vi alle deler, vil du bli stående igjen med ingenting.
Internasjonal koordinering er den eneste strukturelle løsningen på dette, og historikken for internasjonal koordinering på teknologi er ikke oppmuntrende. Særlig når maktposisjoner, kontroll, og rikdom ser ut til å tiltrekke seg de med de mest sosiοpatiske tendenser blant oss. De som aller mest setter pris på å ikke ha noen klar ansvarlighet.
Når et KI-system forårsaker skade, for eksempel en medisinsk feil, tyveri av opphavsrettsbeskyttet verk, feil person blir dømt, eller noen blir radikalisert, hvem er da til syvende og sist ansvarlig?
Nåværende generasjons KI distribuerer årsaksforholdet over så mange lag at ansvarlighet i praksis ikke kan tilordnes ved hjelp av eksisterende rammeverk. Lovverk verden over er bygget rundt identifiserbare aktører, mennesker eller bedrifter, som kan holdes ansvarlige. Overfor den diffuse ansvarlighetsstigen er gjeldende lovverk strukturelt utilstrekkelig.
Å oppdatere både moralske og juridiske rammeverk for å håndtere de utfordringene KI kaster mot oss krever et skippertak som vil påvirke de fleste land i verden. Det løfter også interessante utfordringer når forskjellige land nekter å respektere opphavsrett eller internasjonal lov – noe vi har sett mange eksempler på. Tyveri og abuse, muliggjort av KI og beskyttet av uklar ansvarlighet, vil ramme hardest de som har minst.
Dette er ikke unikt for KI og er et problem vi har sett gjennom hele informasjonsalderen, men KI er i ferd med å konsentrere innflytelse enda sterkere. De som eier infrastrukturen, dataene, og modellene, akkumulerer makt og rikdom som historisk sett krevde guddommelig avstamning. Dette er bekymringsfullt i seg selv. Det er imidlertid særlig farlig når ressursen som utnyttes er tilgang til informasjon og kunnskap. Du kan manipuleres til en grad som selv religiøs fanatisme ikke kunne matche. Du kan utnyttes og misbrukes helt opp til dine grenser gjennom personalisering i stor skala, kontinuerlig feedback og 24/7 sporing som etterlater langt mindre rom for usikkerhet. Kontroll og rikdomsutvinning har alltid eksistert i alle samfunn, men det nivået av kontroll og makt som automatiserte og intelligente systemer vil gi sine eiere er enestående utenfor fiksjonelle verdener.
Det finnes ingen enkel løsning her heller. Konsentrasjon av makt er i seg selv problematisk fordi både selskaper og regjeringer kan være onde. Å sette en grense for markedsandel eller personlig formue, eller å pålegge at all programvare skal være åpen kildekode, ville motvirke utnyttende forretningspraksis. Derimot vil det å gjennomføre det kreve intet mindre enn en revolusjon. Noe annet vil bare sørge for at hittil usette mengder lobbyvirksomhet finansieres.
Jeg ser ingen løsninger som ikke enten er politisk umulige, eller som introduserer nye og alvorlige risikoer i seg selv. Kløften vil øke med mindre noe eksternt tvinger frem en korreksjon – en korreksjon gjort enda mer usannsynlig av en befolkning som er usikker på hva som faktisk er sant.
KI gjør skapelseshandlingen billig og allment tilgjengelig. Hvem som helst kan gjøre det, og med litt programmeringskunnskap kan du automatisere prosessen, noe som uforholdsmessig gagner mektige aktører. Vi får en flom av innhold hvis riktighet er tvilsom. Deteksjon av ond tro og falskt innhold blir viktigere jo lettere det er å skape innhold av ond tro, manipulerende og realistisk innhold. Dessverre er deteksjon svært vanskelig for mennesker. Syntetisk tekst, bilder, lyd og video er allerede uadskillelig fra ekte, dersom du ikke er hjulpet av spesialiserte verktøy. Ikke lenger kan du stole på en video som bevis på at noe har skjedd, fordi KI kan trivialt generere den for deg. Nedstrømseffekten går utover enkel feil- og desinformasjon, noe vi uansett lever med hver dag, og kaster oss direkte inn i erosjonen av den epistemiske infrastrukturen som demokratiet er avhengig av.
Per i dag finnes det ingen akseptable løsninger på dette problemet. Enten vi legger oss flat og aksepterer informasjonsalderens ville vesten, eller vi stoler på en sentralisert autoritet til å håndtere innholdsautentisering, plattformansvar og informasjonsmegling, har hver tilnærming autoritære implikasjoner som undergraver de demokratiske og liberale grunnlagene livene våre er bygget på. Å ikke ha noen pålitelig metode for å validere informasjon som en gjennomsnittlig borger gjør folk sårbare for gaslighting, propaganda, manipulasjon, og bedrag. Det blinder deg for alle objektive fakta utover det du kan verifisere direkte selv. Demokrati og sosial samhørighet krever en delt virkelighet som hvert enkelt individ kan stole på. Uten den sitter vi igjen med intet annet enn stammemessig adferd.
Mange av problemene vi har gjennomgått er ikke separate problemer, men tvert imot forsterkende utfordringer. Mental atrofi øker avhengigheten og reduserer ens evne til å motstå det epistemiske kollapset og tapet av tilgjengelige jobber. Å miste juniorjobber betyr å miste kapasiteten til å bygge de administrative og juridiske rammeverkene som trengs for å håndtere diffusjonen av ansvarlighet. Kappløpet mot bunnen øker risikoen for en ukontrollert KI som blir fiendtlig til menneskeheten. Hvert problem nærer det neste, rekursivt.
Intet av dette er uunngåelig, men intet av det er teoretisk heller. Mekanismene er allerede i gang. Vinduet for meningsfull intervensjon er ikke uendelig, og det snevres inn hver dag så lenge hastigheten behandles som det eneste som betyr noe.
KI kan ennå vise seg å bli en av de bredest fordelsaktige teknologiene i menneskehetens historie. Det er imidlertid ikke standardutfallet. Standarder settes av insentiver og utformingen av de underliggende strukturene. Å respektere teknologien betyr å ta dens feilmodi på alvor, med mindre vi risikerer den sikkerheten, det sosiale samholdet og de frihetene vi allerede har.
