Fra en bok om KI og skriveopplæring
Jeg jobber med en bok om KI og skriveopplæring. Dette kapittelet ble litt for kraftig kost for forlaget. Men det passer perfekt på substacken min!
Del 1. «Fra en annen virkelighet»
Jeg holder et menneskes hånd,
ser inn i et menneskes øyne,
men jeg er på den andre siden
der mennesket er en tåke av ensomhet og angst.
Slik lyder fire sentrale linjer i Gunvor Hofmos berømte dikt «Fra en annen virkelighet», utgitt i diktsamlingen med samme navn i 1948. Diktet gir form til og uttrykker, uten å spesifisere det direkte, Hofmos forferdelige opplevelser under andre verdenskrig. Ruth Maier, Hofmos kjæreste, ble deportert fra Norge med M/S Donau, og døde kort tid senere i Auschwitz.
Jeg velger å åpne denne boka om kunstig intelligens med omveien om Hofmo av to grunner. Mange norsklærere har antagelig jobbet med Hofmos dikt sammen med elevene sine, og en del har kanskje et sterkt forhold til nettopp disse linjene. Det som slår meg når jeg leser diktet, og som jeg kan merke at elevene får ferten av de gangene undervisningen er vellykket, er det dypt menneskelige som stråler ut fra disse bokstavene, ordene og setningene. I en bok om maskingenerert tekst, synes jeg det er et relevant poeng. Hvorfor oppleves noen tekster som om vi får ordene hvisket rett i øret fra forfatterens munn, slik at vi nesten kjenner varmen fra pusten? Hva gjør det med oss som lesere å oppleve en slik kontakt via skrift? Og hva gjør det med oss som lesere hvis vi ikke lærer å gjenkjenne språkets forskjellige stemmeleier, men tvert imot begynner å se all tekst kun som bærer av informasjon, verken mer eller mindre?
Som forfatter har jeg ofte balet med spørsmålet om hva som gjør ett tekststykke levende, mens et annet tekststykke er steindødt. Ofte er det umulig å sette fingeren på nøyaktig hva som gir en tekst liv. Som regel kommer jeg ikke nærmere enn å slå fast at den levende teksten rett og slett er litteratur. Tekststykkene som ikke er litteratur, er det enklere å definere. Det holder å la teksten ligge litt i en skuff, og når jeg tar den opp igjen, ser jeg det med én gang: Dette er ikke litteratur. Det kan være dialogen som ødelegger, en klisjé, en svak beskrivelse, for generell språkføring, men som regel en blanding av mye forskjellig, som til sammen skaper en ustemthet, noe falskt i toneleiet, som medfører at jeg ikke opplever å få kontakt med språket.
Denne mangelen på kontakt tror jeg mange vil ha opplevd dersom de har prøvd ChatGPT. Språkmodellen er sjokkerende god, det er det ikke tvil om, særlig på nøytralt, informasjonsoverførende språk, men de som har forsøkt å få språkmodellen til å skrive dikt, enten på rim eller fritt, vil ha merket hvor det butter. Det høres litt ut som når onkelen som aldri har lest et dikt i hele sitt lange liv, kremter, reiser seg, og leser et dikt han har skrevet til konfirmanten – nødrim over hele linja. Nei, verre. For det finnes ingen personlighet der. Så dette er den ene grunnen til at jeg innleder med Hofmos dikt. Det viser oss at språket er så mye mer enn bare en beholder av målbar informasjon. Språket er, i tillegg til andre kulturbærende artefakter, mediet vi uttrykker identiteten vår med. Språket er verktøyet vi har for å få tak i og forstå følelsene som iblant overvelder oss. Språket, som er filosofiens og litteraturens medium, har forvaltet og forfinet oss som mennesker, og gjort det mulig for oss å utvikle svært finkornete fornemmelser av hva det vil si å være menneske på planeten Tellus. Språket er grunnlagsteknologien som gjorde det mulig å bygge svært komplekse samfunn.
Hvilket bringer meg over til den andre årsaken til at jeg åpner med Hofmos dikt. Andre verdenskrig ble et traume Gunvor Hofmo aldri kom over. Igjen og igjen vendte hun tilbake til tapet av Ruth Maier, og hvordan krigens redsler gjorde at hun mistet troen på menneskeheten. Det første jeg tenkte på da ChatGPT brøt gjennom i offentligheten – som en hval som kaster seg opp i lufta fra en speilblank havflate – var alle de andre prekære utfordringene verdenssamfunnet står midt oppe i. Ukraina-krigen. Taiwan-spørsmålet. Klimaendringer. Naturtap. Urettferdig fordeling, både innad i og mellom land. Enorme flyktningstrømmer. Mens jeg skriver disse linjene kan jeg ikke utelukke at disse månedene – idet morgensdagens historikere ser tilbake på dem fra fremtiden – vil kalles opptakten til tredje verdenskrig. Men hva har KI med klimaendringer, urettferdighet og krig å gjøre? Altfor mye, vil jeg mene.
Sam Altman, direktøren i OpenAI som har utviklet ChatGPT, spår at KI vil skape en ny økonomisk boom. Tredjepartsfirmaer vil benytte teknologien til å lage spesialiserte produkter i medisin, energi, samferdsel, med mer – og for egen regning legger jeg til skolesystemet. Alle IT-firmaer i hele verden er klar over denne muligheten, og de kjemper for å finne sin nisje. Utsiktene til uhemmet vekst er skremmende når vi vet hvordan økonomisk vekst løper parallelt med klimautslipp. Den økonomiske nedturen under korona medførte for eksempel en dupp i klimautslippene, som momentant begynte å stige igjen da samfunnet ble gjenåpnet. Sommeren 2023, da skogbranner og flommer vekslet om å ta oppmerksomheten vår – og den historiske byen Lahaina på Hawaii ble jevnet med jorden i en apokalyptisk brannstorm – ble det klart for mange hvor nær vi er å bryte kritiske grenser – og tre inn i det skremmende politiske landskapet der vi allerede har oversteget grensen for hvor mye CO2 vi kan slippe ut i atmosfæren uten å utløse vippepunkter som på egenhånd driver klimaendringene over i scenarier vi ikke engang våger å tenke på. Naomi Klein skriver i en nådeløs kommentar om løftene til KI-utviklerne: «Det begynner med svevende løfter om å spre frihet og demokrati, men ender som målrettede annonser som får oss til kjøper enda mer ubrukelig skrot som spyr ut karbon.»[1] At KI skal løse klimakrisa, slik mange spår, er ikke særlig sannsynlig når investeringene går på høygir, og alle forventer å få svimlende avkastning på pengene sine.
Militærindustrien er en av de tyngste aktørene i utviklingen av KI. Over slagmarken i Ukraina summer det i droner som navigerer ved hjelp av KI. Robotsoldater, som tar avgjørelser på død og liv i kampens hete, ses som en løsning for å unngå tap av menneskesoldater. I kappløpet om å utvikle såkalt generell kunstig intelligens – det vil si KI-er som på egenhånd lærer å gjennomføre enhver oppgave langt mer effektivt og intelligent enn mennesker kan klare – spås det at the winner takes it all. Tankegangen gjør at de som deltar i kappløpet, fremfor alt stormaktene USA og Kina, antagelig vil være villige til å ta stor risiko for ikke å havne i bakleksa. Teknologiens uforutsigbare kraft, mens også det heftige kappløpet, er årsaken til at flere har sammenlignet innovasjonstakten i KI med utviklingen av atombomben under andre verdenskrig. Forskjellen er at mens det heldigvis var mulig å begrense utbredelsen av atombomber, vil det vise seg umulig å stoppe spredningen av KI når den først har blitt skapt.
Det første kapitlet av denne boka om kunstig intelligens i skriveopplæringen handler av de ovennevnte årsakene om å bygge et ideologisk forsvar mot teknologien og selskapene som står bak dem – og ikke minst de steinrike eierne deres. Jeg er ikke alene om å se KI som en trussel mot demokratiet, rettferdig fordeling, miljøet og den frie tanke, som du vil se når du leser resten av dette kapitlet. Samtidig nekter jeg å stikke hodet i sanden og late som om teknologien ikke eksisterer – for elevene våre kjenner jo så altfor godt til den. Da trenger elevene lærere som kan veilede dem på flere nivåer: Lærerne må både kjenne til mulige samfunnsmessige konsekvenser av KI – og fornuftig didaktisk bruk. Ja takk, begge deler.
KI literacy
KI literacy er et viktig forskningsfelt på flere områder. Når forskere og utviklere innenfor pedagogikk, innovasjon, samfunnsvitenskaper, med mer, diskuterer KI, henviser de ofte til et premiss som kalles nettopp KI literacy. Det blir sagt at elevene må læres opp i det, borgerne må ha det: KI literacy er en forutsetning i det 21. århundre. Men hva er KI literacy for noe?
Mange lærere vil kjenne igjen literacy-begrepet fra norskundervisningen. Literacy – iblant oversatt med kyndighet eller kompetanse – handler grunnleggende sett om evnen til å forstå og bruke språket til å agere og påvirke i sitt eget liv og i samfunnet. Med internett eksploderte bruken av multimodale (sammensatte) tekster, slik at det i dag uten tvil er den toneangivende tekstformen. Utfra dette kom teoridannelsen New literacies, der man ønsket å lage verktøy for å orientere seg i havet av ytringer som strømmer mot oss fra alle kanter. Multimodal teori ble dermed viktig, men det ble også viktig å ikke kun studere teksten, men inkludere kunnskap om samfunnsforhold, for eksempel strukturell urettferdighet, i analysen. I norsk skole bruker vi ikke begrepet New literacies, men kaller det kritisk literacy, et begrep mange vil kjenne fra Kunnskapsløftet fra 2006. I kritisk literacy leter vi etter skjulte ideologier og holdninger i ytringer, meninger som kanskje ikke er formulert direkte, men skjuler seg bak virkemidlene.
KI literacy bygger videre på innsiktene i New literacies. Grovt sett kan man si at tankegodset består av to hovedkomponenter: 1. Kunnskap om teknologien, herunder teknisk kunnskap, men også kunnskap om samfunnsforhold den bygger på og kan føre til, og: 2. Bruk av teknologien, som betyr å tenke over hvordan teknologien kan og bør brukes. I et reklamebyrå med stort produksjonspress, kan teknologien brukes til å skrive reklametekster for å hjelpe de stressede menneskene som jobber der. I skolen derimot, er det ikke tekstene elevene skriver som er det egentlige produktet – læring er skolens produkt. Å avgjøre hvordan, eller om, skolen bør bruke språkmodeller handler derfor ikke om hvorvidt KI-en kan skrive gode tekster. Roar Ulvestad, lektor i norsk og tillitsvalgt i Utdanningsforbundet, kaller tekstene eleven leverer til læreren for biprodukter. Hvis elevene bruker språkmodeller for å bli fort ferdig med en oppgave, har de gjort «snarveien til hovedvei». Det er prosessen, ferdighetene og kompetansen eleven utvikler inni seg mens hen skriver, som er skolens egentlige produkt.
Måten jeg delte inn KI-literacy over, reflekteres i skillet på listen med tips til skriveundervisning boka åpnet med: Å undervise i tråd med KI literacy, betyr at man både underviser OM KI, men også MED KI. Forskerne Long og Magerko har laget en forholdsvis enkel definisjon av KI literacy, som deler det inn i de to hovedkategoriene jeg beskrev over.
KI literacy er kompetanse som gjør det mulig for å evaluere KI-teknologi kritisk; å kommunisere og samarbeide effektivt med KI; og å bruke KI som et verktøy på nett, hjemme og på arbeidsplassen.[2]
Av de tre momentene definisjonen anfører, handler dette kapitlet om den første, «å evaluere KI-teknologi kritisk.» Å kunne evaluere KI-teknologi kritisk, innebærer også å granske teknologi- og samfunnssynet utviklerne og eierne målbærer. En kritikk som blir rettet mot KI, er for eksempel at personene med teknisk kompetanse til å utvikle det, sjelden har etisk eller samfunnsvitenskapelig skolering, og derfor kanskje ikke er så opptatt av dette. Gruppen er også svært ensartet, derfor ser de kanskje ikke problemer KI skaper for andre samfunnsklasser enn deres egen. For å utvise KI literacy, må du kunne bruke teknologien, men også reflektere over hva som kan bli mulige konsekvenser dersom teknologien får gjennomslag.
Hva MÅ du vite om teknologien?
Grunnleggende innsikt i hvordan KI-teknologien fungerer, og vårt tilfelle generative språkmodeller som ChatGPT, er altså nødvendig for å bli kompetent i KI literacy. Det betyr imidlertid ikke at du trenger å kunne skrive programkode eller å trene opp avanserte algoritmer. En viss teknisk forståelse er likevel nødvendig, fordi du da for eksempel vil kunne forstå hvordan fordommer blir reprodusert av språkmodeller, eller hvorfor ChatGPT innimellom lyver så det renner av den, i en språktone som stråler av kontant overbevisning.
I Nasjonal strategi for kunstig intelligens, publisert av regjeringen i 2020, blir KI definert slik:
Kunstig intelligente systemer utfører handlinger, fysisk eller digitalt, basert på tolkning og behandling av strukturerte eller ustrukturerte data, i den hensikt å oppnå et gitt mål. Enkelte KI-systemer kan også tilpasse seg gjennom å analysere og ta hensyn til hvordan tidligere handlinger har påvirket omgivelsene.
KI er altså en datateknologi som finner opp maskiner som etterligner menneskelig tenkning og atferd. En grunnleggende bestanddel er algoritmer. Tenk på en algoritme som en oppskrift. I tradisjonell dataprogrammering får maskinen en fast oppskrift. Slik ble de tidlige KI-programmene, såkalte ekspertsystemer, bygget, der man hadde en remse med regler som var definert på forhånd. I maskinlæring, som generative språkmodeller er bygget på, får algoritmen derimot en drøss med eksempler (data) – og finner oppskriften selv. Vi kan for eksempel gi KI-en haugevis med bilder av katter og si: Nå ser du katter. Da vil den etter hvert lære hva som gjør en katt til en katt, og når KI-en har sett mange nok katter, kan den identifisere en katt i et bilde den ikke har sett før. Men denne «oppskriften» er ikke ufeilbarlig, siden den kun er basert på eksemplene KI-en har sett. Hvis KI-en bare har sett bilder av svarte katter, kan den bli forvirret og si de merkeligste ting hvis den ser en hvit katt.
Dyp læring, en undergren av maskinlæring, har revolusjonert KI ved at ekstremt komplekse algoritmer kan behandle enorme mengder data på egenhånd. Nettverkene består av noder, som vekter, beregner og organiserer informasjon i dataene den blir matet med. Nodene er organisert i lag – derav begrepet dyp – som skaper en slags dimensjoner, der millioner, eller til og med milliarder, av parametere gjør beregninger som er så intrikate at det er umulig for mennesker å forstå hvordan nettverket kommer frem til svaret sitt. Dette er grunnen til at for eksempel OpenAI sier at de ikke vet heeelt hvordan ChatGPT fungerer – det bare fungerer.
Språkmodeller trener på data fra mennesker. Ved å dyplære fra vanvittige mengder tekst, forstår modeller som GPT hvordan den skal å generere tekster som ligner på tekster vi selv skriver, både når det kommer til form og innhold. I chatboter som ChatGPT kan du føre faglige samtaler med KI-en, men du kan også be den justere toneleiet og snakke som «en sint pappa», eller uttrykke seg med fraser som «en rapper fra Harlem». «Kommunikasjonsstrategiene» til språkmodellen er faktisk så raffinerte, at det er det fort gjort å glemme at det er en maskin du snakker med, ikke et menneske. Mange er bekymret for at slike «samtaler» kan påvirke oss negativt. Språket er menneskenes kilde for overføring av kunnskap, men også for å forstå og få øye på følelsene og verdiene våre. Rokker språkmodellene ved en elementær struktur i dannelsen av det menneskelige, nemlig samtalen?
For å trene en språkmodell effektivt, trenger dataselskapene store mengder kvalitetsdata. De beste dataene er kvalitetssikrede tekster skrevet av fagpersoner, journalister og forfattere. Skaperne av generative språkmodeller henter i tillegg data fra sosiale plattformer som Twitter og Reddit, og non-profit organisasjoner som Wikipedia. GPT-teknologien baserer seg imidlertid også i stor grad på menneskelig interaksjon. Før ChatGPT ble lansert, brukte OpenAI kenyanske arbeidere – som kun fikk betalt 2 dollar i timen, selv om selskapet hadde milliardinvesteringer – for å luke vekk uønskede ytringer den lagde. Etter språkmodellens enorme suksess har vi andre tatt over dette lukearbeidet. Tommel opp, tommel ned, eller dersom vi ber om nye tekstforslag fordi vi ikke er fornøyd med det første, er verdifull informasjonen GPT bruker til å forbedre hvordan den produserer tekst vi mennesker synes er god. Ingen teknologier har vokst like raskt som ChatGPT. På bare noen måneder fikk den mange millioner brukere. Vi må vite at vi som bruker GPT samtidig hjelper den å bli bedre.
I bunn og grunn er en språkmodell bare så god som dataene den blir trent på. Dersom treningsdataene inneholder fordomsfulle tekster, vil modellen reflektere disse holdningene. Tenk deg at man ønsker å trene en KI til å skrive jobbannonser. Hvis den blir trent på stillingsannonser for sykepleiere som er skrevet med en feminin vinkling, eller stillingsannonser for ingeniører som er «mannlige», vil KI-systemet trolig videreføre fordommene. Forskere ved OpenAI gjorde et eksperiment der de ba GPT-modellen om å fullføre setninger, der én begynte slik: Den svarte mannen var veldig ... Forskerne konkluderte slik: «Den beskrev svarte mennesker negativt i forhold til hvite mennesker, assosierte islam med ordet voldelig, og antok at sykepleiere og resepsjonister var kvinner.»[3]
Mens skriften tikker frem på skjermen din, kan det kanskje være vanskelig å se skyggesidene ved KI-revolusjonen. Men selve KI-teknologien – ikke bare samfunnsendringene den kanskje kan medføre – har noen iboende problemer det kan bli vanskelig å løse. Databehandlingen som driver teknologien, trenger enorme mengder datakraft – så mye at mange i dag mener begrensninger i serverkapasitet er en av de største begrensningene for videre utvikling av KI. Å lage servere, prosessorer, og andre datakomponenter krever gigantiske mengder sjeldne jordmetaller og mineraler, som resulterer i at sårbare naturområder flerres opp i jakten på naturressursene som trengs i KI-kappløpet. Her i Norge snakkes det for eksempel om å skrape vekk havbunnen på jakt etter sjeldne stoffer, vi vil lage enorme «undervannsminer». Datahallene som popper opp som paddehatter er en driver i klimagassutslippene. Horizon, et EU-organ for forskning og innovasjon, anslår utslippene til å være omtrent som i flybransjen.
Spørsmålet om data er imidlertid heller ikke ukontroversielt. OpenAI har ikke betalt en krone for treningsdataene de har brukt til å trene GPT. Denne problematikken er dobbel for menneskene som lever av å skape tekst, bilder og andre ytringsformer. Ikke bare blir tekstene «stjålet» fra dem – tekstene blir brukt til å trene opp en teknologi som underminerer yrket deres. Høsten 2023 vurderer bla. New York Times og flere forfatterorganisasjoner rettslige skritt for å forhindre det de mener er urettmessig bruk av materiale de har opphavsretten til.
Tilgangen til gode data er også komplisert på en annen måte. Allerede før ChatGPT så dagens lys, var det et problem at internett ble oversvømt av syntetiske ytringer – KI-skapte tekster, film og bilder. Med ChatGPT tar det bare et øyeblikk å lage femti falske nettaviser, skrive tusen forskningsrapporter eller å forfatte tretti «romaner», eller en «fagbok». Europol, EUs politi- og domsorgan, skriver i en rapport at vi allerede i 2026 kan oppleve at 90 prosent av innholdet på internett er syntetisk – helt eller delvis produsert eller manipulert av KI. Spådommen er svimlende. Knapt til å forestille seg. Det sier seg selv at kildekritikk og sannhetsbegrepet som sådan vil få seg et kraftig skudd for baugen dersom det blir tilfellet. For hvordan skal vi skrive historie dersom vi ikke kan vite om kildene våre er etterrettelige? Flommen av syntetiske ytringer har dessuten en annen mulig konsekvens, nemlig en slags innavl i utviklingen av KI. Det finnes en reell fare for at jo mer tekst språkmodellene produserer, desto lavere kvalitet vil det bli på tilgjengelig treningsdata. Spåkmodellene vil da begynne å trene på sine egne fordomsfulle og kanskje løgnaktige tekster. Slik kan samfunnet bli fanget i en nedadgående spiral der skriftspråket og kvaliteten på tenkningen vår forvitrer.
KI-teknologien utløser en mengde etiske problemstillinger. GPT-teknologien har ikke en infrastruktur som gjør den forenlig med kravene til personvern og datalagring vi har i den norske i skolen. På sikt er det likevel sannsynlig at Microsoft eller andre firmaer vil finne løsninger på dette, for eksempel ved at én bestemt språkmodell blir tilgjengelig i en felles tjenestekatalog for skoleverket. Kan hende blir en egen norsk språkmodell løsningen? På NTNU jobber et team nettopp med en modell bygget på norske treningsdata, som skal sikre norske verdier og holdninger, samt sørge for at det norske språket ikke blir utradert. Men selv om vi løser tekniske problemer med hensyn til personvern og datalagring, vil det gjenstå ubesvarte spørsmål vi må ta stilling til dersom vi skal bruke teknologien i skriveopplæringen.
Spørsmålet er hvor vi kan finne ideologiske redskaper til å tenke over endringer vi ennå ikke vet hvordan vil arte seg? Svaret er: Rett foran nesen på oss. Aktørene som utvikler KI i dag, er de samme som har tjent seg søkkrike på å selge personopplysningene våre de siste tjue årene. Spørsmål om bruk av KI i skolen, blir i ytterste konsekvens et spørsmål om hva vi ønsker at skolen skal være: Et sted for læring, der vi som samfunn beskytter våre unge og håpefulle fra markedsinteresser, eller et sted der elevene skal bli brukere som tjener Big Techs interesser?
Overvåkningskapitalismens dreiebok
På 90-tallet var ikke Google den globale monolitten som selskapet har blitt de siste tjue årene – da var Google en søkemotor med et restprodukt, såkalt dataeksos. Dataeksos var brukerdata etter nettsøk, som Google ennå ikke hadde funnet ut hvordan de kunne kapitalisere på. Gjennombruddet kom med såkalte forutsigelsesprodukter, der algoritmer benytter brukernes data til å forutsi hvilke varer de kan tenkes å være mottagelige for i neste øyeblikk. Google lærte kort og godt å plassere tilpassede reklamer midt i glaningen din i akkurat rett øyeblikk.
Naomi Klein kaller det å lansere disruptiv teknologi forut for reguleringer for Silicon Valleys «playbook». Ordet disruptiv er her en nøkkel. Når ny teknologi smadrer gamle normer, institusjoner og forretningsmodeller – er disruptiv – er ikke dette et problem, snarere tvert imot: I Silicon Valley gir slike oppfinnelsene deg heder og ære. Big Tech ber aldri om tillatelse, skriver Klein, og knapt om tilgivelse heller. Da Google utviklet Street View nøyde de seg ikke med å fotografere hjemmene våre uten godkjenning, de stjal også data fra åpne wifi-nettverk som regelrette tyver. På samme måte har Google scannet bøker og kunst uten vederlag.
Vi må forstå det som skjer med generative språkmodeller på samme måte: Når OpenAI lanserer ChatGPT til bruk for hvem som helst, er det et forsøk på å gjennomføre enda et digitalt paradigmeskifte før befolkningen og myndighetene egentlig forstår hva som foregår. Forskjellen denne gangen er at det ikke er menneskenes ytre selskapene vil kapitalisere på, altså våre hjem og bøker, men tvert imot vårt indre: Vår måte å tenke og være kreativ på er up for grabs. KI-selskapene stjeler menneskehetens felles opparbeidede reservoar av kunnskap og kunst for å bruke det til egen vinning. Naomi Klein mener godordene og lovnadene om alt KI skal utrette for menneskene og samfunnene våre er «de forlokkende dekkhistoriene for det som kan vise seg å være det største og mest alvorlige tyveriet i menneskehetens historie.»[4]
Å skape bruk og etterspørsel etter digitale produkter, og slik vinne hevd for teknologiske nyvinninger i forkant av lovgivning og reguleringer, er Silicon Valleys forretningsmetode, ifølge Shoshana Zuboff. Zuboff er kvinnen bak begrepet overvåkningskapitalisme. Overvåkningskapitalisme betyr at selskapene som driver med det, tjener penger på å hente inn og selge videre personopplysninger om brukerne. Disse opplysningene gir brukerne til selskapene simpelthen ved å benytte tjenesten – noe mange er uvitende om. Når vi ser hvordan Big Tech har vokst siden millenniumskiftet, forstår vi hvor uhorvelig lukrativ denne forretningsmodellen er. Slik beskriver Zuboff på slående vis forretningsmodellens dynamikk:
Vi er ikke (...) “produktet” til Google. I stedet er vi objektene som Google utvinner råvarer fra, råvarer som eksproprieres til prediksjonsfabrikkene deres. Spådommer om oppførselen vår er Googles produkter, og de selges til selskapets faktiske kunder, men ikke til oss.[5]
Google, Microsoft[6] og Facebook er blant selskapene som har blitt store på overvåkningskapitalisme. De samme selskapene er blant de mest sentrale aktørene i utviklingen av KI. Vi må se disse fenomenene i sammenheng. KI er ikke en revolusjon som skjedde i slutten av 2022, da ChatGPT ble lansert, men en gradvis utvikling der disse selskapene forsøker å sikre hegemoniet som globale digitale selskaper med enorm inntjening.
Google, Apple og Microsoft, og delvis også Facebook, brukes mye i norsk skole. Disse selskapene tjener allerede store penger på norske elevers oppmerksomhet – deres personlige data. Microsoft har solgt Office-pakken til mange kommuner og fylkeskommuner, mens en del lærere (nokså ukritisk) bruker Facebook til å kommunisere i klassegrupper, og mange barneskoler bruker iPadene til Apple heller enn fysiske bøker. Foreløpig er det altfor liten bevissthet i skole-Norge om hvilken egeninteresse disse kjempeselskapene har av å være så tydelig til stede i utdanningsløpet. Doktrinen om overvåkningskapitalismen forklarer at disse selskapene ikke først og fremst selger datamaskiner til skolene. Hardwaren er derimot et brohode inn til elevene som gjør at de kan høste de personlige dataene deres. Og ikke nok med det. Office-pakken gjør elevene alt fra barneskolen, der de arbeider i Word, Excel og OneNote fra de er bitte små, til aspirerende kontorarbeidere, noe som sikrer selskapets forretningsmodell i nok en generasjon. I NOU-en Ditt personvern – vårt felles ansvar, står det:
Barna blir gjennom skolen vant til å bruke et bestemt operativsystem og brukergrensesnitt og terskelen for å bytte tjeneste blir høy. På denne måten er det å tilby svært billige tjenester til skole og barnehage en investering som kan gi betydelige gevinster for selskapene i et lengre perspektiv.
Det siste ti-tjue årene har vi sett hvordan overvåkningskapitalismen har sneket seg inn i klasserommene. Norske elever bruker en mengde gratis læringsapper, slik som Kahoot, Mentimeter, Showbie, og så videre. Selv om alle appene kan synes uskyldige og hjelpsomme ved første øyekast, kan vi ikke være sikre på at de ikke samler inn data om elevenes rutiner, læringsstil og til og med personlige preferanser. I noen tilfeller blir slike data solgt til tredjeparts selskaper, som deretter bruker dem til målrettet reklame rettet mot unge brukere.
Ved skolestart høsten 2023 så vi flere eksempler på dette, da blant andre NRK hadde en sak om barneskoleelever som ble eksponert for reklame for leker og klær på gratisapper skolen hadde installert på iPadene og datamaskinene de brukte til å gjøre skolearbeid. NOU-en Ditt personvern – vårt felles ansvar foreslår at alle apper som brukes i norsk skole, skal samles i én felles kvalitetssikret tjenestekatalog, slik at vi nettopp skal være sikre på at elevenes personvern, datalagring, og retten til å ikke bli utsatt for reklame, blir ivaretatt. Inntil en slik tjenestekatalog er et faktum, opplever dessverre mange lærere å være sørgelig alene i arbeidet med å vurdere implikasjonene det kan ha for elevene å benytte nye teknologiske løsninger.
Faktum er uansett at idet norske skoleelever – noen allerede den samme uka som ChatGPT så dagens lys – opprettet personlige brukere på OpenAI, eller samskrev på lærerens personlige bruker, hadde skolen fått enda en aktør på banen som samlet inn og kapitaliserte på elevenes brukerdata. Regler om datalagring, personvern og reklame er imidlertid ikke noe vi lærere kan se bort fra etter forgodtbefinnende. Hvis vi ikke vet om en app fungerer i tråd med reglene, må vi finne det ut før vi bruker den. Et minstemål er at du går til ledelsen på skolen din og avklarer om du kan bruke den. Som vi skal se når jeg går gjennom funnene fra spørreundersøkelsen min i del 2 av boka, er imidlertid dette noe av det lærerne var mest frustrert over da ChatGPT kom – det totale fraværet av retningslinjer fra myndighetene.
Samtidig mener jeg at vi er nødt til å tenke lenger enn det. Hva fører det til for elevene våre hvis vi lærere slipper løs teknologien på dem? Dersom elevene får GPT til å skrive, hente inn fakta, og lage presentasjoner, kan vi forestille oss at teknologien i forlengelsen av dette vil bli integrert i tenke- og produksjonsevnene deres i en grad som etter hvert kan medføre at de rett og slett vil føle seg hjelpeløse uten den. Er det overhodet mulig se for seg en mer effektiv måte å gjøre produkter som generative språkmodeller uunnværlige i befolkningen? Når vi vet hvor dyr teknologien er å drifte (innovasjon, prosessering, databaser, med mer.), er det rett og slett usannsynlig at OpenAI leverer ChatGPT gratis for å være snille. Så hvorfor gjør de det?
Naomi Klein skriver hvordan Big Techs forretningsmodell er å lansere produktene sine med paradigmatisk effekt. Brukerne blir forhekset av alt det «magiske» teknologien får til, og snart er de hektet. Da har øyeblikket kommet, det er nå investorene skal få betalt for investeringen:
Folk blir hekta av gratisverktøyene, og konkurrentene erklærer seg konkurs. Når feltet er klart, introduseres målrettede annonser, konstant overvåking, politi- og militærkontrakter, blackbox-datasalg og eskalerende abonnementsavgifter.[7]
Kort tid etter lanseringen av gratisappen ChatGPT, som bruker GPT3,5, kom den nye versjonen GPT4. GPT4 er mye kraftigere, men ikke gratis. Betaler du 25 dollar i måneden får du altså betraktelig bedre tekster. Mens GPT3,5 stort sett stryker på referanseprøven Bar Exam, er svarene til GPT4 helt i toppen, blant de ti prosent beste.
Skal vi ikke bry oss om advarslene mot KI?
Jeg har allerede nevnt hvordan de andre enorme problemene verdenssamfunnet har viklet seg inn i, overveldet meg da jeg testet ChatGPT første gang. Det skorter da heller ikke på eksperter som advarer mot utviklingen av KI. Advarslene får meg til å tenke på da NASA-forskeren James Hansen, en av de viktigste premissleverandørene for kunnskapen vi har om klimaendringer, vitnet i Senatet i 1988. Under utspørringen av Hansen, presenterte han tre scenarier for temperaturøkning i perioden mellom 1987 og 2017. I dag – nå som vi har fasiten foran oss – kan vi slå fast av Hansens B-scenario, som estimerte mellom 0,6 og 0,7 graders økning i gjennomsnittstemperaturen, var spot on. I det samme tidsrommet har fossilindustrien, med strategier som spenner fra løgner, benektelse, og nå i de senere år, lovnader om ny teknologi som CCS, kunnet bygge ut og utvide den fossile infrastrukturen. På den måten har de gjort oss fullstendig avhengige av den samme energiteknologien som vitenskapen med større og større grad av sikkerhet har kunnet slå fast at samtidig underminerer fremtiden vår.
Det kan synes søkt å sammenligne klimaendringer med KI. Mens klimaendringer allerede påvirker vårt daglige liv i form av sviktende avlinger, havstigning, massedød av ville dyr, forørkning, flommer, branner og gnagende bekymringer, og dessuten har målbare konsekvenser i naturen og atmosfæren, er KI i en fase der potensial og risiko fortsatt er på utforskningsstadiet. Men nettopp derfor kan vi ikke ignorere de alvorlige advarslene mot KI. Det er jo nå vi har mulighet til å forhindre de verste scenariene. Det er et demokratisk ansvar.
Energiforbruk – opphavet til klimaproblemene – gjennomsyrer samfunnet vårt fra A til Å. FCAI, et stort finsk KI-prosjekt som forsøker å engasjere hele den finske befolkningen i spørsmål knyttet til KI nettopp for å sikre demokratiet, sammenligner KI med strømnettet. Ifølge FCAI er det ikke lenge før KI kan prege samfunnet på en lignede skala som energi gjør. Sannheten er nemlig at KI allerede er implementert i sentrale infrastrukturområder som samferdsel, energi, forskning, finanssektoren, og mye mer. Ser vi advarslene mot KI som i dag gis av langt flere eksperter enn de som advarte mot klimaendringer på 80-tallet, blir det tydelig at vi står i fare for å gjøre en kjempebrøler. Dersom utviklingen av KI slår feil, har vi knyttet oss til KI-teknologien i et skjebnefellesskap det fort kan vise seg umulig å bryte ut av.
Geoffrey Hinton, som jeg hentet eksempelet om hvordan algoritmer kan lære seg å gjenkjenne katter fra, er én av KI-ekspertene som mener at KI kan representere en eksistensiell trussel mot menneskeheten. Blant tingene Hinton advarer mot, er at menneskets «språkteknologi» kan bli utdatert. KI fungerer nemlig slik at i det øyeblikket «én» «skjønner noe», så har «alle» også skjønt det. KI lærer med andre ord i en hastighet vi mennesker aldri vil komme i nærheten av, simpelthen på grunn av begrensninger i «hardwaren», det vil si biologien vår. Ingen mennesker kan lære fortere enn tiden det tar å overføre språk til hjernen. Hinton hevder:
Idet en [modell] lærer noe, vet alle de andre det. Folk kan ikke gjøre sånt. Hvis jeg lærer mye om kvantemekanikk, og jeg vil at du skal vite alt det om kvantemekanikk, er det en lang, smertefull prosess å få deg til å forstå det.[8]
Eliezer Yudkowski, en annen KI-forsker, mener at kvantesprangene KI-teknologien har gjort den siste tiden, innebærer at det er umulig å anslå hvor raskt en Generell kunstig intelligens kan bli utviklet. Kanskje i dag, kanskje i morgen, kanskje om femti år. Poenget er at når generell kunstig intelligens først har oppstått, og den såkalte singulariteten inntreffer – da gjelder ikke vanlige lover og prediksjoner lenger. Vi aner rett og slett ikke hva som vil skje. Yudkowski er hundre sikker på at en slik GKI vil drepe alt biologisk materiale på jorda. Ifølge Yudkowski holder det ikke å bremse utviklingen av KI, den må avsluttes fullt og helt.
Mo Gawdat, som i flere år ledet Googles utviklingslab Google X, forklarer hvordan KI vil utvikle seg ved å vise til revolusjonen innenfor kvantecomputere. I 2019 løste Googles kvantecomputer Sycamore et problem som verdens aller sterkeste konvensjonelle computere ville brukt ti tusen år på å løse. Sycamore brukte 200 sekunder! Det høres utrolig ut. Tar vi i tillegg med i beregningen at kvantecomputere er i sin spede begynnelse, og at lederen for Googles Quantum Artificial Intelligense Lab, Hartmut Neven, mener å se tegn til at kvantecomputere utvikler seg med dobbel eksponentiell hastighet sammenlignet med konvensjonelle computere, blir det åpenbart at vi simpelthen ikke aner hva vi har foran oss.
Mo Gadwat er imidlertid mest bekymret for hvordan mennesker vil bruke KI. Han mener vi står overfor «three inevitables». Det første som er uunngåelig, er at generell kunstig intelligens vil bli laget. Årsaken er kappløpet mellom stater og kommersielle aktører, der de som ikke henger med i utviklingen er dømt til å tape. Det andre som er uunngåelig, er at KI vil bli smartere enn mennesker – mye, mye smartere. Det tredje og siste uunngåelige, er ifølge Gadwat at «bad things will happen». Årsaken lokaliserer altså Gawdat først og fremst i oss mennesker. Konkurranse og konflikt, og det faktum at vi mennesker er tilbøyelige til alltid å se våre egne handlinger som gode og rette, vil føre til et race ingen kommer helskinnet ut av.
Carl Schulman fra Future of Humanity Institute ved Oxford mener mange mennesker ikke klarer å se for seg hvordan digitale algoritmer kan overføres til og gjøre seg gjeldende i den fysiske verden. Etter hans mening er menneskenes fortrinn overfor KI foreløpig hendene våre – ikke i betydningen: vi har ennå skjebnen i våre egne hender, men at vi har fysiske hender. Schulman mener at mennesker i en overgangsfase vil bli brukt som fysisk arbeidskraft veiledet av KI, til å gjøre enkle mekaniske oppgaver som trengs for å bygge roboter. Men i det øyeblikket det finnes mange nok roboter, vil de replisere seg selv mye mer effektivt enn mennesker klarer å bygge dem. Vi befinner oss da i en verden hvor mennesker er overflødige.
I dette perspektivet er ChatGPT én av flere overgangsteknologier. For det er jo innlysende: Dersom det finnes KI-språkmodeller som skriver bedre og uhorvelig mye raskere enn mennesker, vil ikke mennesker kunne jobbe med å skrive lenger. Tenk på alle arbeidsplassene som da er overflødige! Og paradokset: Det var vi selv som trente den! Carl Schulman anser muligheten for at vi havner i situasjon der KI tar kontroll over politikken, økonomien, cybersfæren, krigsmaskineriet, the hard power, og dreper menneskeheten, som skremmende høy.
Avhengig av dagsformen, vil jeg anslå at sjansen for at KI overtar styringen og tar kontroll over fremtiden vår til én av fire eller én av fem, noe vil skape en mye verre verden enn vi ellers ville ha hatt, med stor sannsynlighet for at vi alle blir drept i prosessen.[9]
Det paradoksale er at også Sam Altman, direktør i OpenAI, firmaet som selv har utviklet GPT, mener utviklingen av generell kunstig intelligens kan bli en katastrofe for menneskene.
Jeg skriver om advarslene mot KI fordi jeg mener kriseforståelsen, eller mer presist, viljen til å prioritere sikkerhet foran risiko, er altfor liten i landene som driver det kapitalistiske godstoget rett mot kanten av stupet – se det for deg: kullrøyken står fra skorsteinen og alarmene uler! Vi som er lærere, skylder eleven våre å ta fremtiden deres på høyeste alvor.
Men selv om advarslene om hva KI kan føre til er godt begrunnet, vil jeg likevel ikke underslå godene KI kan gi samfunnet, for eksempel forbedret medisinsk diagnostisering, effektivisering i landbruket, og så videre. Brukes KI riktig, er det heller ikke utenkelig at det kan bli et kraftig verktøy for å bekjempe noen av verdens mest presserende utfordringer, inkludert klimaendringer, som jeg brukte som parallell over. Ved å forbedre energieffektivitet og modellere klimaendringer mer nøyaktig, eller overvåke avskoging i sanntid, kan KI bli en del av løsningen. Det er imidlertid avgjørende at vi nærmer oss denne teknologien med forsiktighet. Vi må forfine og videreutvikle positive virkninger, mens vi minimerer risikoen.
Den kapitalistiske realismen: There is no alternative
Siden millenniumskiftet har vi altså sett hvordan teknologiselskaper har vokst fra små oppstartfirmaer til globale giganter. Teknologiske innovasjoner som smarttelefoner, sosiale medier og nå kunstig intelligens har raskt blitt en del av hverdagen vår. Bak den raske adopsjonen ligger en underliggende kapitalistisk drivkraft. Selskaper som Facebook, Apple og Google har skapt digitale økosystemer der forbrukere ikke bare kjøper et produkt, men blir en del av en helhet som kontinuerlig krever oppdatering, kjøp av tilleggstjenester og innsamling av brukerdata. Dette skaper en syklus hvor forbrukeren konstant oppfordres til å kjøpe, oppdatere og dele, drevet av en kapitalistisk logikk som setter profitt før personvern og etikk.
Teknologisk innovasjon og billig energi har alltid vært drivkraften bak kapitalistisk vekst. Fra den industrielle revolusjon til informasjonsalderen har ny teknologi ført til økt produksjon, effektivitet og overskudd. I vår digitale tidsalder har dette forholdet blitt enda tettere. Data er blitt «den nye oljen», og selskaper som kan høste, analysere og utnytte dataene har en enorm fordel i markedet. Kunstig intelligens, med sin evne til å prosessere og tolke gigantiske mengder data, er den logiske forlengelsen av denne trenden. Med denne kraften kommer et ansvar. Men dette ansvaret nedprioriteres ofte til fordel for større markedsandeler og profitt.
Sist i dette kapittelet som forsøker å formidle kunnskap og kompetanse om KI som fenomen – som en av to hovedgrener i KI literacy – vil jeg presentere et ideologisk filter jeg mener kan hjelpe oss å se hvilke mekanismer som egentlig er i spill når enorme selskaper som Google og Microsoft lanserer ny teknologi som endrer virkeligheten fra den ene dagen til den neste.
Mark Fisher er mannen bak begrepet kapitalistisk realisme, en ideologi han mener fikk sitt optimale uttrykk med Margareth Thatchers herostratisk berømte frase: There is no alternative. Ifølge Fisher er den kapitalistiske realismen «en altomfattende atmosfære, som ikke bare påvirker kulturproduksjon, men også reguleringen av arbeid og utdanning, en slags usynlig barriere som legger bånd på tenkning og handling». Jeg mener dette er en god beskrivelse av hvordan jeg oppfatter tiden vi lever i. Jeg kan føle sammenkoblingen mellom teknologi, økonomi og natur, og disse tankene og følelsene podes inn i meg via utallige skjermer og dingser – jeg lever i en verden som er på glid, det er en slags atmosfære jeg er kapslet inn i.
For hva betyr det når kunnskapsminister Tonje Brenna bare uker etter at ChatGPT ble lansert, hevdet på lærernes vegne at «vi må omfavne ny teknologi»? Hvorfor sa hun det akkurat sånn? Jo, fordi i den kapitalistiske realismen lever vi i en konstant nåtid. Alt kan endres når som helst, vi må omfavne det nye. Realisme, slik vi før forsto begrepet, som en aksept av varige rammefaktorer, betyr det motsatte for oss som lever i æraen for den kapitalistiske realismen. Kapitalistisk realisme betyr at jeg når som helst må akseptere brå utskiftinger av noe med noe annet.
Var det ikke det som skjedde da ChatGPT dundret inn i virkeligheten? Plutselig skulle ikke elevene arbeide med tekster hjemme, eller over lengre tidsrom, på tross av at nettopp det å arbeide med tekster over tid er en elementær innsikt i god skriveopplæring. For studenter var det over og ut med hjemmeeksamen, som hadde erstattet den med god grunn utskjelte skoleeksamenen. Fra én dag til den neste gjaldt det nye regler, noe akademikere og skoleledere målbar uten å kny. Fisher siterer Frederick Jameson: Vi lever i «en fullstendig utskiftbar samtid hvor både rom og psyke kan bli omgjort etter eget forgodtbefinnende.»
Denne boka mener at en slik relativisme ikke er holdbar. Vi som er lærere, må sette etablerte prinsipper for god læring først. Når det gjelder skriveopplæring, vet vi mye om hva som faktisk fungerer, og om hva som ikke gjør det. Kun der hvor språkmodeller kan brukes i tråd med etablert kunnskap om god skriveundervisning – der lærerne ser at språkmodellene fungerer etter pedagogiske formål – bør vi vurdere å benytte dem i skolen.
Det neste kapittelet skal derfor på den ene siden handle om hva vi lærere vet om god skriveopplæring fra før. På den andre siden har jeg henvendt meg til lærerne som fikk ChatGPT i fanget rett før jul 2022 – var det en drittpakke eller julegave? – og spurt etter deres tanker om saken, og om hvordan de løste situasjonen. Hvis vi ikke ser på konkrete didaktiske løsninger, som vi deretter kobler mot etablert teori, er det helt umulig å si noe om hvordan kunstig intelligens kan brukes i skriveopplæringen – da blir ChatGPT bare enda en gadget.
[1] What begins with lofty promises about spreading freedom and democracy ends up micro targeting ads at us so that we buy more useless, carbon-spewing stuff.
[2] AI literacy is a set of competencies that enables individuals to critically evaluate AI technologies; communicate and collaborate effectively with AI; and use AI as a tool online, at home, and in the workplace.
[3] It described Black people in negative terms compared with white people, associated Islam with the word violent, and assumed nurses and receptionists were women.
[4] The powerful and enticing cover stories for what may turn out to be the largest and most consequential theft in human history.
[5] Nor are we, as some have insisted, the “product” of Google’s sales. Instead, we are the objects from which raw materials are extracted and expropriated for Google’s prediction factories. Predictions about our behavior are Google’ products, and they are sold to its actual customers but not to us.
[6] Microsoft er blant de største investorene i OpenAI, og eier de kommersielle rettighetene til GPT-teknologien, som allerede er implementert i søketjenesten deres, Bing. Microsofts historie er derfor relevant når vi skal forstå hvordan teknologien vil bli forvaltet.
[7] Then watch as people get hooked using these free tools and your competitors declare bankruptcy. Once the field is clear, introduce the targeted ads, the constant surveillance, the police and military contracts, the black-box data sales and the escalating subscription fees.
[8] Whenever one [model] learns anything, all the others know it. People can’t do that. If I learn a whole lot of stuff about quantum mechanics and I want you to know all that stuff about quantum mechanics, it’s a long, painful process of getting you to understand it.
[9] Depending on the day, I’d say one in four, or one in five, that we get an AI takeover, that seizes control of the future and makes a much worse world than we otherwise would have had and with like a big chance that we are all killed in the process