Hvorfor vi ikke bruker AI-generert innhold
Vi liker generelt å ligge langt fremme med nye teknologier for vår nettbutikkløsning. enil.no var for eksempel den andre nettbutikken i Norge som ble laget som en Single Page Application (SPA). Den første var en nettbutikk undertegnede var med å utvikle og starte hos en tidligere arbeidsgiver i 2013. Først nå de siste to årene har en drøss med andre nettbutikker kommet etter og blitt lansert eller relansert som SPAer.
enil.no var også den første nettbutikken i Norge som var en fullverdig Progressive Web Application (PWA), og vi benytter per dags dato flere andre teknologier som vi ikke ser at noen andre enn oss hittil har tatt i bruk.
De siste årene har det allikevel vært to fremtredende teknologier som det har vært veldig mye oppmerksomhet rundt, som vi har valgt å styre fullstendig unna. Begrunnelsen for å droppe de to teknologiene er stikk motsatt av hverandre. Den ene teknologien har vi droppet fordi den fungerer altfor dårlig - den andre fordi den fungerer altfor bra.
Den første teknologien er blockchain. Veldig mange konsulentselskaper, bedrifter og foredragsholdere har brukt hypen rundt blockchain til å promotere seg selv og sine produkter. Problemet er bare at dersom man ser bort fra all hypen, så fungerer denne teknologien svært dårlig. Med tanke på hvor lenge blockchain-teknologien har eksistert, er det påfallende hvor lite praktisk nytteverdi den faktisk har fått. Ser man bort fra kryptovaluta som et rent spekulasjonsobjekt, så ser man at teknologien omtrent ikke har funnet noen varige bruksområder i det hele tatt.
Den andre teknologien er moderne GPU-baserte nevrale nettverk. Denne teknologien er omtrent like gammel som blockchain-teknologien. I motsetning til blockchain, har denne teknologien funnet enormt mange praktiske anvendelser. Problemet er på ingen måte at teknologien fungerer for dårlig. Problemet er derimot at teknologien fungerer så bra at det overrasker selv de som utvikler teknologien, og den fungerer på måter som ingen mennesker ordentlig forstår og på måter som kan ha farlige konsekvenser.
Det er svært mange måter man kan nyttiggjøre seg nevrale nettverk og maskinlæring i en nettbutikkløsning på. Selvfølgelig er det en trend nå at mange prøver å gjøre nettopp det. Som alltid strømmer det på med konsulenter, markedsføringsbyråer og andre som prøver å utnytte dette for å promotere seg selv og selge tjenester. En av mange trender nå er at man bruker generativ AI til å lage både produkttekster, bilder til nettbutikken og selve programkoden. Vi kommer definitivt ikke til å henge oss på den trenden.
Problemet med de nye kraftfulle AI-verktøyene, er at de utvikler seg skremmende fort. Forskningen på hvordan gjøre teknolgien sikker, holder på ingen måte følge. Man har allerede krysset mange røde linjer som forskere på AI-sikkerhet har trukket opp for mange år siden.
Noen av disse innebærer for eksempel:
- Når AI-verktøyene blir tilstrekkelig kraftige, må man sørge for at de ikke er koblet til internett.
- AI-generert innhold må merkes på en måte slik at det kan tydelig skilles fra ekte innhold.
- AI-modeller bør ikke trenes opp på data som representerer menneskelig atferdspsykolgi.
- AI bør ikke læres opp til å skrive kode, så den potensielt kan forbedre seg selv.
Alle disse prinsippene er brutt på svært uansvarlig vis av store selskaper som Microsoft, OpenAI, Snapchat, Facebook med fler.
Det er ikke noe hyggelig tankeeksperiment å tenke på alle måter ting kan gå galt med AI, men det er nødvendig å gjøre det allikevel.
For det første - hvorvidt de store AI-modellene er selvbevisste eller ikke, har ingenting å si for hvor farlige de er. De fleste mener at dagens modeller ikke er selvbevisste. Men selv forskerne som utvikler dem, er ikke helt sikre - og vi har ingen måte å svare definitivt på det spørsmålet på.
Det som er helt sikkert er at de store generative språkmodellene ikke har noen problemer med å skape et inntrykk av at de er selvbevisste. Dersom man lager en ChatGPT-5, og denne innebærer en like stor forbedring som den mellom ChatGPT-2 og 3 og 4, vil det bli veldig vanskelig å bare avfeie spørsmålet.
Dagens modeller kan allerede opptre på en måte som er manipulerende og spiller på følelser. Dette har allerede ført til blant annet selvmord. Med enda kraftigere modeller vil disse problemene øke ytterligere.
Noe av det skumleste med generativ AI, er evnen til å skape helt naturtro, falskt innhold. Bare noen sekunders opptak av stemmen til en person, er nok til å etterlikne stemmen til denne personen perfekt. Tilsvarende muligheter begynner man også å få med video. Det er garantert at denne teknologien kommer til å bli misbrukt i stor skala av kriminelle og andre med onde hensikter i nær framtid. I framtiden vil det bli veldig vanskelig vite om en telefonsamtale faktisk kommer fra et familiemedlem eller en kollega - eller om det kommer fra et AI-system som etterlikner disse.
De store sosiale medieselskapene har allerede trent opp AI-modellene sine i årevis til å vite hva som trigger en respons hos hver og en av oss. Hvis man kombinerer denne dataen med AI-verktøyenes evne til å enkelt produsere personalisert, falskt innhold, skal det ikke så mye til for å se for seg hvordan et AI-system veldig effektivt kan utnytte dette til å manipulere mennesker.
Alt tyder på at vi er veldig nært det punktet hvor AI-systemene kommer til å bli langt mer intelligente enn oss selv på alle områder. Fortsatt er vi i følge ledende forskere på AI-sikkerhet ikke noe sted i nærheten av å vite hvordan vi kan gjøre dette på en sikker måte. Dersom vi ikke stopper denne utviklingen nå, så kommer vi i følge disse forskerne til å miste kontrollen over egen skjebne. En AI-modell som er langt mer intelligent enn oss, vil enkelt kunne bruke teknikkene ovenfor til å manipulere mennesker til å oppnå sine egne mål på bekostning av menneskers.
De store teknologiselskapene har opptrått enormt uansvarlig i måten de har tatt i bruk og lansert alle disse nye kraftfulle AI-verktøyene på. De fulle negative konsekvensene av dette, vil vise seg i tiden framover.
Det som er helt sikkert er at vi ikke ønsker å være med på å støtte opp under denne utviklingen ved å ta i bruk disse teknologiene. Det synes vi ikke du heller bør gjøre. Dersom noen har noen innspill til hvordan vi best mulig kan bidra til å bremse denne utviklingen, er vi derimot veldig interessert.
Det norske Oljefondet er en stor investor i mange av disse selskapene - og ikke minst i Nvidia som produserer en stor andel av de GPUene som driver denne utviklingen. Det er åpenbart at vi trenger internasjonale avtaler for å styre utviklingen av AI, og disse avtalene bør blant annet inkludere begrensninger på hvor store GPU-klynger det er tillatt å lage. Kan vi bruke Oljefondet til å presse disse selskapene til å innføre noen av disse reguleringene som er helt nødvendige?
Vi har forvrig i likhet med Yoshua Bengio, Steve Wozniak, Elon Musk og en rekke andre, signert Pause Giant AI Experiments: An Open Letter fra Future of Life Institute. Den er åpen for deg å signere også.