16 MIN LESETID

Norske bedrifter må koble AI til egne data. Eller finne seg i å bli ljugd til av andre

Uten å koble AI til egne data, vet du ikke om kunstig intelligens ljuger til deg eller ikke. Mest sannsynlig gjør den det. Resultatet? Du ender opp med å produsere generisk vrøvl.

– Det er ekstremt viktig at vi setter konteksten.

Rolf Frydenberg, daglig leder i digitaliseringsselskapet Manag-E, sier at det er flere betenkelige aspekter ved generativ AI vi må ta inn over oss. Spesielt hvis vi er virksomhetsbrukere.

– Svaret du får fra språkmodellene er veldig avhengig av hvordan du spør. Noe annet – og like viktig – er at du spør i en kontekst. Folk tror at det å snakke med en stor språkmodell, som for eksempel ChatGPT, er som å snakke med et menneske. Men det er det ikke. Vi har mye kontekst når vi konverserer. Det har ikke språkmodellene.

Et annet begrep som sviver rundt på nettet for tiden er prompt engineering. Det kunne kanskje oversettes til spørsmålsbygging. Kort fortalt: Konteksten du forer språkmodellen med, er avgjørende for svaret du får. Gir du ikke god nok kontekst, er svaret du får kanskje korrekt. Samtidig kan det være helt feil. Og dermed ubrukelig.

– Det er en utfordring å bygge riktig spørsmål. Folk er vant til nøkkelordsøk på Google. Med AI fungerer ikke det, der er du avhengig av konteksten. En språkmodell snakker med mange personer parallelt. Hvis du ikke setter konteksten, blir svaret ute av kontekst. Og da er det mye rart som kan skje!

Med andre ord: Med bedre input, får du bedre output.

– Eller som jeg pleier å si: Garbage in, garbage out, sier Rolf Frydenberg.

Han forteller at han gjorde et lite eksperiment i denne retningen.

– Vi jobber med et saksbehandlingssystem som heter SMAX. Det er et såkalt ESM-produkt. Men tre tilfeldige bokstaver etter hverandre, kan stå for veldig mye. Slike forkortelser rir jo alle fag som en mare. Jeg spurte ChatGPT om den kunne fortelle hva ESM er. Jeg fikk et svar, men det hadde ingenting med digitalisering eller software å gjøre. Det viser at uten konteksten, kommer du ikke langt.

Det neste han gjorde, var å legge inn ordet SMAX.

– Bare ved å dytte inn det ene ordet, fikk jeg en helt korrekt beskrivelse av hva et Enterprise Service Management-system er. Det er ikke alltid det er så mye som skal til for å sette riktig kontekst. Men det er ekstremt viktig at vi gjør det.

Synes du generativ AI er spennende? Meld deg på AI-seminar her!

 

Vi må snakke om informasjonskildene

ChatGPT og de andre store språkmodellene er trenet på enorme mengder data. Men det er to vesentlige spørsmål de færreste av oss tenker over når vi bruker dem. Det første er: Hvor kommer informasjonen fra?

– Eller sagt på en annen måte: Hva slags info har denne stakkars LLM-en blitt foret med? Hvis den er trent på alle tweets fra Donald Trump de siste åtte årene, får du helt andre svar fra den enn hvis den er foret med leksikon. Kunnskapen er med andre ord vridd. Det er bare når du kjenner informasjonsunderlaget at du kan stole på det som kommer ut, sier Rolf Frydenberg.

 

«Interessen for de store, veldig brede generiske språkmodellene kommer til å dabbe av.»

– ROLF FRYDENBERG, MANAG-E

 

Hva er løsningen? Å kjøre hele verdens tilgjengelige informasjon inn i språkmodellene? Altså rubbel og bit av alt internett har sanket i sitt gigantiske trawl-nett siden WWW så dagens lys?

– Det sier seg selv: Det er umulig. Interessen for de store, veldig brede generiske språkmodellene kommer til å dabbe av etter hvert.

Ja?

– Det som vil vokse fram, er mer av de integrerte AI-ene. Poenget er at språkmodellene er veldig gode på språk. Til og med en brukbar norsk. Hvis vi kombinerer disse evnene med verifisert dokumentasjon, altså sikre informasjonskilder, da beveger vi oss rette vei.

Hvordan da?

– Hvis datakildene er faktabaserte, som for eksempel kontrakter, andre virksomhetsdokumenter, eller vitenskapelige artikler, og du bruker en språkmodell for å håndtere dem – og formulere svaret den finner, da kan du si det veldig enkelt. Da finner du sannheten ett sted, og hvordan den skal formuleres et annet sted. Ikke ulikt hvordan vi mennesker fungerer. Tenk på dem som har lært deg norsk. De kan jo ha løyet for deg, ikke sant?

 

Gå fra skråsikker svada – til verifiserte datakilder

Rolf Frydenberg risser med andre ord opp et bilde av en verden der det er relativt vanntette skott mellom språkmodellen og hva slags informasjon den skal bruke som grunnlag for å svare. Et vanntett skott mellom bedriften og verden.

– Nettopp. Og derfor trenger vi faktisk ikke fore ChatGPT med alt innholdet på Wikipedia eller andre allment tilgjengelige kunnskapskilder. Det vi trenger, er dens forståelse for språket. Selve kunnskapen henter den fra en spesifikk database.

 

«Chatbot-ene er egentlig ikke så intelligente. Men de er flinke i grammatikk. De får god karakter i norsk, helt til du sjekker innholdet.»

– ROLF FRYDENBERG, MANAG-E

 

Et annet problematisk aspekt ved språkmodellene er at de er så skråsikre. Hvis de har et hull i sin viten, kamuflerer de det elegant og lynraskt. Rom for tvil? Niks. Anledning til å oppklare misforståelser? Glem det.

– Mitt problem med språkmodellene er at de aldri stiller meg spørsmål tilbake, sier Rolf Frydenberg

– Hvis jeg var i dialog med en kunde, og vedkommende sier noe som kan bety det ene, det andre og det tredje, ville jeg jo spørre. På den måten ville jeg få mer kontekst. Hvis noe er uklart, ville jeg si: «Hva mener du egentlig med det?» Chatbot-ene spør ikke om det. De er ikke så intelligente. Egentlig er de ganske dumme, men de er flinke i grammatikk. De får god karakter i norsk, helt til du sjekker innholdet

Vi mennesker er opptatt av å oppklare uklarheter, men en språkmodell er bare interessert i én ting: Å lage et svar. Uansett om det egentlig er et bra svar eller ikke. Det kan den ikke vurdere?

– Nemlig.

Diskutere generativ AI? Meld deg på konferansen Generativ AI i praksis 26. oktober her!

 

Kan din virksomhet akseptere yesterday’s news?

AI skal støtte beslutningsgrunnlaget i virksomheten, heter det så fint. Og det er klart: Når det gjelder å forutsi trender, komme med forutsigelser på bakgrunn av historisk data, har maskinlæring og kunstig intelligens allerede bevist sin verdi.

Noe ganske annet er det når det kommer til spørsmålet: Hvor ferske er de data den baserer seg på, egentlig?

– Det er en miks av gammelt og halvnytt. Du vet ikke hva i språkmodellens data som er tre år gammelt og hva som er tre måneder gammelt.

Men én ting vet vi: Den vet i hvert fall ikke hva som skjedde for tre minutter siden?

– Det er helt klart. Hvis vi går bort fra at alt innholdet og konteksten skal komme fra språkmodellen, da beveger vi oss i riktig retning. Dette er tankegangen i SMAX: Du har én eller flere separate datakilder, og så har du en språkmodell som trekker ut informasjonen og formulerer den. Ja, språkmodellen kan gi deg mye. Men det er ikke sikkert det dekker behovene dine. Hva er ståa nå? Har vi noen applikasjoner som har feilet i det siste? Da hjelper det ikke med tre måneder gammel informasjon. Det er . Hva er ståa nå?

Frydenberg sammenligner det med selvkjørende biler. De baserer seg ikke på historisk, statisk data, men henter info fra ulike kilder. Gjennom kamera, gjennom radar og lidar.

– Den har noe informasjon som er nåtid, som kameraet, noe som er litt eldre, som Google Maps. Og så har den basiskartet i bunn, som er gammelt. Når du starter bilen, får du opp informasjon om at: «Ops, nå er det kø inn mot Asker fordi det har vært en kollisjon ved avkjøringen fra E18».

Men er vi helt der ennå, når det gjelder innebygd AI i IT-systemer?

– Nei, vi er ikke helt i sanntid ennå. Dataen må ha vært innom systemet i noen timer. Men tankegangen er at slike løsninger etter hvert kommer til å foregå i sanntid. Det går raskt i den retningen!

 

– De fleste av oss skal ikke produsere generisk vrøvl

Om Mette på salg skal finne noe i en kontrakt, tar det kanskje et par dager. Selv om hun er rask til å lese, må hun gjennom 217 sider før hun finner den detaljen hun er ute etter. Den hun trenger for å komme videre. En integrert AI som er spesialtilpasset virksomheten og innebygd i systemene den bruker, kan finne samme detalj i løpet av nanosekunder.

Den kan gi deg akkurat den informasjonen du skal bruke, ulikt de store, generiske språkmodellene som kan gjøre veldig mye, men ikke finne akkurat det punktet i kontrakten med Manag-E som er relevant for nettopp Mette.

– De fleste av oss skal ikke produsere generisk vrøvl. Ta for eksempel den artikkelen her. Den kunne sannsynligvis blitt laget med ChatGPT gjennom effektiv prompt engineering. Men den ville ikke være basert på hva mine tanker og meninger er. Den ville ikke være basert på hva vi kan få til med SMAX i fremtiden, for den vet ikke noe om fremtiden. Det vi skal bruke en innebygd AI til, er å bruke relevante, spesifikke datakilder i virksomheten.

 

«En generisk språkmodell burde ikke få tilgang til bedriftssensitiv data i det hele tatt. Det du deler med den, deler du i prinsippet med hele verden.»

– ROLF FRYDENBERG, MANAG-E

 

Et annet poeng her – som blir viktigere og viktigere for virksomheter – er adgangskontroll. Og det er omtrent her en innebygd AI virkelig begynner å gi mening: For når en ansatt henvender seg til den, vet den allerede før den ansatte har tastet inn så mye som en bokstav, veldig mye om den ansatte.

– Ja, det er riktig. Mye av det tjenestestyring handler om, er roller og rettigheter. Hvem skal se HR-data? Det er ikke veldig mange. Det er personen det gjelder, det er sjefen og kanskje en på HR. Ingen andre. Dette blir lettere med en integrert AI, også med tanke på sikkerheten.

En generisk språkmodell som er allment tilgjengelig, burde ikke få tilgang til bedriftssensitive data i det hele tatt. Det du deler med den, deler du i prinsippet med hele verden.

Meld deg på, og lær hvordan du bruke generativ AI!

 

Bedrifts-AI: Farvel all dødtid?

Tenk deg at du slipper å lese kontrakter. Den kan bedriftens nye, innebygde AI ta seg av. Den er allerede koblet til saksbehandlingssystemet deres. Det betyr at du kan få for eksempel kontrakter oppsummert på et nanosekund. Sammenfatninger av store mengder informasjon? Null problem. Vær så god, her har du alt du trenger å vite.

– Ja, innebygde AI-er vil bety mindre dødtid. Her om dagen skulle jeg finne noe i en kontrakt. Den var noen hundre sider lang. Jeg ville ha ett spesifikt svar som var å finne et eller annet sted i kontrakten. Å lese gjennom så mye for å finne én detalj, tar sin tid for et stakkars menneske! Ved at en AI har indeksert dataen, kan den gi deg svaret umiddelbart. Det kan spare utrolig mye tid.

Kontraktlesing blir aldri det samme igjen?

– Nei, vi burde kunne unngå det. Vi kan også ta det et skritt videre: Kontrakten bør samtidig sees i forhold til mailtråder, etc. som sier noe om praktisk bruk. Det er her du kan se hvordan en sak har vært håndtert, utover det som står beskrevet i selve kontrakten. Tenk deg rettsprosessene mot Trump som foregår nå. Det er millioner av sider i de sakene som handler om Trump. Å håndtere alle disse samtidig – og se dem i sammenheng – er veldig vanskelig for mennesker. Uansett hvor god du er til å lese jus!

 

Vil vi heller snakke med en bot enn med en kollega?

Når en AI kan finne relevant info før du får sukk for deg, er det da lenger noen vits i å spørre en kollega om hjelp til å finne et dokument? Vel. Nei, strengt tatt ikke. Bortsett fra én viktig ting: All informasjon er ikke faktabasert.

– På alle arbeidsplasser finnes det uformell informasjon. Det er ikke sikkert du har lyst til å fortelle en AI om hobbyene dine, barna eller kona di. Teoretisk sett kan du spørre en innebygd AI om hva som helst – og få svar. Men det er kanskje ikke AI-en på jobben du har lyst til å spørre om hvordan man får et bedre sexliv! Du har nok heller ikke særlig stor lyst til å fortelle AI-en om at det er en oppgave du ikke føler du har nok kompetanse til å gjøre. For hva om sjefen kan se hva du har sagt? Samtidig tør du nok å snakke med en god kollega om det, i fortrolighet.

Vi trenger menneskelige lufteventiler?

– Ja, og folk er redde for å bli overvåket av IT-systemer. En «slem» AI kan overvåke, og spesielt en som er ekstern, som du ikke har kontroll over. Det er også forskjell på hva folk deler over en skjerm kontra ansikt til ansikt med et annet menneske. Du kan jo spørre deg selv om det finnes situasjoner der du ville foretrekke å fortelle noe til en saksbehandler i stedet for å taste noe inn på en skjerm?

 

«Finnes det situasjoner der du ville foretrekke å fortelle noe til en saksbehandler i stedet for å taste noe inn på en skjerm?»

– ROLF FRYDENBERG, MANAG-E

 

Er AI-er en slags teknologiske smårollinger?

– I oppførsel? Ja. Men mengden informasjon de sitter på, betyr at de vet ekstremt mye mer enn mange menneskelige eksperter. Samtidig: Hvis alt bygger på fakta, hvor blir det da av fiksjonen og litteraturen? En språkmodell kan være trent på alle fysikkens lover. Hvis du begynner å snakke om filmen «Back to the future» – ville den sagt: Dette går ikke, det bryter mot fysikkens lover!

Den har ikke noe egentlig kompass?

– Nei. I AI-ens verden er et dokument et dokument.

 

Er du også nysgjerrig på generativ AI? Kom bort til oss på seminaret Generativ AI i praksis den 26. oktober i Oslo. Vi har noen gratisbilletter, så ta kontakt:

 Rolf Frydenberg, daglig leder i Manag-E Nordic AS:

rolf.frydenberg@managenordic.no | +47 901 27 992