SOROPTIMA nr 1 2024

14 NORSK SOROPTIMA • TEMA: KVINNER OG TEKNOLOGI • hvordan datamaskinen «tenkte» da den øvde seg. Hvordan ser beregningsformlene ut? Hvis vi ikke kan granske disse, kan vi ikke vite om beregningsformlene er ufeilbarlige, slik den påkjørte damen fikk erfare. Hvordan maskinen, etter å ha øvd og øvd på ulike treningsdata, har kommet frem til riktig fasitsvar, er ikke alltid lett å spore. Det kommer an på programmeringen. Mennesket forstår beregninger i fire eller færre dimensjoner, høyde, lengde, bredde og tid, som kan brukes i enkle regnemodeller, som et «beslutningstre». Strümke sammenlikner dette med et digitalt flytskjema, der opplæringsdataene avgjør hva som er gode spørsmål å stille i flytskjemaet. Her kan KI-programmereren i ettertid følge hvert steg som maskinen gjør, og fageksperter kan se hva maskinen har inkludert i beregningsformlene. Matematisk sett er det mulig å gjøre beregninger i uendelig mange dimensjoner. Dette krever avanserte regnemodeller, hvor en haug av små beregningsenheter (noder), samarbeider i store nettverk, såkalte «nevrale nettverk». Her blir millioner av parametere justert igjen og igjen, til nettverket har løst oppgaven. Svarene har høy treffsikkerhet, men ulempen er at vi ikke har noen mulighet til å se hvilke antakelser maskinen har gjort underveis og lagt inn i beregningsformlene. Maskinen kan ha beregnet korrekt ut fra datamaterialet den trente på, men det kan ligge en feilkilde begravd i treningsdataene. Følgen kan bli en feilbedømming, som da kvinnen ble tolket til å være en plastpose. I et beslutningstre, kan KI-utvikleren fjerne kriterier som fageksperter ikke godkjenner. Dette er ikke like enkelt å rette opp i nevrale nettverk. Regnemodeller basert på beslutningstrær er tryggere, men noe mindre treffsikre enn nevrale nettverk. Hvorfor ikke da utelukkende benytte beslutningstrær i KI-beregninger? Dessverre, mange oppgaver, f.eks. det å gjenkjenne ansikter, forstå språk eller styre biler, kan kun løses ved å bruke avanserte nevrale nettverk. «Det vi må være klar over», sier Strümke, «er hvor viktig det er at de treningsdata som maskinen får må være korrekte og av god kvalitet». Maskiner plukker opp det de selv tror er viktig, ikke det ekspertene mener er viktig». Det er innlysende at troverdigheten til KI-genererte svar avhenger av kvaliteten på de data som benyttes under opplæring av den kunstige intelligensen. Maskiner som snakker En maskin må trene på det den skal bli god til, f.eks. å føre en samtale. Så hvor finnes det mange samtaler å øve på? Bøker? Internett? Det blir opp til den som lager maskinen. En Chatbot (talerobot) kan f.eks. øve ved å analysere samtaler fra Twitter («X») av varierende kvalitet. En ChatGPT (Chat Generativ Pre-trained Transformer) starter sin trening med å studere masse tekst. Først lærer den hvilke ord som typisk passer sammen. Deretter øver den på sakprosa, poesi, debatter osv. I 2022 deltok ChatGPT i den svenske «høgskoleprøven». I oppgaver som testet vokabular og leseforståelse, scoret ChatGPT blant de 5% beste. Maskinlæringsmodeller krever enorme mengder treningsdata. Det kan være fristende for teknologiselskapene å gi språkmodellene fri tilgang til treningsdata fra nettet. Men, maskinene er, ifølge Strümke, helt uten folkeskikk, sosiale antenner eller dømmekraft. Modellene henter trenings-data fra setninger det er mest av på nettet, hvilket ofte er opphetede diskusjoner og krasse ytringer. KI bare gjentar i sine svar språklige konstruksjoner fra treningsdata uten å ha noen forståelse av meningen. Erfaring har vist at språkmodeller raskt kan utvikle en uønsket, rasistisk og arrogant oppførsel. For enkelte teknologiselskaper har det endt med rettsaker, men fortsatt er nettet en mye brukt øvingsarena for ChatGPT. ChatGPT er fabelaktig til å formulere seg, men har ingen verktøy for å undersøke om det den sier er sant. (Inga Strümke)

RkJQdWJsaXNoZXIy MjAzOTc=