Til hovedinnhold

Enn om AI er en bløff?

Selges skinnet før bjørnen er skutt?

I 2014 tegnet VGs Roar Hagen hulemannen som vannet en hjerne. Ni år senere har kunstig intelligens blitt svært, men veien videre er ikke åpenbar.
Roar Hagen / VG
Finn Jarle Kvalheim
Finn Jarle har testet mobiler og andre dingser for Amobil, og etter hvert Tek, siden 2009. Før den tid jobbet han med salg av elektronikk og studerte medievitenskap på Universitetet i Bergen.

I 2023 er det to ting ingen kan unngå å mene noe om. Ukraina og AI. Jeg unngår det første, og går rett på det siste: er AI ikke bare oppskrytt, men potensielt et korthus som kan falle sammen når som helst?

Hva er grunnen til at AI plutselig er overalt? Er det om å gjøre å få AI til å se så enormt og samfunnsendrende ut som mulig, slik at alle pengene i verden kan ta turen til selskapene som forsker på det?

Viktig spørsmål

I dag tar jeg på meg den mildt konspiratoriske hatten. Hvorfor? Jo, fordi metoden med å skaffe penger først og utvikle produktet etterpå ikke er helt ukjent i Silicon Valley.

Har de solgt skinnet før bjørnen er skutt? Vi bør i hvert fall stille spørsmålet, selv om teknologien blender.

Kanskje er spørsmålet aller viktigst når teknologien gjør nettopp dét.

Mangler vesentlige byggesteiner

Sam Altman er sjef for OpenAI og har selv sagt at stadig større datasett ikke er veien fremover for kunstig intelligens. Så hvor går veien i så fall?
Patrick Semansky / AP

Sjefen for selveste OpenAI har selv sagt at de mangler vesentlige byggesteiner for å gjøre teknologien kraftigere, at det koster et hav av penger å drive den slik den er og at metoden dagens forbedringer er basert på har kommet til veis ende.

Samtidig snakkes det om «eksponentielle» ytelsesforbedringer i AI, på grunn av den raske forbedringen fra GPT 3.5 til 4.0.

Dette gjør dagens AI

Dagens AI er trent på språk - ikke på «kunnskap». AI-ene er laget med ett hovedmål; de skal lure deg til å tro at de snakker som et menneske. Det betyr at det handler om statistikk.

Hvilket ord er mest sannsynlig at vil følge det forrige?

Maskinen mates med enorme samlinger skrift. Her ligger det språkdata, men også faktiske sannheter, for eksempel fra leksikon og Wikipedia.

Men man kan si at det er tilfeldig om svaret blir sant. Hovedpoenget er at det låter riktig.

Men det er lurt å være stor og farlig

Skremmebildet av AI-en som tar over verden fører til at alle vil være med.

Ingen kan tåle å være sist inn. Så «hold kjeft og ta pengene mine» blir valgspråket, fra alle de store selskapene.

Facebook (nå Meta) har kastet Metaverse-satsingen på skraphaugen til fordel for AI - den fikk en kortere karriere enn 3D-logoene på alle mulige ting, stakkar.

Flere klager

Samtidig ser vi blandede resultater for AI-ens ytelse på ulike ting. Det skrytes av nye eksamener AI kan bestå, være seg jus eller medisin.

Samtidig ser vi påstander om at AI ikke er så smart som den virker. Og folk vil aller helst bli kvitt den litt nedsnødde AI-en i Snapchat.

Du kan spørre Bing eller ChatGPT om det du vil, og få et svar som høres fornuftig ut.

Men om det faktisk er fornuftig, kan du ende opp med å bruke timer på å prøve å finne ut av etterpå - fordi det eneste løsningen egentlig er utviklet for å være god til, er å virke overbevisende.

Den er ikke utviklet for å ha rett. Det er kun en heldig og relativt hyppig bivirkning.

Enn om det stopper opp?

Så hva skjer hvis penga renner ut og ingenting skjer? Hvis OpenAI, og de andre AI-satsingene, fortsetter med små endringer og oppdateringer.

Det sitter mengder av folk og gir språkmodellene veiledning og «læring», med tomler opp og ned for ulike responser. Noen av dem er oss, i vår daglige bruk.

Men driver det styrkene til AI fort nok frem?

Vi har tross alt alle brukt det siste halvåret på å dagdrømme om at vi er «i fremtiden», der en datamaskin kan besvare alt.

Faren for brutte forventninger

Det er en fare for at milliardene som nå renner inn i AI er på vei inn i en teknologi som er i ferd med å stoppe opp - ikke å skyte fart.

Det er usikkert om småflikk kan hjelpe nok på ytelsen. Stadig større datasett krever stadig mer kraft. Opphavet til datasettene blir også mer komplisert når nettsteder krever betalt fra AI-selskapene.

OpenAI har dessuten sagt at de stadig større datasettenes tid er forbi.

Så hva skjer når den ekstreme ytelsesøkningen investorene forventer uteblir?

Og hva skjer når de forutsigbart riktige svarene brukerne forventer stadig uteblir. Mens svar og programkode laget av AI-en kan kreve timevis med faktasjekking og feilsøking for å faktisk fungere?

Silicon Valley-uvanene

Silicon Valley er kjent for sine raske startups, og store penger brukt på idéer heller enn ferdige produkter.

Du har utsagn som «move fast and break things», og bandittselskaper som Theranos som forsøkte å utvikle blodprøveteknologi, og sa de hadde et ferdig produkt før de hadde det. Kryptoboblen FTX sprakk nylig, og fremstår som et pyramidespill.

Jeg skal absolutt ikke påstå at ChatGPT hører sammen med de to sistnevnte. For til visse ting er AI åpenbart et bedre verktøy enn noe vi noensinne har hatt. Men ...

Er dagens måte å lage AI på dømt til å forbli et litt teit verktøy? Et vi aldri helt kan stole på?

Og er den voldsomme hastigheten i utvikling kun en illusjon skapt av nærheten mellom GPT 3.5 og 4.0?

Hvis vi tok feil

Det inntrykket kan fort oppstå, og da kan milliardinvesteringene fort få mye til felles med «Multi Level Marketing»-startpakken med sminke og helsekost som fortsatt står i et hjørne på boden fordi ingen kom på homeparty.

Foreløpig er det imidlertid stinn brakke.

En liten helgardering

Det er greit å bemerke at innholdet i denne kommentaren har en mulighet for å havne på samme hylle som den famøse «Internett er en flopp».

Jeg legger derfor inn følgende helgardering: bløffen er en mulighet. Hvor sannsynlig den er vet jeg ikke.

annonse