OpenAI oppgraderer ChatGPT

Nå kan den populære chatboten snakke, lytte og se, og de som bruker gratisversjonen av ChatGPT får masse nye funksjoner.

Mandag lanserte OpenAI GPT-4o, en helt ny versjon av språkmodellen som er motoren i ChatGPT. Den nye modellen har omtrent samme kunnskapsnivå som sin forgjenger, men har blitt raskere og har fått noen helt nye egenskaper.

O’en i GPT-4o står for ‘omni’, som betyr at modellen kan håndtere informasjon i ulike formater, både tekst, lyd og bilde. ChatGPT har lenge hatt en stemmefunksjon som lar deg snakke til chatboten, men den har brukt en separat lydmodell til å konvertere mellom lyd og tekst. Det ga kunstige pauser på 4-5 sekunder, som gjorde kommunikasjonen veldig tungvinn.

Snakker som et menneske

Demo av ChatGPTs stemmevariasjoner

GPT-4o er trent på tekst lyd og bilder, så alt kan håndteres sømløst i den samme modellen. Det gjør at ChatGPT kan tolke og generere tekst, lyd og bilder nesten i sanntid. I praksis vil det si at du kan ha en naturlig samtale med ChatGPT, og bruke kameraet på telefonen til å vise den ting.

Stemmegeneratoren har også fått en kraftig oppgradering, så ChatGPT har et mer variert og naturlig tonefall, og tilpasser stemmen til stemningen i samtalen. Mange har sammenlignet den med karakteren til Scarlett Johansson i filmen «Her».

Det hender at ChatGPT misforstår, og nå kan du avbryte chatboten midt i en setning og korrigere det den misforstår. Du trenger ikke å vente på at den skal snakke ferdig, eller finn Avbryt-knappen på skjermen.

Tolker bilder og video i sanntid

ChatGPT kunne tolke bilder tidligere også, men det gikk tregt, og var ikke veldig imponerende. Med GPT-4o han du forvente deg en helt ny verden. Enten du laster opp et bilde, eller bruker kameraet på mobilen til å dele video i sanntid, kan ChatGPT tolke bildene i sanntid.

Demoene som ble vist på lanseringen viste at ChatGPT tolket innholdet i live video i imponerende hastighet, og med forbausende god nøyaktighet. I en av demoen spurte brukeren om ChatGPT visste hvor han hadde lagt brillene sine, og ChatGPT svarte at den hadde sett et par briller på et bord tidligere i demoen. Hvis det er representativt for hva ChatGPT kan gjøre, er det rett og slett imponerende – og litt skremmende.

Mye nytt for gratisbrukere

Er du en av de mange som bruke gratisversjonen av ChatGPT, har du mye å glede deg til. Tidligere måtte gratisbrukere nøye seg med en gammel versjon av språkmodellen, og alle ekstrafunksjoner var forbeholdt betalende brukere. Nå har OpenAI endret dette.

I dag har også gratisbrukere tilgang til flaggskipmodellen GPT-4o og mange av tilleggsfunksjonene. Blant funksjonene gratisbrukere kan glede seg over er:

Opplasting av filer. Har du et regneark du vil analysere, et dokument med bakgrunnsinformasjon eller et bilde du vil at ChatGPT skal tolke? Nå kan også gratisbrukere laste opp dokumenter.

Søke på nettet. Språkmodellen har i utgangspunktet bare kunnskap om det den er trent på. Derfor vet den ikke hva som har skjedd etter at treningen ble avsluttet. Nå kan også gratisbrukere la ChatGPT søke på internett etter kunnskap den ikke har.

Bruke GPT Store. Mange har laget sine egne versjoner av ChatGPT, som er spesielt gode på spesielle oppgaver. Disse er tilgjengelige i markedsplassen GPT Store. Nå blir også denne markedsplassen tilgjengelig for gratisbrukere.

Gratisbrukere har imidlertid en del begrensninger. Antallet meldinger de kan sende til ChatGPT er begrenset. OpenAI har ikke spesifisert hva begrensningen er, men de har sagt at betalende brukere har inntil 80 meldinger i en periode på 3 timer, og at gratisbrukere har en femdel av dette. Det indikerer en begrensning på 15-20 meldinger hver 3. time.

Nyheter for betalende brukere

Med så mye av funksjonaliteten tilgjengelig for gratisbrukere er det mange som stiller spørsmålet «Hvorfor skal jeg betale for ChatGPT når jeg får det meste gratis?»

Det er fortsatt en del fordeler ved å betale for ChatGPT Plus. Først og fremst, så har du en 5 ganger høyere begrensning på antall meldinger. Plus-abonnenter kan sende inntil 80 meldinger hver 3. time til GPT-4o og 40 meldinger til GPT-4 Turbo.

Dette er riktignok også en innskrenkning i forhold til tidligere, da det ikke var noen grense på antall meldinger for Plus-abonnenter. OpenAI begrunner det med at de må ha begrensninger av kapasitetshensyn.

De nye lyd- og bildefunksjonene som ble vist under lanseringen vil kun bli tilgjengelig for betalende brukere i første omgang. OpenAI sier at de vil begynne å rulle ut disse gradvis i de neste ukene.

Det er fortsatt en rekke andre funksjoner som kun er tilgjengelig for betalende brukere.

Generere bilder med DALL-E 3 er fortsatt forbeholdt betalende brukere.

Lage din egen GPT kan du også kun gjøre hvis du betaler.

I tillegg sier OpenAI at flere av de nye gratisfunksjonene har begrensninger som betalende brukere ikke har.

Andre nyheter

For de som bruker GPT-4 gjennom APIet (programmeringsgrensesnittet), lover OpenAI at GPT-4o vil være dobbelt så rask og koste halvparten så mye som GPT-4 Turbo.

OpenAI har også laget en egen app for macOS, som gjør ChatGPT enklere å bruke enn nettsiden. Det skal også komme en egen app for Windows etter hvert.


You may also like...

2 Responses

  1. 20. mai 2024

    […] live er Googles svar på OpenAIs lansering dagen før. Med Gemini Live kan du snakke med AI-modellen og vise den bilder og video. Modellen svarer som et […]

  2. 20. mai 2024

    […] Her kan du lese mer om GPT-4o. […]

Skriv en kommentar

Dette nettstedet bruker Akismet for å redusere spam. Lær om hvordan dine kommentar-data prosesseres.