OpenAI afslører GPT-4 AI-model, der forstår tekst og billeder
Miscellanea / / April 03, 2023
Og det handler ikke kun om at genkende grafiske objekter, men også om at forstå handlinger og begivenheder i billeder.
OpenAI-virksomhed, chatbot-udvikler ChatGPT, introducerede en kraftfuld ny kunstig intelligens-model GPT-4. I modsætning til den forrige, GPT-3.5, er den i stand til at forstå ikke kun tekst, men også billeder.
AI vil være i stand til at fortælle dig, hvordan du bruger det, den ser på billedet. Som et eksempel nævnte udviklerne skud med balloner og en boksehandske.
Et endnu tydeligere eksempel er et øjebliksbillede af et åbent køleskab. GPT-4 vil fortælle om indholdet og tilbyde opskrifter fra de tilgængelige produkter. Denne funktion kan være nyttig for synshandicappede, bemærkede udviklerne.
I OpenAI hedder GPT-4 er den mest perfekte og kreative model. Det giver dig stadig mulighed for at analysere tekster og strukturere information efter brugerønsker, men det gør det mere "meningsfuldt". I forskellige professionelle og akademiske test er AI nu i stand til at opnå højere score.
I normal samtale kan forskellen mellem GPT-3.5 og GPT-4 være subtil. Men forskellene viser sig, når kompleksiteten af opgaven når en tilstrækkelig tærskel - GPT-4 er mere pålidelig, kreativ og i stand til at behandle meget finere instruktioner end GPT-3.5, tilføjet udviklere.
AI-skabere bekræftede det også for nylig indsendt Microsofts søgemaskine med chatbot fungerer på GPT-4. Derudover er denne model allerede brugt i produkterne fra Stripe, Duolingo, Morgan Stanley og A Khan Academy. Sidstnævnte bruger kunstig intelligens til at skabe en slags automatiseret vejleder.
GPT-4 er allerede tilgængelig for OpenAI-brugere med et ChatGPT Plus-abonnement. Andre brugere kan registrere sig hos liste venter på API-adgang.
Læs også🧐
- Sådan bruger du GPTZero, et tekstsøgeværktøj skabt af ChatGPT
- Hvor kan du integrere ChatGPT og hvorfor: 5 muligheder
- 8 bedste neurale netværk til at tegne online