Apples AI, ReaLM, overgår GPT-4 “markant”

Apples nye AI-modeller kan lade Siri huske din samtalehistorik, forstå hvad der er på din iPhone-skærm og være opmærksom på omgivende aktiviteter såsom at genkende den musik, der spiller i baggrunden.

Apples AI, ReaLM, overgår GPT-4 “markant”

Rygter har længe svirret i luften om, at Apple arbejder på en række AI-nyheder til dette års WWDC-udviklerkonference  den 10. juni. Vi ved dog endnu ikke, hvad Apple hent nøjagtigt vil introducere af AI-nyheder.

Det forlyder dog, at en af Apples prioriteter bliver at forbedre stemmeassistenten Siri, da iPhone-brugere længe og jævnligt har klaget over assistenten.

Apples AI-forskere offentliggjorde i denne uge en forskningsartikel, der kan kaste nyt lys over Apples AI-planer for Siri – måske endda i tide til WWDC.

Se også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud

ReALM giver bedre samtaler med Siri

I forskningsartiklen introducerer AI-modellen Reference Resolution As Language Modeling (ReALM). Det er et nyt AI-system til samtaler, som introducerer en ny måde at forbedre den såkaldte referenceopløsning på.

Referenceopløsning er et begreb, der dækker over en lingvistisk proces, hvor et ord i en sætning eller diskurs kan henvise til et andet ord eller en anden enhed. Sagt med andre ord er det Apples håb, at ReALM kan forbedre Siris evne til at forstå konteksten i en samtale, behandle indhold på skærmen og opdage baggrundsaktiviteter.

Apples forskere behandler referenceopløsning som et sprogmodelleringsproblem, hvilket bryder med de traditionelle metoder, der fokuserer på samtalekontekst. ReaLM kan konvertere samtale-, skærm- og baggrundsprocesser til et tekstformat, som derefter kan behandles af klassiske sprogmodeller, der udnytter deres semantiske forståelsesfunktioner.

Se også: iPhone 16 priser i Danmark

Apple ReaLM klarer sig bedre end GPT-4

Forskerne sammenlignede ReaLM-modellerne med GPT-3.5 og GPT-4, OpenAI’s sprogmodeller, der i øjeblikket driver henholdsvis ChatGPT og ChatGPT Plus. I forskningsartiklen skriver Apples forskere, at deres mindste model klarede sig relativt godt i forhold til GPT-4, mens deres største modeller klarede sig endnu bedre.

“Vi demonstrerer store forbedringer i forhold til et eksisterende system med lignende funktionalitet på tværs af forskellige typer referencer, hvor vores mindste model opnår absolutte gevinster på over 5 procent for referencer på skærmen,” forklarer forskerne i artiklen.

“Vi benchmarker også mod GPT-3.5 og GPT-4, hvor vores mindste model opnår en ydelse, der er sammenlignelig med GPT-4, og vores større modeller overgår den markant.”

Artiklen nævner fire størrelser af ReALM-modellen:

  • ReALM-80M
  • ReALM-250M
  • ReALM-1B
  • ReALM-3B

Det lyder som Googles tilgang, der har sin Gemini-sprogmodel i forskellige konfigurationer, alt efter hvor krævende AI-opgaver den skal løse.

“M” og “B” angiver antallet af parametre i henholdsvis millioner og milliarder. GPT-3.5 har 175 milliarder parametre, mens GPT-4 angiveligt har omkring 1,5 billioner parametre.

“Vi viser, at ReaLM overgår tidligere tilgange og klarer sig nogenlunde lige så godt som den mest avancerede sprogmodel i dag, GPT-4, på trods af, at den består af langt færre parametre,” står der i artiklen.

Apple har endnu ikke bekræftet, om disse forskningsresultater vil spille en rolle i de AI-funktioner, der ventes at blive annonceret i iOS 18 ved WWDC. Det forventes, at Apple vil introducere AI-funktioner, der kører lokalt på telefonerne, frem for at være afhængige af cloudbaserede AI-tjenester. Det lyder som om, at ReALM-modellen sagtens kan være teknologien bag dette.

Se også: Nyheder om kunstig intelligens