[ad_1]
Även om det kanske inte leder offentligheten på den generativa AI-fronten ännu, utvecklar Meta en rad alternativ för AI-skapande, som de har arbetat med i flera år, men som först nu vill publicera mer av sin forskning för offentlig konsumtion.
Det har föranletts av det plötsliga intresset för generativa AI-verktyg, men återigen, Meta har utvecklat dessa verktyg under en tid, även om det ser något reaktivt ut med sitt nyare lanseringsschema.
Meta’s senaste generativa AI-papper tittar på en ny process som den kallar ’Bild Joint Inbäddning Predictive Architecture’ (I-JEPA), som möjliggör prediktiv visuell modellering, baserad på den bredare förståelsen av en bild, i motsats till pixelmatchning.
Sektionerna i de blå rutorna här representerar utdata från I-JEPA-systemet, och visar hur det utvecklar en bättre kontextuell förståelse för hur bilder ska se ut, baserat på fraktionerad indata.
Vilket är lite liktutmålning’ verktyg som har dykt upp i andra generativa AI-verktyg, som exemplet nedan från DALL-Evilket gör det möjligt för användare att bygga alla nya bakgrunder till bilder, baserat på befintliga ledtrådar.
Skillnaden i Metas tillvägagångssätt är att den är baserad på faktisk maskininlärning av sammanhang, vilket är en mer avancerad process som simulerar mänskligt tänkande, i motsats till statistisk matchning.
Som förklarat av Meta:
”Vårt arbete med I-JEPA (och Joint Embedding Predictive Architecture (JEPA) modeller mer allmänt) grundar sig i det faktum att människor lär sig en enorm mängd bakgrundskunskap om världen bara genom att passivt observera den. Det har antagits att denna information om sunt förnuft är nyckeln för att möjliggöra intelligent beteende som exempeleffektivt förvärv av nya koncept, jordning och planering.”
Arbetet här, styrt av forskning från Metas Chief AI Scientist Jann LeCunär ytterligare ett steg mot att simulera mer mänskligt liknande svar i AI-applikationer, vilket är den sanna gränsövergången som kan ta AI-verktyg till nästa steg.
Om maskiner kan läras att tänka, i motsats till att bara gissa baserat på sannolikhet, kommer generativ AI att få sitt eget liv. Vilket skrämmer vissa människor, men det kan leda till alla nya användningsområden för sådana system.
”Tanken bakom I-JEPA är att förutsäga saknad information i en abstrakt representation som är mer lik den allmänna förståelsen människor har. Jämfört med generativa metoder som förutsäger i pixel/tokenutrymme, använder I-JEPA abstrakta prediktionsmål för vilka onödiga pixelnivådetaljer potentiellt elimineras, vilket leder till att modellen lär sig mer semantiska funktioner.”
Det är det senaste i Metas avancerade AI-verktyg, som nu även inkluderar textgenereringvisuella redigeringsverktyg, multimodalt lärande, musikgeneration, och mer. Inte alla dessa är tillgängliga för användarna ännu, men de olika framstegen lyfter fram Metas pågående arbete inom detta område, som har blivit ett större fokus i takt med att andra generativa AI-system har slagit ut på konsumentmarknaden.
Återigen, Meta kan tyckas som om det spelar ikapp, men som Googledet är faktiskt väl avancerat på den här fronten och välplacerat för att rulla ut nya AI-verktyg som kommer att förbättra dess system över tid.
Det är bara att vara mer försiktig – vilket, med tanke på de olika farhågorna kring generativa AI-system, och den felaktiga informationen och misstagen som sådana verktyg nu sprider online, kan vara en bra sak.
Du kan läsa mer om Metas I-JEPA-projekt här.
[ad_2]
Source link