[ad_1]
I takt med att AI-modeller snabbt avancerar, och fler och fler utvecklare försöker komma in på AI-området, ökar också riskerna för AI-utveckling, när det gäller missbruk, desinformation och ännu värre – AI-system som kan sträcka sig bortom mänsklig förståelse och gå längre än vem som helst kunde ha förutsett.
Omfattningen av oro i detta avseende kan skifta avsevärt, och idag har Metas president för globala frågor Nick Clegg delat en åsikt, via Financial Timessom kräver större industrisamarbete och transparens i AI-utveckling, för att bättre hantera dessa potentiella problem.
Enligt Clegg:
”De mest dystopiska varningarna om AI handlar egentligen om ett tekniskt språng – eller flera språng. Det finns en värld av skillnad mellan chatbot-liknande applikationer i dagens stora språkmodeller och supersized frontier-modeller som teoretiskt är kapabla till superintelligens i sci-fi-stil. Men vi är fortfarande vid foten och diskuterar farorna vi kan hitta på bergstoppen. Om och när dessa framsteg blir mer rimliga, kan de kräva ett annat svar. Men det finns tid för både tekniken och skyddsräcken att utvecklas.”
I huvudsak är Cleggs argument att vi måste upprätta bredare regler just nu, i de tidiga stadierna av AI-utveckling, för att mildra den potentiella skadan av senare skift.
För att göra detta har Clegg föreslagit en ny uppsättning överenskomna principer för AI-utveckling, som fokuserar på större transparens och samarbete mellan alla AI-projekt.
Huvudfokus ligger på transparens och att ge mer insikt i hur AI-projekt fungerar.
”På Meta har vi nyligen släppt 22 ’systemkort’ för Facebook och Instagram, som ger människor insikt i AI:n bakom hur innehåll rankas och rekommenderas på ett sätt som inte kräver djup teknisk kunskap.”
Clegg föreslår att alla AI-projekt delar liknande insikter – vilket strider mot branschnormerna för sekretess i sådan utveckling.
Meta uppmanar också utvecklare att gå med i ’Partnerskap om AI’ projekt, där Meta är en av grundarna, tillsammans med Amazon, Google, Microsoft och IBM.
”Vi deltar i dess Framework for Collective Action on Synthetic Media, ett viktigt steg för att säkerställa att skyddsräcken etableras runt AI-genererat innehåll.”
Tanken är att dessa AI-utvecklingsledare genom samarbete och delad insikt kan skapa bättre regler och tillvägagångssätt för AI-framsteg, vilket kommer att hjälpa till att mildra potentiella skador innan de når allmänheten.
Clegg föreslår också ytterligare stresstester för alla AI-system, för att bättre upptäcka potentiella problem, och öppen källa för allt AI-utvecklingsarbete, så att andra kan hjälpa till att peka ut möjliga brister.
”Ett felaktigt antagande är att släppandet av källkod eller modellvikter gör systemen mer sårbara. Tvärtom kan externa utvecklare och forskare identifiera problem som skulle ta team som är håliga inne i företagssilor mycket längre tid. Forskare som testade Metas stora språkmodell, BlenderBot 2, fann att den kunde luras att komma ihåg felaktig information. Som ett resultat var BlenderBot 3 mer resistent mot det.”
Detta är ett viktigt fokusområde när vi går vidare till nästa stadier av AI-verktyg, men jag tvivlar också på att någon typ av branschövergripande partnerskap kan etableras för att möjliggöra full transparens över AI-projekt.
Projekt kommer att pågå i många länder, och många av dem kommer att vara mindre öppna för samarbete eller informationsdelning, medan rivaliserande AI-utvecklare kommer att vara angelägna om att hålla sina hemligheter nära, för att få ett försprång i konkurrensen. I detta avseende är det vettigt att Meta skulle vilja etablera ett bredare förståelseplan för att hålla jämna steg med relaterade projekt, men det kanske inte är lika värdefullt för mindre projekt att dela samma sak.
Speciellt med tanke på Metas historia av copycat-utveckling.
Elon Musk, som nyligen blivit Zuckerbergs fiende nummer ettär också utveckla sina egna AI-modellersom han hävdar kommer att vara fri från politisk fördom, och jag tvivlar på att han skulle vara intresserad av att anpassa den utvecklingen till dessa principer.
Men utgångspunkten är viktig – det finns stora risker med AI-utveckling, och de kan minskas genom ett bredare samarbete, där fler experter sedan kan se potentiella brister och problem innan de blir det.
Logiskt sett är detta vettigt. Men rent praktiskt kommer det att bli svårt att sälja på flera fronter.
Du kan läsa Nick Cleggs kommentar om AI-reglering här.
[ad_2]
Source link