[ad_1]
När generativa AI-verktyg fortsätter att spridas, ställs fler frågor om riskerna med dessa processer, och vilka regleringsåtgärder som kan implementeras för att skydda människor från upphovsrättsintrång, desinformation, ärekränkning och mer.
Och även om en bredare statlig reglering skulle vara det idealiska steget, kräver det också globalt samarbete, vilket som vi har sett i tidigare digitala medieapplikationer är svårt att etablera, med tanke på de olika tillvägagångssätt och åsikter om ansvar och åtgärder som krävs.
Som sådan kommer det med största sannolikhet att komma ner till mindre branschgrupper och enskilda företag att implementera kontrollåtgärder och regler för att minska riskerna förknippade med generativa AI-verktyg.
Det är därför detta kan vara ett viktigt steg – idag, Meta och Microsoft, som nu är en nyckelinvesterare i OpenAIhar båda skrivit på Partnership on AI (PAI) Ansvarsfull praxis för syntetiska medier initiativ, som syftar till att upprätta branschöverenskommelse om ansvarsfull praxis för utveckling, skapande och delning av media skapade via generativ AI.
Enligt PAI:
”Det första ramverket i sitt slag lanserades i februari av PAI och backades upp av en första kohort av lanseringspartners inklusive Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, WITNESS och syntetiska mediestartups Synthesia, D -ID och Respeecher. Rampartners kommer att samlas senare denna månad på PAI:s partnerforum 2023 för att diskutera implementeringen av ramverket genom fallstudier och för att skapa ytterligare praktiska rekommendationer för området AI och medieintegritet.”
PAI säger att gruppen också kommer att arbeta för att förtydliga sin vägledning om ansvarsfull offentliggörande av syntetiska medier, samtidigt som de tar upp de tekniska, juridiska och sociala konsekvenserna av rekommendationer kring transparens.
Som nämnts är detta ett snabbt växande område av betydelse, som amerikanska senatorer nu också vill komma över innan det blir för stort för att reglera.
Tidigare idag, Den republikanske senatorn Josh Hawley och demokraternas senator Richard Blumenthal infört ny lagstiftning som skulle ta bort avsnitt 230-skydd för sociala medieföretag som underlättar delning av AI-genererat innehåll, vilket innebär att plattformarna själva kan hållas ansvariga för spridning av skadligt material skapat via AI-verktyg.
Det finns fortfarande mycket kvar att utarbeta i den propositionen, och det kommer att bli svårt att få godkänt. Men det faktum att det till och med föreslås understryker de ökande farhågorna som tillsynsmyndigheter har, särskilt kring lämpligheten av befintliga lagar för att täcka generativa AI-utdata.
PAI är inte den enda gruppen som arbetar med att fastställa AI-riktlinjer. Google har redan publicerat sin egen ”Ansvarsfulla AI-principer’, medan LinkedIn och Meta har också delat med sig av sina vägledande regler för deras användning av detsamma, där de två sistnämnda sannolikt återspeglar mycket av vad denna nya grupp kommer att anpassas till, med tanke på att de båda (i praktiken) har undertecknat ramverket.
Det är ett viktigt område att överväga, och liksom desinformation i sociala appar, borde det verkligen inte komma ner på ett enda företag och en enda chef, som ringer upp vad som är och inte är acceptabelt, vilket är anledningen till att branschgrupper som den här erbjuder några hopp om bredare samförstånd och genomförande.
Men trots det kommer det att ta lite tid – och vi vet inte ens de fullständiga riskerna med generativ AI än. Ju mer det används, desto fler utmaningar kommer att uppstå, och med tiden kommer vi att behöva anpassade regler för att hantera potentiellt missbruk och för att bekämpa ökningen av skräppost och skräp som försvinner genom missbruk av sådana system.
[ad_2]
Source link