[ad_1]
Detta kan kasta en nyckel i arbetet för den stigande trenden med generativa AI-element inom sociala appar.
I dag, Den republikanske senatorn Josh Hawley och demokraternas senator Richard Blumenthal infört lagstiftning som effektivt skulle kringgå Section 230-skydd för sociala medieföretag när det gäller AI-genererat innehåll, vilket skulle innebära att plattformarna kan hållas ansvariga för spridning av skadligt material skapat via AI-verktyg.
Enligt Hawleys hemsida:
”Denna nya tvåpartilagstiftning skulle klargöra att immunitet enligt § 230 inte kommer att gälla påståenden baserade på generativ AI, vilket säkerställer att konsumenter har de verktyg de behöver för att skydda sig mot skadligt innehåll som produceras av de senaste framstegen inom AI-teknik. Till exempel, AI-genererade ”deepfakes” – verklighetstrogna falska bilder av verkliga individer – exploderar i popularitet. Vanliga människor kan nu drabbas av livsförstörande konsekvenser för att säga saker de aldrig sagt, eller göra saker de aldrig skulle göra. Företag som är delaktiga i denna process bör hållas ansvariga i domstol.”
Avsnitt 230 ger skydd för leverantörer av sociala medier mot juridiskt ansvar för innehållet som användare delar på sina plattformar, genom att klargöra att plattformarna själva inte är utgivare eller skapare av information som tillhandahålls av användare. Det säkerställer att sociala medieföretag kan underlätta mer fritt och öppet tal – även om många har hävdat, i många år nu, att detta inte längre är tillämpligt baserat på hur sociala plattformar selektivt förstärker och distribuerar användarinnehåll.
Hittills har ingen av utmaningarna mot Section 230-skydden, baserat på uppdaterad tolkning, hållit i rätten. Men med denna nya push, försöker amerikanska senatorer komma före den generativa AI-vågen innan det blir en ännu större trend, vilket kan leda till utbredd desinformation och förfalskningar i sociala appar.
Vad som är mindre tydligt i lagförslagets nuvarande lydelse är exakt vad detta innebär i ansvarshänseende. Till exempel, om en användare skulle skapa en bild i DALL-E eller Midjourney och sedan dela den på Twitter, skulle Twitter vara ansvarig för det, eller skaparna av de generativa AI-appar där bilden kommer ifrån?
Detaljerna här kan ha stor betydelse för vilka typer av verktyg sociala plattformar ser ut att skapa med snapchat, Tick tack, LinkedIn, Instagram och Facebook experimenterar redan med integrerade generativa AI-alternativ som gör det möjligt för användare att skapa och distribuera sådant innehåll inom varje app.
Om lagen hänför sig till distribution, kommer varje social app att behöva uppdatera sina upptäckts- och transparensprocesser för att hantera sådana, medan om det hänför sig till skapande kan det också stoppa dem i deras utvecklingsspår på AI-fronten.
Det verkar som att det kommer att bli svårt för senatorerna att få ett sådant lagförslag godkänt, baserat på olika överväganden och utvecklingen av generativa AI-verktyg. Men hur som helst, framhävningen belyser ökande oro bland regerings- och regleringsgrupper kring den potentiella effekten av generativ AI, och hur de kommer att kunna övervaka sådant framåt.
I den här meningen kan du troligen förvänta dig mycket mer juridiskt bråk om AI-reglering framöver, eftersom vi brottas med nya metoder för att hantera hur detta innehåll används.
Det kommer också att relatera till upphovsrätt, ägande och olika andra överväganden kring AI-innehåll, som inte omfattas av gällande lagar.
Det finns inneboende risker med att inte uppdatera lagarna i tid för att möta dessa föränderliga krav – men samtidigt kan reaktiva regler hämma utvecklingen och bromsa framstegen.
[ad_2]
Source link