BLOGG

För att bekämpa deepfakes måste vår teknik övervaka deras omvandling

Videon av det ukrainska kriget innehåller ett besvärligt försök att “djupt förfalska” den ukrainske presidenten Vladimir Zelensky, övergrepp, utbredd desinformation för uppmärksamhet och uppmärksamhet och kritiska videobevis på Rysslands bedrägliga operationer.

Dessa krigsscener, tillsammans med befintliga former av manipulation och felaktig framställning, blickar mot framtiden för djupt falsk teknologi – bilder som är “övertygande förändrade och manipulerade för att förvränga vad någon faktiskt har gjort eller sagt eller sagt.” ge bekvämare arbete. Fler falska videor kommer att förfalskas och “lögnarens utdelning” kommer att användas för att tvivla på originalvideorna.

En av lösningarna på dessa nuvarande och framtida problem är att bättre spåra var media kom ifrån, vad som syntetiserades, redigerades eller ändrades och hur. Denna infrastruktur för “äkthet och ursprung” förtjänar noggrann uppmärksamhet för dess kapacitet och förebyggande arbete.

I januari föreslog Coalition of Origin and Originality (C2PA), ledd av BBC, Microsoft, Adobe, Intel, Twitter, TruePic, Sony och Arm, de första globala tekniska standarderna för att bättre spåra vilket innehåll som är original och vad som manipuleras . Specifikationerna ger ett sätt att spåra ursprunget och förändringarna av medieinnehåll, från fotografering på kameran till redigering, sändning på stora medier eller flöden i sociala medier. Företag börjar nu skapa verktyg baserade på dessa grundläggande standarder.

Vi måste göra mer för att göra infrastrukturen för autenticitet tillgänglig – det som händer i Ukraina understryker detta behov. Vi måste dock hålla globala högriskkontexter och användningar, kritiska principer för mänskliga rättigheter och potentiella risker i framkant – och det är därför vi gick med i C2PA som WITNESS och ledde dess arbetsgrupp för hot och förluster.

Frågan bör alltid vara, hur kan vi tillhandahålla dessa tekniska lösningar för att hjälpa mer än skada att öka medias förtroende? Baserat på nästan fem års arbete i spetsen för denna fråga identifierar vi fyra nyckelfrågor: behovet av anonymitet och redigering, rollen för plattformar och anslutningssignaler, säker åtkomst i globala sammanhang och behovet av att förhindra missbruk från regeringar.

Att skapa förtroende för innehåll bör möjliggöra anonymitet och redigering. Förutsättningen för att använda ett dokument om mänskliga rättigheter i Ukraina är inte att kräva att öppet dela ditt namn och exakta plats. De ska också kunna sudda ut ansikten eller skapa redigerade versioner av sina media. Oföränderlighet och oförmåga att redigera är recept på katastrof. Lärdomar från plattformspolicyer kring “riktiga namn” säger oss att många människor, som överlevande av våld i hemmet, möter liknande situationer som vi behöver lära oss. Vi stöder hur C2PA-specifikationer fokuserar på integritet och kräver inte anonymitet, men vi måste vara försiktiga med hur applikationen kan äventyra den.

Plattformar måste också tänka på hur de kombinerar dessa typer av signaler. Facebook, TikTok, YouTube och andra plattformar erbjuder för närvarande inte färdiga konsumentorienterade alternativ för att hjälpa tittarna att förstå att videor eller bilder är ur sitt sammanhang och feltolkade. De tillhandahåller inte en omvänd bild- eller videosökning som visar tidigare versioner av media tillgängliga online, och inte heller en signal baserad på C2PA-specifikationen. Men vänd dig till #Ukraina så ser vi videor från år sedan eller olika platser som påstås vara aktuella och ljudremixade på olika videor på TikTok. Ökad transparens om hur medier skapas och var de kommer ifrån är ett avgörande hjälpmedel för mediekompetens.

Slutligen betonar C2PA att förståelsen av ursprunget och redigeringen av en video inte säger dig om media faktiskt är korrekt eller redaktionellt tillförlitlig, och vi håller med. Eventuella referenser i innehållet ska inte vara en signal om förenklad sanning, utan ska hjälpa dig att fatta välgrundade beslut. Vi måste alltid se på dessa meriter ur perspektivet av dem som talar i en mängd olika globala och säkerhetsmässiga sammanhang. Vi kan inte misskreditera en medborgarjournalist eller en vanlig person i en belägrad stad för att inte använda sådana verktyg, men vi stärker innehållet i huvudjournalisten för den statligt finansierade tv-kanalen som använder det. Även om deras medier är väldokumenterade när det gäller ursprung, kan deras journalistik vara till stor del opålitlig.

I USA erbjuder senator Rob Portmans (Ohio) Deepfake Working Group Act forskning om digitalt ursprung, och ansvariga regeringar bör överväga hur man använder C2PA och liknande standarder. Men antagandet av en “falska nyheter” eller onlinesäkerhetslag för att föreskriva användningen av dessa tekniker skulle vara ett fruktansvärt steg i fel riktning, vilket bryter mot behovet av att tekniken ska vara uppkopplad och utan tvång.

Hur båda sidor av abortdebatten tappade sin moraliska mark Uppmaningen att avsluta de kommande internationella flygtesterna är sann av alla fel skäl

Dessa standarder kommer att missbrukas och luckor kommer att hittas av dåliga aktörer. Dellösningen är dock fortfarande ett steg i rätt riktning. På WITNESS har vi lett ett initiativ under de senaste fyra åren för att ta itu med den ökande risken för djupa bedrägerier. Eftersom trenden att förbättra digitala förfalskning över de befintliga problemen med selektivt förändrade bilder med foto- och videoredigeringsverktyg – felidentifierade och felaktigt framställda ”grunda förfalskningar” – kommer att öka svårigheten att förstå vad vi ser och hör.

Framväxande originalitet och bakgrundsinfrastruktur kan hjälpa till att möta vårt växande förtroende för audiovisuella medier. Nyckelfrågan nu är att respektera mänskliga rättigheter, såsom rättvis tillgång till teknik, yttrandefrihet och integritet. Vi behöver ordningsvakter och ordningsvakter. Dessa verktyg kommer att lyckas eller misslyckas baserat på hur de tjänar de mest utsatta människorna som försvarar sina sanningar på Ukrainas gator eller i inlandet till många andra konfliktområden: De har mest att vinna och mest att förlora.

Sam Gregory är chef för program, strategi och innovation BEVITTNAär en människorättsorganisation med global erfarenhet som arbetar med hur man kan göra videor på människor i kris mer tillförlitliga och mer övertygande.

Botón volver arriba

Ad blocker detected

You must remove the AD BLOCKER to continue using our website THANK YOU