New Delhi, 3 juli: Metaägda Facebook vidtog åtgärder mot cirka 17,5 miljoner delar av innehåll i 13 kategorier av kränkningar i Indien i maj, enligt sociala mediejättens senaste månadsrapport. Innehållet som åtgärdas tillhör kategorier inklusive övergrepp och trakasserier, våldsamt och grafiskt innehåll, vuxen nakenhet och sexuell aktivitet, hot mot barn, farliga organisationer och individer samt spam, bland annat.
Facebook vidtog åtgärder mot cirka 17,5 miljoner delar av innehåll mellan 1-31 maj 2022 i flera kategorier, medan Metas fotodelningsplattform Instagram “vidtog åtgärder” mot nästan 4,1 miljoner delar av innehåll i 12 kategorier under samma period, enligt dess nyligen publicerade Indien Monthly Report.
“Att vidta åtgärder kan inkludera att ta bort visst innehåll från Facebook eller Instagram, eller att täcka foton eller videor som kan vara störande för vissa tittare, med en varning.” Metas rapport säger.
Enligt IT-reglerna, som trädde i kraft i maj förra året, måste stora digitala plattformar (med över fem miljoner användare) publicera periodiska efterlevnadsrapporter varje månad med uppgifter om inkomna klagomål och vidtagna åtgärder. Rapporterna inkluderar även detaljer om innehåll som tagits bort eller inaktiverats genom proaktiv övervakning med hjälp av automatiserade verktyg.
Mikrobloggplattformen Twitters Indien Transparency Report från juni 2022 avslöjade att den tog emot över 1 500 klagomål i landet via sin lokala klagomålskanal mellan 26 april 2022 och 25 maj 2022.
“Utöver ovanstående behandlade vi 115 klagomål som överklagade avstängningen av Twitter-konton. Alla dessa löstes och lämpliga svar skickades”, sa Twitter-rapporten. “Vi har inte återställt någon av kontoavstängningarna baserat på detaljerna i situationen, därför förblir alla rapporterade konton avstängda”, tillade han.
Mer än 46 500 konton stängdes av för att ha brutit mot riktlinjerna genom proaktiv övervakning, sade Twitters rapport, som noterade att dessa uppgifter representerade globala åtgärder som vidtagits, inte bara de som är relaterade till innehåll från Indien. Regeringen har gett Twitter meddelande att följa alla sina tidigare order senast den 4 juli, annars kan den förlora sin mellanhandsstatus, vilket innebär att den kommer att vara ansvarig för alla kommentarer som publiceras på dess plattform.
Metaägda WhatsApp förbjöd över 19 lakh indiska konton i maj baserat på klagomål från användare via dess klagomålskanal och genom dess egen mekanism för förebyggande och upptäckt av intrång, enligt den månadsrapport som nyligen släpptes av meddelandeplattformen.
Samtidigt, i fallet med Facebook, visade den senaste Meta-rapporten som publicerades den 30 juni att av 17,5 miljoner actionstycken var 3,7 miljoner i kategorin våldsamt och grafiskt innehåll, 2,6 miljoner i kategorin vuxen nakenhet och sexuell aktivitet, medan 9,3 miljoner relaterade till spam.
Några av de andra kategorierna där innehållet “agerades” var trakasserier och mobbning (294 500), självmord och självskada (482 000), farliga organisationer och individer – terrorism (106 500) och farliga organisationer och individer – organiserat hat (4 300) .
Metas rapport innehåller information under en 31-dagarsperiod om åtgärder som vidtagits mot kränkande innehåll på Facebook och Instagram för användargenererat innehåll i Indien och proaktiva upptäcktsfrekvenser, samt information om klagomål som tagits emot av användare i landet genom klagomålsmekanismerna. klagomål.
Facebook sa: “Mellan 1 och 31 maj fick vi 835 anmälningar genom den indiska klagomålsmekanismen och svarade på 100 procent av dessa 835 anmälningar.”
“Från dessa inkommande rapporter gav vi verktyg för användare att lösa sina problem i 564 fall. Dessa inkluderar företablerade kanaler för att rapportera innehåll för specifika överträdelser, självåterställningsströmmar där de kan hämta sin data, sätt att hantera problem med hackade konton och mer. .”
För Instagram mottogs 13 869 rapporter via Indiens klagomålsmekanism i maj, och plattformen svarade på 100 procent av rapporterna. Av dessa inkommande rapporter gav det verktyg för användare att lösa sina problem i 4 693 fall. “Av de andra 9 173 rapporterna som krävde specialistgranskning, granskade vi innehållet enligt våra policyer och agerade på totalt 5 770 rapporter”, tilläggs det.
Regeringen håller på att slutföra nya regler för sociala medier som föreslår att användare beväpnas med en mekanism för att överklaga klagomål mot godtycklig moderering av innehåll, passivitet eller borttagningsbeslut från stora teknikföretag.
IT-ministeriet cirkulerade förra månaden utkast till regler som föreslår en regeringspanel att undersöka klagomål från användare mot passivitet på klagomål som gjorts eller mot innehållsrelaterade beslut som fattats av klagomålstjänstemän på sociala medieplattformar. Facebook-användare kopierar och klistra in ett inlägg om liv och död.
För närvarande “finns det ingen överklagandemekanism som tillhandahålls av mellanhänder, och det finns inte heller någon pålitlig självreglerande mekanism”, sa IT-ministeriet.
Stora sociala medieplattformar har tidigare blivit utsatta för hattal, desinformation och falska nyheter som cirkulerar på deras plattformar. Det har också väckts oro över att digitala plattformar agerar godtyckligt när de tar bort innehåll och “deplattformar” användare. Förra året meddelade regeringen IT-regler för att göra digitala mellanhänder mer ansvariga och ansvariga för innehållet som finns på deras plattformar.
https://www.latestly.com/technology/facebook-actioned-17-5-million-content-pieces-in-india-during-may-2022-meta-report-3902580.html