BLOGG

EEOC, DOJ, Arbetsgivares användning av teknik, förklarar AI-förväntningar på anställningsbeslut | Jackson

I decennier har arbetsgivare använt teknik för att hjälpa dem fatta beslut, från anställning till prestationsutmärkelser. Även om det verkar ta bort mänskliga fördomar ur ekvationen, har den amerikanska kommissionen för lika möjligheter till anställning (EEOC) och justitiedepartementet (DOJ) uttryckt oro över potentiell diskriminering av funktionshinder vid användning av teknik.

För att hjälpa arbetsgivare att identifiera och förebygga potentiella fallgropar i samband med användningen av programvara för beslutsfattande, inklusive artificiell intelligens (AI), publicerade EEOC den 12 maj 2022 ett tekniskt biståndsdokument (TAD) om teknik och diskriminering av funktionshinder. EEOC:s initiativ för artificiell intelligens och algoritmisk rättvisa för att säkerställa att användningen av programvara som används i TAD, rekrytering och andra anställningsbeslut, inklusive artificiell intelligens (AI), maskininlärning och andra framväxande teknologier, följer federal civillagstiftning. EEOC gäller. “

DOJ utfärdade också en instruktion den 12 maj med fokus på algoritmer och artificiell intelligens i rekryteringsprocessen.

Även om de inte skapar nya eller annorlunda rättsliga skyldigheter för arbetsgivare, ger dessa dokument insikt i hur dessa myndigheter ser på artificiell intelligens på arbetsplatsen.

EEOC

EEOC:s TAD-teknik tillämpar lagen om amerikaner med funktionshinder (ADA), inklusive regler och befintliga riktlinjer där juridiska frågor korsar varandra på arbetsplatsen. TAD vädjar till traditionella rekryterings- och rekryteringsverktyg som personlighets- och kognitiva bedömningar, samt avancerade teknologier som AI.

TAD fokuserar på tre “de vanligaste sätten på vilka en arbetsgivares användning av algoritmiska beslutsverktyg kan bryta mot ADA.” Enligt EEOC är dessa:

  • Arbetsgivaren skapar inte rimliga förutsättningar för en “rättvis och korrekt” bedömning av en anställd eller sökande med funktionsnedsättning;
  • Verktyget “tar bort” avsiktligt eller oavsiktligt personer med funktionshinder från skärmen; och
  • Verktyget bryter mot ADA:s restriktioner för handikappförfrågningar och medicinska undersökningar.

TAD tillhandahåller också vad EEOC kallar “lovande praxis” som kan minimera risken för rättstvister för arbetsgivare, inklusive:

  • Utbilda personalen att känna igen och behandla lämpliga placeringskrav så snart som möjligt.
  • Om den aktuella bedömningsprocessen inte är tillgänglig eller orättvist påverkar sökande eller anställda som kräver rimlig anpassning på grund av funktionshinder, utbilda personalen att utveckla eller skaffa alternativa sätt att bedöma sökande och anställda.
  • Arbeta med utomstående som hanterar beslutsfattande verktyg för att säkerställa lämplig placering.
  • Använd algoritmiska beslutsverktyg utformade för att vara tillgängliga för så många personer med funktionsnedsättning som möjligt.
  • Informera alla sökande och utvärderad personal om tillgängligheten av faciliteter för personer med funktionsnedsättning.
  • Ge tydliga och tillgängliga instruktioner för sökande och anställda att begära boende.
  • Beskriv på ett enkelt språk och i tillgängliga format funktionerna i verktyget för utvärdering, de utvärderingsmetoder som används och de variabler eller faktorer som kan påverka betyget.
  • Algoritmiska beslutsverktyg bör endast mäta färdigheter eller kompetenser som är “verkligen nödvändiga” för jobbet, även för personer med rimliga arbetsplatsförhållanden.
  • För att säkerställa att nödvändiga färdigheter eller kvalifikationer mäts direkt, inte indirekt.
  • Bekräfta med leverantörer att om förfrågningarna inte är relaterade till en rimlig placeringsförfrågan, ställer verktygen inte frågor som sannolikt kan ge information om funktionshinder eller individens fysiska eller psykiska funktionshinder eller hälsa.

Medan vissa “lovande metoder” redan används av arbetsgivare, är andra kontroversiellt ur linje och söker förändring som inte har några potentiella brister i praktiken. Många företag specificerar till exempel inte de egenskaper som värderingen mäts för eller vilka variabler eller faktorer som påverkar betyget. Dessutom mäter vissa bedömningar egenskaper relaterade till förmågor och kvalifikationer, eftersom det kan vara svårt eller omöjligt att direkt och objektivt mäta sökandes förmågor. Detta dokument för tekniskt bistånd har dock ingen rättslig verkan.

DOJ

DOJ-guiden fokuserar på rekryteringsprocessen, diskuterar hur användningen av dessa tekniker kan screena personer med funktionshinder och sätt att förhindra potentiell diskriminering. DOJ uppmuntrar arbetsgivare att testa den teknik de tänker använda och att överväga de acceptabla villkoren de kan tillhandahålla.

Andra överväganden

Arbetsgivare bör också överväga andra anklagelser om potentiell diskriminering. Enligt EEOC måste arbetsgivare och mjukvaruleverantörer vidta åtgärder för att säkerställa att algoritmiska beslutsverktyg är ordentligt genomgångna för att förhindra diskriminering enligt artikel VII i Civil Rights Act, som är baserad på ras, kön, nationellt ursprung, färg eller religion. . Dessa steg skiljer sig dock i allmänhet från de som krävs för att säkerställa ADA-efterlevnad, eftersom den unika karaktären hos varje funktionshinder måste övervägas individuellt. För vissa ändamål kan “godkända” beslutsfattande verktyg, som de med funktionshinder, fortfarande vara olämpligt undersökta.

Arbetsgivare bör också vara uppmärksamma på sekretessen för information som härrör från insamlingen av information som krävs för att tillämpa algoritmer. I vissa stater kan arbetsgivare vilja diskutera med en konsult frågor om varning, samtycke, acceptabel användning, avslöjande, rimliga garantier och bevarande av denna information.

EEOC och DOJ är inte de enda som oroar sig över användningen av artificiell intelligens och relaterad teknologi på arbetsplatsen. 2019 antog Illinois Artificial Intelligence Video Interview Act (AIVI Act), som kräver att arbetsgivare tillämpar AI-teknik för samtycke, transparens och dataförstöring under anställningsintervjuprocessen. Den första statliga lagen som reglerar användningen av artificiell intelligens i videointervjuer, AIVI Act, trädde i kraft den 1 januari 2020. År 2020 antog Maryland också en lag som kräver varning och samtycke innan ansiktsigenkänningsteknik används i en anställningsintervju. År 2021 antog New Yorks kommunfullmäktige en åtgärd som skapar vissa skyldigheter för arbetsgivare som använder artificiell intelligens i sina rekryteringsmetoder. Äntligen finns det mer i horisonten. California Council on Fair Employment and Housing överväger ett lagförslag om automatiserade beslutssystem på arbetsplatsen.

***

Teknikbaserade beslutsfattande verktyg är mer tillgängliga än någonsin, särskilt när nya teknologier och applikationer dyker upp för att hjälpa företag att möta marknadens krav och betjäna allt mer avlägsna och hybrida arbetsplatser. Från sport- och friidrottsorganisationer som försöker förbättra idrottarnas prestationer, till logistikföretag som försöker förbättra förarsäkerheten, till att driva effektiviteten inom livsmedelsbranschen, organisationer i nästan alla branscher behöver överväga de otaliga juridiska frågorna som potentiellt kan påverka alla aspekter av rekrytering. och humankapitalförvaltning.

Botón volver arriba

Ad blocker detected

You must remove the AD BLOCKER to continue using our website THANK YOU