Os ataques de pânico começaram depois que Chloe viu um homem morrer.
Ela passou as últimas três semanas e meia treinando, tentando endurecer-se contra o ataque diário de mensagens perturbadoras: o discurso de ódio, os ataques violentos, a pornografia gráfica. Em poucos dias, ela se tornará moderadora em tempo integral no Facebook, ou o que a empresa para a qual ela trabalha, um fornecedor de serviços profissionais chamado Cognizant, chama opaco um "executivo de processos".
Para esta parte de sua educação, Chloe terá que moderar um post no Facebook na frente de seus colegas estagiários. Quando chega a sua vez, ela caminha para a frente da sala, onde um monitor exibe um vídeo que foi postado na maior rede social do mundo. Nenhum dos treinandos já viu isso antes, incluindo Chloe. Ela pressiona o jogo.
O vídeo mostra um homem sendo assassinado. Alguém o esfaqueia dezenas de vezes, enquanto ele grita e implora por sua vida. O trabalho de Chloe é dizer à sala se esse post deve ser removido. Ela sabe que a seção 13 dos padrões da comunidade do Facebook proíbe vídeos que descrevam o assassinato de uma ou mais pessoas. Quando Chloe explica isso para a classe, ela ouve sua voz tremendo.
Voltando ao seu lugar, Chloe sente um desejo irresistível de soluçar. Outro estagiário subiu para rever o próximo post, mas Chloe não consegue se concentrar. Ela sai da sala e começa a chorar com tanta força que tem dificuldade para respirar.
Ninguém tenta consolá-la. Este é o trabalho que ela foi contratada para fazer. E para as mil pessoas, como Chloe moderando conteúdo para o Facebook no site de Phoenix, e para 15 mil revisores de conteúdo em todo o mundo, hoje é apenas mais um dia no escritório.
Nos últimos três meses, entrevistei uma dúzia de funcionários atuais e antigos da Cognizant em Phoenix. Todos assinaram acordos de confidencialidade com a Cognizant nos quais se comprometeram a não discutir seu trabalho para o Facebook - ou mesmo reconhecer que o Facebook é o cliente da Cognizant. O sigilo de sigilo destina-se a proteger os funcionários de usuários que possam estar zangados com uma decisão de moderação de conteúdo e tentar resolvê-los com um fornecedor de Facebook conhecido. Os NDAs também pretendem impedir que contratados compartilhem informações pessoais de usuários do Facebook com o mundo exterior, em um momento de intenso escrutínio sobre questões de privacidade de dados.
Mas o sigilo também isola a Cognizant e o Facebook das críticas sobre suas condições de trabalho, disseram os moderadores. Eles são pressionados a não discutir o impacto emocional que seu trabalho exerce sobre eles, mesmo com os entes queridos, levando a um aumento dos sentimentos de isolamento e ansiedade. Para protegê-los de possíveis retaliações, tanto de seus empregadores como de usuários do Facebook, concordei em usar pseudônimos para todos os nomes nesta história, exceto Bob Duncan, vice-presidente de operações para serviços de processos de negócios da Cognizant, e diretor global de fornecedores parceiros do Facebook. Mark Davidson.
Coletivamente, os funcionários descreveram um local de trabalho que está perpetuamente à beira do caos. É um ambiente onde os trabalhadores lidam contando piadas obscuras sobre cometer suicídio, depois fumam maconha durante os intervalos para entorpecer suas emoções. É um lugar onde os funcionários podem ser despedidos por fazer apenas alguns erros por semana - e onde aqueles que permanecem vivem vivem com medo dos ex-colegas que retornam em busca de vingança.
É um lugar onde, em contraste com as vantagens dos funcionários do Facebook , os líderes de equipe gerenciam os moderadores de conteúdo em cada banheiro e intervalo de oração; onde empregados, desesperados por uma corrida de dopamina em meio à miséria, foram encontrados fazendo sexo dentro de escadas e uma sala reservada para mães que amamentam; onde as pessoas desenvolvem ansiedade severa enquanto ainda estão em treinamento, e continuam a lutar com sintomas de trauma muito tempo depois de saírem; e onde o aconselhamento que a Cognizant oferece a eles termina no momento em que eles desistem - ou simplesmente desistem.
Os moderadores me disseram que é um lugar onde os vídeos e memes de conspiração que eles veem a cada dia gradualmente os levam a abraçar pontos de vista marginais. Um auditor anda no chão promovendo a ideia de que a Terra é plana. Um ex-funcionário me contou que começou a questionar certos aspectos do Holocausto. Outro ex-funcionário, que me disse que mapeou todas as rotas de fuga de sua casa e dorme com uma arma ao seu lado, disse: "Eu não acredito mais que o 11 de setembro fosse um ataque terrorista".
Chloe chora por um tempo na sala de descanso, e depois no banheiro, mas começa a se preocupar que ela está faltando muito treinamento. Ela estava desesperada por um emprego quando se candidatou, como recém-formada, sem outras perspectivas imediatas. Quando ela se torna uma moderadora em tempo integral, Chloe ganha US $ 15 por hora - US $ 4 a mais do que o salário mínimo no Arizona, onde mora, e melhor do que ela pode esperar da maioria dos empregos no varejo.
As lágrimas acabam parando de vir e sua respiração volta ao normal. Quando ela volta para a sala de treinamento, um de seus colegas está discutindo outro vídeo violento. Ela vê que um drone está atirando nas pessoas do ar. Chloe observa os corpos ficarem moles enquanto eles morrem.
Ela sai da sala novamente.
Eventualmente, um supervisor a encontra no banheiro e oferece um abraço fraco. A Cognizant disponibiliza um conselheiro para os funcionários, mas apenas durante parte do dia, e ele ainda não conseguiu trabalhar. Chloe espera por ele por quase uma hora.
Quando o conselheiro a vê, ele explica que ela teve um ataque de pânico. Ele diz a ela que, quando ela se formar, ela terá mais controle sobre os vídeos do Facebook do que na sala de treinamento. Você poderá pausar o vídeo, ele diz a ela ou assisti-lo sem áudio. Concentre-se em sua respiração, ele diz. Certifique-se de não se envolver muito com o que está assistindo.
"Ele disse para não se preocupar - que eu provavelmente ainda poderia fazer o trabalho", diz Chloe. Então ela se pega: "Sua preocupação era: não se preocupe, você pode fazer o trabalho."
Em 3 de maio de 2017, Mark Zuckerberg anunciou a expansão da equipe de “operações comunitárias” do Facebook . Os novos funcionários, que seriam adicionados a 4.500 moderadores existentes, seriam responsáveis por revisar cada parte do conteúdo relatado por violar os padrões da comunidade da empresa. No final de 2018, em resposta às críticas à prevalência de conteúdo violento e explorativo na rede social, o Facebook tinha mais de 30.000 funcionários trabalhando em segurança e proteção - cerca de metade dos quais eram moderadores de conteúdo.
Os moderadores incluem alguns funcionários em tempo integral, mas o Facebook depende muito da contratação de mão-de-obra para fazer o trabalho. Ellen Silver, vice-presidente de operações do Facebook, disse em um post no ano passado que o uso de mão-de-obra terceirizada permitia ao Facebook " escalar globalmente " - ter moderadores de conteúdo trabalhando 24 horas por dia, avaliando postagens em mais de 50 idiomas. 20 sites em todo o mundo.
O uso de mão de obra contratada também tem um benefício prático para o Facebook: é radicalmente mais barato. O funcionário médio do Facebook ganha US $ 240.000 por anoem salário, bônus e opções de ações. Um moderador de conteúdo trabalhando para a Cognizant no Arizona, por outro lado, ganhará apenas US $ 28.800 por ano. O arranjo ajuda o Facebook a manter uma alta margem de lucro. Em seu trimestre mais recente, a empresa faturou US $ 6,9 bilhões em lucros, com receita de US $ 16,9 bilhões . E enquanto Zuckerberg avisou os investidores de que o investimento do Facebook em segurança reduziria a lucratividade da empresa, os lucros subiram 61% em relação ao ano anterior.
Desde 2014, quando Adrian Chen detalhou as duras condições de trabalho dos moderadores de conteúdo nas redes sociais da Wired , o Facebook tem sido sensível às críticas de que está traumatizando alguns de seus funcionários mais mal pagos. Em seu post no blog , Silver disse que o Facebook avalia a capacidade dos possíveis moderadores de lidar com imagens violentas, examinando-os para suas habilidades de enfrentamento.
Bob Duncan, que supervisiona as operações de moderação de conteúdo da Cognizant na América do Norte, diz que os recrutadores explicam cuidadosamente a natureza gráfica do trabalho para os candidatos. "Compartilhamos exemplos do tipo de coisa que você pode ver ... para que eles entendam", diz ele. “A intenção de tudo isso é garantir que as pessoas entendam isso. E se eles não sentem que o trabalho é potencialmente adequado para eles com base em sua situação, eles podem tomar essas decisões conforme apropriado ”.
Até recentemente, a maior parte da moderação de conteúdo do Facebook era feita fora dos Estados Unidos. Mas à medida que a demanda por mão-de-obra do Facebook cresceu, expandiu suas operações domésticas para incluir sites na Califórnia, Arizona, Texas e Flórida.
Os Estados Unidos são a casa da empresa e um dos países em que é mais popular, diz Davidson, do Facebook. Os moderadores americanos são mais propensos a ter o contexto cultural necessário para avaliar o conteúdo dos EUA que pode envolver bullying e discurso de ódio, que muitas vezes envolvem gírias específicas do país, diz ele.
O Facebook também trabalhou para construir o que Davidson chama de “state-of-the-art facilities”, então eles replicaram um escritório no Facebook e tinham esse Facebook para eles. Isso era importante porque também há uma percepção no mercado às vezes ... que nossa gente está sentada em porões muito escuros e sujos, iluminados apenas por uma tela verde. Isso não é realmente o caso.
É verdade que a localização da Cognizant em Phoenix não é nem escura nem sombria. E, na medida em que oferece aos funcionários mesas com computadores, pode parecer um pouco com outros escritórios do Facebook. Mas enquanto os funcionários da sede do Facebook em Menlo Park trabalham em um complexo arejado iluminado por Frank Gehry, seus empreiteiros no Arizona trabalham em um espaço apertado onde longas filas para as poucas vagas de banheiro disponíveis podem ocupar a maior parte do tempo de descanso. E enquanto os funcionários do Facebook desfrutam de um amplo grau de liberdade na forma como gerenciam seus dias, o tempo dos funcionários da Cognizant é gerenciado até o segundo.
Um moderador de conteúdo chamado Miguel chega para o turno diurno pouco antes de começar, às 7h da manhã. Ele é um dos cerca de 300 trabalhadores que acabarão por se infiltrar no local de trabalho, que ocupa dois andares de um escritório em Phoenix.
O pessoal de segurança vigia a entrada, à procura de ex-funcionários descontentes e usuários do Facebook que possam enfrentar moderadores em relação a postagens removidas. Miguel entra no escritório e vai para os armários. Há mal há cacifos suficientes para ir ao redor, por isso alguns funcionários têm levado a manter itens neles durante a noite para garantir que eles terão um no dia seguinte.
Os armários ocupam um corredor estreito que, durante os intervalos, fica entupido de pessoas. Para proteger a privacidade dos usuários do Facebook cujas postagens eles revisam, os funcionários precisam armazenar seus telefones em armários enquanto trabalham.
Utensílios de escrita e papel também não são permitidos, no caso de Miguel ser tentado a escrever as informações pessoais de um usuário do Facebook. Essa política se estende a pequenos recados de papel, como embalagens de goma. Itens menores, como a loção para as mãos, devem ser colocados em sacos plásticos transparentes para que estejam sempre visíveis aos gerentes.
Para acomodar quatro turnos diários - e alta rotatividade de funcionários - a maioria das pessoas não terá um balcão permanente no que a Cognizant chama de “chão de fábrica”. Em vez disso, Miguel encontra uma estação de trabalho aberta e faz login em um software conhecido como Single Review. Ferramenta ou SRT. Quando ele está pronto para trabalhar, ele clica em um botão chamado "retomar a revisão" e mergulha na fila de mensagens.
Em abril passado, um ano depois de muitos dos documentos terem sido publicados noGuardian , o Facebook tornou públicos os padrões da comunidade pelos quais ele tenta governar seus 2,3 bilhões de usuários mensais. Nos meses seguintes, a Motherboard e a Radiolab publicaram investigações detalhadas sobre os desafios de moderar uma quantidade tão grande de discurso.
Esses desafios incluem o grande volume de posts; a necessidade de formar um exército global de trabalhadores mal remunerados para aplicar consistentemente um único conjunto de regras; mudanças quase diárias e esclarecimentos sobre essas regras; falta de contexto cultural ou político por parte dos moderadores; falta de contexto em posts que torna seu significado ambíguo; e discordâncias freqüentes entre os moderadores sobre se as regras devem ser aplicadas em casos individuais.
Apesar do alto grau de dificuldade na aplicação de tal política, o Facebook instruiu a Cognizant e seus outros contratados a enfatizar uma métrica chamada "precisão" acima de tudo. Precisão, nesse caso, significa que, quando o Facebook audita um subconjunto de decisões dos contratados, seus funcionários em tempo integral concordam com os contratados. A empresa estabeleceu uma meta de precisão de 95%, um número que parece estar sempre fora de alcance. A Cognizant nunca atingiu o alvo por um período prolongado de tempo - ele geralmente flutua nos altos 80 ou baixos 90 e estava pairando em torno de 92 no momento da impressão.
Miguel aplica diligentemente a política - embora, ele me diz, muitas vezes não faz sentido para ele.
Um post chamando alguém “meu favorito n -----” é permitido ficar acordado, porque sob a política ele é considerado “conteúdo explicitamente positivo”.
“Pessoas autistas devem ser esterilizadas” parece ofensivo para ele, mas também permanece. O autismo não é uma "característica protegida" do jeito que raça e gênero são, e por isso não viola a política. ("Os homens devem ser esterilizados" seriam retirados.)
Em janeiro, o Facebook distribui uma atualização de política afirmando que os moderadores devem levar em conta a recente reviravolta romântica ao avaliar postagens que expressem ódio contra um gênero. "Eu odeio todos os homens" sempre violou a política. Mas “acabei de terminar com o meu namorado e odeio todos os homens” já não o faz.
Miguel trabalha os posts em sua fila. Eles chegam sem nenhuma ordem particular.
Aqui está uma piada racista. Aqui está um homem fazendo sexo com um animal de fazenda. Aqui está um vídeo gráfico de assassinato gravado por um cartel de drogas. Alguns dos posts de comentários de Miguel estão no Facebook, onde ele diz que o bullying e o discurso de ódio são mais comuns; outras estão no Instagram, onde os usuários podem postar sob pseudônimos e tendem a compartilhar mais violência, nudez e atividade sexual.
Cada post apresenta Miguel com dois testes separados, mas relacionados. Primeiro, ele deve determinar se uma publicação viola os padrões da comunidade. Em seguida, ele deve selecionar o motivo correto pelo qual viola os padrões. Se ele reconhecer com precisão que um post deve ser removido, mas seleciona o motivo “errado”, isso contará em sua pontuação de precisão.
Miguel é muito bom em seu trabalho. Ele tomará as medidas corretas em cada um desses posts, esforçando-se para limpar o pior conteúdo do Facebook e, ao mesmo tempo, protegendo a quantidade máxima de discurso legítimo (se desconfortável). Ele gastará menos de 30 segundos em cada item, e ele fará isso até 400 vezes por dia.
Quando Miguel tem uma pergunta, ele levanta a mão, e um “especialista no assunto” (SME) - um contratado que espera ter um conhecimento mais abrangente das políticas do Facebook, que ganha US $ 1 a mais por hora do que Miguel - vai se aproximar e ajudá-lo. . Isso custará a Miguel tempo, e embora ele não tenha uma cota de postagens para revisar, os gerentes monitoram sua produtividade e pedem a ele que se explique quando o número cair para os 200s.
Das cerca de 1.500 decisões semanais de Miguel, o Facebook selecionará aleatoriamente 50 ou 60 para auditar. Essas postagens serão analisadas por um segundo funcionário da Cognizant - um profissional de garantia de qualidade, conhecido internamente como um QA, que também ganha US $ 1 por hora a mais que Miguel. Em tempo integral, os funcionários do Facebook, em seguida, auditam um subconjunto de decisões de controle de qualidade e, a partir dessas deliberações coletivas, uma pontuação de precisão é gerada.
Miguel tem uma visão sombria do valor da precisão.
“A precisão só é julgada por acordo. Se eu e o auditor permitissem a venda óbvia de heroína, a Cognizant estava "correta", porque ambos concordamos ", diz ele. "Esse número é falso."
O foco unilateral do Facebook na precisão se desenvolveu depois de sustentar anos de críticas sobre o tratamento de problemas de moderação. Com bilhões de novos posts chegando a cada dia, o Facebook sente pressão de todos os lados. Em alguns casos, a empresa tem sido criticada por não fazer o suficiente - como quando os investigadores da ONU descobriram que ela foi cúmplice na divulgação do discurso de ódio durante o genocídio da comunidade rohingya em Mianmar. Em outros, tem sido criticado por excesso - como quando um moderador removeu um post que extraiu a Declaração de Independência . (Thomas Jefferson foi finalmente concedida uma isenção póstuma às diretrizes de fala do Facebook, que proíbe o uso da expressão "selvagens indianos").
Uma razão pela qual os moderadores lutam para atingir sua meta de precisão é que, para qualquer decisão de execução de política, eles têm várias fontes de verdade a serem consideradas.
A fonte canônica para aplicação da lei são as diretrizes da comunidade pública do Facebook - que consistem em dois conjuntos de documentos: os publicados publicamentee as diretrizes internas mais longas, que oferecem detalhes mais detalhados sobre questões complexas. Esses documentos são complementados por um documento secundário de 15.000 palavras, chamado “Perguntas Conhecidas”, que oferece comentários e orientações adicionais sobre questões espinhosas de moderação - um tipo de Talmude para as orientações da comunidade sobre a Torá. As Perguntas Conhecidas costumavam ocupar um único documento longo que os moderadores tinham que fazer referência cruzada diariamente; no ano passado, foi incorporado às diretrizes da comunidade interna para facilitar a busca.
Uma terceira fonte importante de verdade são as discussões que os moderadores têm entre si. Durante eventos de notícias de última hora, como um tiroteio em massa, os moderadores tentarão chegar a um consenso sobre se uma imagem gráfica atende aos critérios a serem excluídos ou marcados como perturbadores. Mas às vezes eles chegam ao consenso errado, disseram os moderadores, e os gerentes têm de andar em pé explicando a decisão correta.
A quarta fonte é talvez a mais problemática: as ferramentas internas do próprio Facebook para distribuir informações. Embora as mudanças na política oficial normalmente cheguem a cada quarta-feira, a orientação incremental sobre o desenvolvimento de questões é distribuída quase diariamente. Muitas vezes, essa orientação é publicada no Workplace, a versão corporativa do Facebook que a empresa introduziu em 2016. Como o próprio Facebook, o Workplace tem um Feed de Notícias algorítmico que exibe postagens baseadas no engajamento. Durante um evento de notícias de última hora, como um tiroteio em massa, os gerentes costumam postar informações conflitantes sobre como moderar partes individuais do conteúdo, que aparecem depois em ordem cronológica no Local de Trabalho. Seis funcionários atuais e antigos me disseram que haviam cometido erros de moderação com base na exibição de um post desatualizado no início de seu feed. Às vezes, parece que o próprio produto do Facebook está trabalhando contra eles. A ironia não é perdida nos moderadores.
"Aconteceu o tempo todo", diz Diana, ex-moderadora. “Foi horrível - uma das piores coisas que eu tive que lidar pessoalmente, para fazer o meu trabalho corretamente.” Em tempos de tragédia nacional, como o tiroteio em Las Vegas 2017, os gerentes diziam aos moderadores para removerem um vídeo - e então em um post separado, algumas horas depois, para deixá-lo. Os moderadores tomariam uma decisão com base em qualquer postagem que o Workplace servisse.
"Foi uma bagunça tão grande", diz Diana. "Nós deveríamos estar em pé de igualdade com a nossa tomada de decisão, e isso estava bagunçando nossos números."
Postagens no local de trabalho sobre mudanças de políticas são complementadas por slides ocasionais que são compartilhados com os funcionários da Cognizant sobre tópicos especiais com moderação - geralmente ligados a aniversários sombrios, como o tiroteio em Parkland. Mas essas apresentações e outros materiais suplementares costumam conter erros constrangedores, disseram os moderadores. No ano passado, as comunicações do Facebook identificaram incorretamente certos representantes dos EUA como senadores; definiu erroneamente a data de uma eleição; e deu o nome errado para a escola secundária na qual o tiroteio de Parkland aconteceu. (É Marjory Stoneman Douglas High School, não "Stoneham Douglas High School".)
Mesmo com um livro de regras em constante mudança, os moderadores recebem apenas as menores margens de erro. O trabalho se assemelha a um videogame de alto risco, no qual você começa com 100 pontos - uma pontuação de precisão perfeita - e, em seguida, arranha e agarra para manter o máximo de pontos possíveis. Porque uma vez que você caia abaixo de 95, seu trabalho está em risco.
Se um gerente de garantia de qualidade assinalar errado a decisão de Miguel, ele poderá apelar da decisão. Conseguir que o QA concorde com você é conhecido como "acertar o alvo". No curto prazo, um "erro" é o que um QA diz ser, e assim os moderadores têm boas razões para recorrer toda vez que estão errados. (Recentemente, a Cognizant tornou ainda mais difícil recuperar um ponto, exigindo que os moderadores primeiro conseguissem que uma PME aprovasse o recurso antes de ser encaminhado ao controle de qualidade.)
Às vezes, perguntas sobre assuntos confusos são encaminhadas para o Facebook. Mas todos os moderadores que eu perguntei sobre isso disseram que os gerentes da Cognizant desencorajavam os funcionários de levantar questões para o cliente, aparentemente com medo de que muitas perguntas incomodassem o Facebook.
Isso resultou na Cognizant inventando a política em tempo real. Quando os padrões da comunidade não proibiram explicitamente a asfixia erótica, três ex-moderadores me disseram que um líder de equipe declarava que as imagens que mostravam asfixia seriam permitidas, a menos que os dedos deprimissem a pele da pessoa que estava sendo sufocada.
Antes de os trabalhadores serem demitidos, eles recebem treinamento e são colocados em um programa de remediação destinado a garantir que eles dominem a política. Mas muitas vezes isso serve como um pretexto para gerenciar os trabalhadores fora do trabalho, três ex-moderadores me disseram. Outras vezes, os contratados que perderam muitos pontos encaminharão seus recursos para o Facebook para uma decisão final. Mas a empresa nem sempre consegue completar a lista de solicitações antes que o funcionário em questão seja demitido, disseram-me.
Oficialmente, os moderadores são proibidos de abordar os QAs e fazer lobby para reverter uma decisão. Mas ainda é uma ocorrência regular, dois antigos QAs me disseram.
Um deles, chamado Randy, às vezes retornava ao seu carro no final de um dia de trabalho para encontrar moderadores esperando por ele. Cinco ou seis vezes ao longo de um ano, alguém tentaria intimidá-lo a mudar sua decisão. "Eles me confrontavam no estacionamento e diziam que iam me dar uma surra", ele diz. “Não havia nem mesmo um único caso em que fosse respeitoso ou legal. Foi só, você me auditou errado! Isso foi um besteira! Isso foi areola cheia, vamos lá cara! "
Temendo por sua segurança, Randy começou a trazer uma arma escondida para o trabalho. Funcionários despedidos ameaçavam regularmente voltar ao trabalho e prejudicar seus antigos colegas, e Randy acreditava que alguns deles eram sérios. Uma ex-colega de trabalho me disse que sabia que Randy levava uma arma para o trabalho e aprovou, temendo que a segurança no local não fosse suficiente no caso de um ataque.
Duncan, da Cognizant, me disse que a empresa investigaria as várias questões de segurança e gerenciamento que os moderadores haviam revelado a mim. Ele disse que trazer uma arma para o trabalho era uma violação da política e que, se a administração estivesse ciente disso, eles teriam intervindo e tomado medidas contra o empregado.
Randy desistiu depois de um ano. Ele nunca teve a oportunidade de disparar a arma, mas sua ansiedade perdura.
"Parte da razão pela qual eu saí foi o quão inseguro eu me sentia em minha própria casa e minha própria pele", diz ele.
Antes que Miguel possa fazer uma pausa, ele clica em uma extensão do navegador para avisar a Cognizant que ele está saindo de sua mesa. ("Isso é uma coisa normal neste tipo de indústria", diz Davidson, do Facebook. "Para poder rastrear, você sabe onde está sua força de trabalho.")
Miguel é permitido dois intervalos de 15 minutos e um almoço de 30 minutos. Durante os intervalos, ele freqüentemente encontra longas filas para os banheiros. Centenas de funcionários compartilham apenas um mictório e duas barracas no banheiro masculino e três barracas nas mulheres. Cognizant eventualmente permitiu que os empregados usassem um banheiro em outro andar, mas chegar lá e voltar levará Miguel minutos preciosos. No momento em que ele usou o banheiro e lutou com a multidão para seu armário, ele pode ter cinco minutos para olhar para o seu telefone antes de retornar à sua mesa.
Miguel também recebe nove minutos por dia de “tempo de bem-estar”, que ele deveria usar se se sentir traumatizado e precisar se afastar de sua mesa. Vários moderadores me disseram que usavam rotineiramente seu tempo de bem-estar para ir ao banheiro quando as filas eram mais curtas. Mas a gerência finalmente percebeu o que eles estavam fazendo e ordenou que os funcionários não usassem o tempo de bem-estar para se aliviarem. (Recentemente, um grupo de moderadores do Facebook contratados pela Accenture em Austin reclamou de condições “desumanas” relacionadas a períodos de pausa ; o Facebook atribuiu a questão a um mal-entendido de suas políticas.)
No local de Phoenix, os trabalhadores muçulmanos que usaram o tempo de bem-estar para realizar uma de suas cinco orações diárias foram orientados a interromper a prática e fazê-lo em seu outro tempo de pausa, disseram-me funcionários atuais e antigos. Não ficou claro para os funcionários com quem falei por que seus gerentes não consideravam a oração um uso válido do programa de bem-estar. (A Cognizant não ofereceu um comentário sobre esses incidentes, embora uma pessoa familiarizada com um caso tenha me dito que um trabalhador solicitou mais de 40 minutos para a oração diária, que a empresa considerou excessiva.)
Os funcionários da Cognizant são orientados a lidar com o estresse dos empregos visitando consultores, quando estiverem disponíveis; chamando uma linha direta; e usando um programa de assistência ao empregado, que oferece um punhado de sessões de terapia. Mais recentemente, yoga e outras atividades terapêuticas foram adicionadas à semana de trabalho. Mas, além de visitas ocasionais ao conselheiro, seis funcionários com quem falei me disseram que consideravam esses recursos inadequados. Eles me disseram que lidavam com o estresse do trabalho de outras maneiras: com sexo, drogas e piadas ofensivas.
Entre os lugares que os funcionários da Cognizant foram encontrados fazendo sexo no trabalho: as barracas de banheiro, as escadarias, a garagem e a sala reservada para as mães que amamentam. No início de 2018, a equipe de segurança enviou um memorando para os gerentes alertando-os sobre o comportamento, uma pessoa familiarizada com o assunto me disse. A solução: a gerência removeu as fechaduras da porta do quarto da mãe e de um punhado de outras salas privadas. (A sala da mãe agora é bloqueada novamente, mas os usuários em potencial devem primeiro verificar uma chave de um administrador.)
Um ex-moderador chamado Sara disse que o sigilo em torno de seu trabalho, juntamente com a dificuldade do trabalho, forjou fortes laços entre os funcionários. "Você chega muito perto de seus colegas de trabalho muito rapidamente", diz ela. “Se você não tem permissão para falar com seus amigos ou familiares sobre o seu trabalho, isso vai criar alguma distância. Você pode se sentir mais próximo dessas pessoas. Parece uma conexão emocional, quando na realidade você é apenas uma ligação de trauma. ”
Os funcionários também lidam com o uso de drogas e álcool, dentro e fora do campus. Um ex-moderador, Li, me disse que usava maconha no trabalho quase diariamente, através de um vaporizador. Durante os intervalos, diz ele, pequenos grupos de funcionários geralmente saem e fumam. (O uso medicinal da maconha é legal no Arizona.)
"Eu não posso nem te dizer quantas pessoas eu fumei com", diz Li. “É tão triste quando penso nisso - isso realmente magoa meu coração. Nós descíamos e ficávamos chapados e voltávamos ao trabalho. Isso não é profissional. Sabendo que os moderadores de conteúdo da maior plataforma de mídia social do mundo estão fazendo isso no trabalho, enquanto eles estão moderando o conteúdo… ”
Ele parou.
Li, que trabalhou como moderador por cerca de um ano, foi um dos vários funcionários que disseram que o local de trabalho era repleto de humor negro. Os funcionários competiriam para enviar uns aos outros os memes mais racistas ou ofensivos, disse ele, em um esforço para aliviar o clima. Como uma minoria étnica, Li era um alvo freqüente de seus colegas de trabalho, e ele abraçou o que ele viu como piadas racistas de boa índole às suas custas, diz ele.
Mas com o tempo, ele ficou preocupado com sua saúde mental.
"Estávamos fazendo algo que estava escurecendo a nossa alma - ou o que você chama", diz ele. “O que mais você faz nesse ponto? A única coisa que nos faz rir é realmente nos prejudicando. Eu tive que me assistir quando eu estava brincando em público. Eu acidentalmente dizia coisas [ofensivas] o tempo todo - e então ficava tipo, ah merda, eu estou na mercearia . Eu não posso estar falando assim. "
Brincadeiras sobre autoflagelação também eram comuns. "Bebendo para esquecer", Sara ouviu um colega de trabalho dizer uma vez, quando o conselheiro perguntou como ele estava indo. (A conselheira não convidou o funcionário para uma discussão mais aprofundada.) Em dias ruins, Sara diz, as pessoas falavam que era “hora de sair para o telhado” - a brincadeira é que os funcionários da Cognizant podem um dia se jogar fora. isto.
Um dia, disse Sara, os moderadores levantaram os olhos de seus computadores para ver um homem em pé em cima do prédio de escritórios ao lado. A maioria deles assistiu a centenas de suicídios que começaram exatamente dessa maneira. Os moderadores se levantaram e correram para as janelas.
O homem não pulou, no entanto. Eventualmente, todos perceberam que ele era um colega de trabalho, dando um tempo.
Como a maioria dos ex-moderadores com quem conversei, Chloe desistiu depois de cerca de um ano.
Entre outras coisas, ela ficou preocupada com a disseminação de teorias da conspiração entre seus colegas. Um QA frequentemente discutia sua crença de que a Terra é plana com os colegas, e "estava ativamente tentando recrutar outras pessoas" para acreditar, disse outro moderador. Um dos colegas de Miguel uma vez se referiu casualmente ao "Holohoax", no que Miguel tomou como sinal de que o homem era um negador do Holocausto.
Teorias de conspiração foram frequentemente bem recebidas no chão de fábrica, seis moderadores me disseram. Após as filmagens de Parkland no ano passado, os moderadores ficaram inicialmente horrorizados com os ataques. Mas quanto mais conteúdo de conspiração foi postado no Facebook e no Instagram, alguns dos colegas de Chloe começaram a expressar dúvidas.
“As pessoas realmente começaram a acreditar nessas postagens que deveriam moderar”, diz ela. “Eles estavam dizendo: 'Oh meu Deus, eles não estavam realmente lá. Veja este vídeo da CNN sobre David Hogg - ele é velho demais para estar na escola. As pessoas começaram a pesquisar no Google, em vez de fazer o trabalho delas e analisar as teorias de conspiração sobre elas. Nós pensamos: 'Pessoal, não, essa é a coisa louca que devemos moderar. O que você está fazendo?'"
Acima de tudo, porém, Chloe se preocupava com os impactos a longo prazo do trabalho em sua saúde mental. Vários moderadores me disseram que experimentaram sintomas de estresse traumático secundário - um distúrbio que pode resultar da observação de traumas em primeira mão sofridos por outros. O distúrbio, cujos sintomas podem ser idênticos aos do transtorno de estresse pós-traumático, é frequentemente visto em médicos, psicoterapeutas e assistentes sociais. Pessoas com estresse traumático secundário relatam sentimentos de ansiedade, perda de sono, solidão e dissociação, entre outras doenças.
No ano passado, uma ex-moderadora do Facebook na Califórnia processou a empresa, dizendo que seu trabalho como contratada da empresa Pro Unlimited a havia deixado com TEPT . Na queixa, seus advogados disseram que ela “procura se proteger dos perigos do trauma psicológico resultante da falha do Facebook em fornecer um local de trabalho seguro para os milhares de contratados encarregados de fornecer o ambiente mais seguro possível para os usuários do Facebook”. ainda não está resolvido.)
Chloe sofreu sintomas de trauma nos meses desde que deixou o emprego. Ela começou a ter um ataque de pânico em um cinema durante o filme Mãe! , quando uma facada violenta provocou uma lembrança daquele primeiro vídeo que ela moderou na frente de seus colegas estagiários. Outra vez, ela estava dormindo no sofá quando ouviu fogo de metralhadora e teve um ataque de pânico. Alguém em sua casa tinha ligado um violento programa de TV. Ela "começou a surtar", diz ela. "Eu estava implorando para eles desligarem."
Os ataques fazem com que ela pense em seus colegas estagiários, especialmente os que deixam de participar do programa antes de começar. "Muitas pessoas não conseguem passar pelo treinamento", diz ela. “Eles passam por essas quatro semanas e depois são demitidos. Eles poderiam ter tido a mesma experiência que eu e não tiveram absolutamente nenhum acesso a conselheiros depois disso. ”
Na semana passada, Davidson me disse, o Facebook começou a pesquisar um grupo de moderadores para medir o que a empresa chama de “resiliência” - sua capacidade de se recuperar de ver conteúdos traumáticos e continuar fazendo seus trabalhos. A empresa espera expandir o teste para todos os seus moderadores globalmente, disse ele.
Randy também saiu depois de um ano. Como Chloe, ele havia sido traumatizado por um vídeo de um esfaqueamento. A vítima tinha mais ou menos a idade dele e ele se lembra de ter ouvido o homem chorando por sua mãe quando ele morreu.
"Todo dia eu vejo isso", diz Randy, "eu tenho um medo genuíno sobre facas. Eu gosto de cozinhar - voltar para a cozinha e ficar perto das facas é muito difícil para mim. ”
O trabalho também mudou a maneira como ele via o mundo. Depois que ele viu tantos vídeos dizendo que o 11 de setembro não era um ataque terrorista, ele passou a acreditar neles. Vídeos de conspiração sobre o massacre de Las Vegas também foram muito persuasivos, diz ele, e agora acredita que vários atiradores foram responsáveis pelo ataque. (O FBI descobriu que o massacre foi o trabalho de um único atirador .)
Randy agora dorme com uma arma ao seu lado. Ele executa exercícios mentais sobre como ele escaparia de sua casa no caso de ser atacado. Quando ele acorda de manhã, ele varre a casa com sua arma levantada, procurando por invasores.
Ele recentemente começou a ver um novo terapeuta, após ser diagnosticado com TEPT e transtorno de ansiedade generalizada.
"Estou fodido, cara", diz Randy. “Minha saúde mental - é tão alta e baixa. Um dia eu posso ser muito feliz e me sair bem. No dia seguinte, sou mais ou menos um zumbi. Não é que eu esteja deprimido. Eu estou apenas preso.
Ele acrescenta: "Eu não acho que é possível fazer o trabalho e não sair disso com algum transtorno de estresse agudo ou TEPT".
Uma queixa comum dos moderadores com quem falei foi que os conselheiros no local eram em grande parte passivos, contando com os trabalhadores para reconhecer os sinais de ansiedade e depressão e procurar ajuda.
Na semana passada, depois que eu contei ao Facebook sobre minhas conversas com moderadores, a empresa me convidou para ir a Phoenix para ver o site para mim. É a primeira vez que o Facebook permite que um repórter visite um site americano de moderação de conteúdo desde que a empresa começou a construir instalações dedicadas aqui há dois anos. Uma porta-voz que me encontrou no local disse que as histórias que me contaram não refletem as experiências do dia-a-dia da maioria de seus contratantes, seja em Phoenix ou em outros locais ao redor do mundo.
Um dia antes de eu chegar ao parque de escritórios onde Cognizant reside, uma fonte me conta, novos cartazes motivacionais foram pendurados nas paredes. No geral, o espaço é muito mais colorido do que eu esperava. Um gráfico de parede de néon descreve as atividades do mês, que se assemelham a um cruzamento entre as atividades no acampamento de verão e um centro de idosos: ioga, terapia de animais de estimação, meditação e um evento inspirado em Meninas Malvadas chamado On Wednesday We Wear Pink. O dia em que estive lá marcou o fim da Random Acts of Kindness Week, na qual os funcionários eram encorajados a escrever mensagens inspiradoras em cartões coloridos e prendê-los a uma parede com um pedaço de doce.
Após reuniões com executivos da Cognizant e do Facebook, entrevistei cinco funcionários que se ofereceram para falar comigo. Eles entram em uma sala de conferência, junto com o homem responsável pela administração do site. Com seu chefe sentado ao seu lado, os funcionários reconhecem os desafios do trabalho, mas me dizem que se sentem seguros, apoiados e acreditam que o trabalho levará a oportunidades com melhores salários - dentro da Cognizant, se não do Facebook.
Brad, que detém o título de gerente de política, me diz que a maioria dos conteúdos que ele e seus colegas analisam é essencialmente benigna e me adverte contra exagerar os riscos à saúde mental de fazer o trabalho.
"Há essa percepção de que somos bombardeados por essas imagens gráficas e conteúdo o tempo todo, quando na verdade o oposto é a verdade", diz Brad, que trabalhou no site por quase dois anos. “A maioria das coisas que vemos é leve, muito leve. As pessoas estão falando mal. São pessoas que relatam fotos ou vídeos simplesmente porque não querem vê-las, não porque haja algum problema com o conteúdo. Essa é realmente a maioria das coisas que vemos ”.
Quando eu pergunto sobre a alta dificuldade de aplicar a política, um revisor chamado Michael diz que ele regularmente se vê perplexo com decisões difíceis. "Existe uma possibilidade infinita de qual será o próximo trabalho, e isso cria uma essência do caos", diz ele. “Mas também mantém interessante. Você nunca vai passar um turno inteiro já sabendo a resposta para todas as perguntas.
De qualquer forma, Michael diz que ele gosta mais do trabalho do que de seu último emprego, no Walmart, onde costumava ser repreendido pelos clientes. "Eu não tenho pessoas gritando na minha cara", diz ele.
Os moderadores saem, e eu sou apresentado a dois conselheiros no site, incluindo o médico que iniciou o programa de aconselhamento no local aqui. Ambos me pedem para não usar seus nomes verdadeiros. Eles me dizem que fazem o check-in com todos os funcionários todos os dias. Eles dizem que a combinação de serviços no local, uma linha direta e um programa de assistência ao empregado são suficientes para proteger o bem-estar dos trabalhadores.
Quando pergunto sobre os riscos de empreiteiros desenvolverem TEPT, um conselheiro que eu chamarei de Logan me conta sobre um fenómeno psicológico diferente: “crescimento pós-traumático”, um efeito pelo qual algumas vítimas de trauma emergem da experiência se sentindo mais fortes do que antes. O exemplo que ele me dá é o de Malala Yousafzai, a ativista da educação das mulheres, que foi baleada na cabeça quando adolescente pelos talibãs.
"Esse é um evento extremamente traumático que ela experimentou em sua vida", diz Logan. “Parece que ela voltou extremamente resiliente e forte. Ela ganhou um Prêmio Nobel da Paz ... Então, há muitos exemplos de pessoas que passam por momentos difíceis e voltam mais fortes do que antes. ”
O dia termina com uma turnê, na qual eu ando na fábrica e converso com outros funcionários. Fico impressionado com o quão jovens são: quase todo mundo parece ter vinte e poucos ou trinta e poucos anos. Todo o trabalho pára enquanto estou no chão, para garantir que não vejo nenhuma informação privada do usuário do Facebook, e assim os funcionários conversam amigavelmente com seus colegas enquanto eu passo. Tomo nota dos cartazes. Um, da Cognizant, traz o enigmático slogan “empatia em escala”. Outro, tornado famoso pelo diretor de operações do Facebook, Sheryl Sandberg , diz “O que você faria se não estivesse com medo?”.
Isso me faz pensar em Randy e sua arma.
Todos que conheço no local expressam grande cuidado para os funcionários e parecem estar fazendo o melhor que podem por eles, dentro do contexto do sistema em que todos foram conectados. O Facebook se orgulha do fato de pagar aos contratados pelo menos 20% do salário mínimo em todos os sites de revisão de conteúdo, fornecer benefícios de saúde completos e oferecer recursos de saúde mental que excedam em muito o setor de call center.
E, no entanto, quanto mais moderadores falei, mais eu duvidei do uso do modelo de call center para moderação de conteúdo. Este modelo tem sido padrão em grandes empresas de tecnologia - também é usado pelo Twitter e Google e, portanto, pelo YouTube. Além da redução de custos, o benefício da terceirização é que ela permite que as empresas de tecnologia expandam rapidamente seus serviços para novos mercados e idiomas. Mas também confia questões essenciais de fala e segurança a pessoas pagas como se estivessem lidando com chamadas de atendimento ao cliente da Best Buy.
Cada moderador com quem conversei teve grande orgulho em seu trabalho e falou sobre o trabalho com seriedade profunda. Eles desejavam apenas que os funcionários do Facebook pensassem neles como colegas e os tratassem com algo parecido com a igualdade.
"Se não estivéssemos lá fazendo esse trabalho, o Facebook seria tão feio", diz Li. “Estamos vendo todas essas coisas em seu nome. E sim, fazemos algumas chamadas erradas. Mas as pessoas não sabem que há seres humanos por trás desses assentos. ”
Que as pessoas não saibam que existem seres humanos fazendo este trabalho é, naturalmente, por design. O Facebook prefere falar sobre seus avanços na inteligência artificial e manter a perspectiva de que sua dependência de moderadores humanos irá diminuir com o tempo.
Mas, dados os limites da tecnologia e as infinitas variedades da fala humana, esse dia parece estar muito distante. Enquanto isso, o modelo de moderação de conteúdo do call center está prejudicando muitos de seus funcionários. Como socorristas em plataformas com bilhões de usuários, eles estão desempenhando uma função crítica da sociedade civil moderna, enquanto recebem menos da metade do que muitos outros que trabalham nas linhas de frente. Eles fazem o trabalho o máximo que podem - e quando eles saem, um NDA garante que eles recuem ainda mais nas sombras.
Para o Facebook, parece que eles nunca trabalharam lá. Tecnicamente, eles nunca fizeram.
0 Comentários