A Meta planeja adotar sistemas de inteligência artificial (IA) para substituir equipes responsáveis pela supervisão de conteúdos considerados de risco nas redes sociais e .
Conforme documentos internos obtidos pela emissora NPR, a automação vai ar a ser utilizada em áreas sensíveis. Entre elas, publicações relacionadas aos chamados “discurso de ódio, desinformação e violência”.
Segundo os planos, a Meta quer que a IA responda por até 90% das revisões desses conteúdos. O objetivo é acelerar o lançamento de atualizações e novas versões de aplicativos.
Dessa forma, os processos que antes dependiam da análise de funcionários ariam a ter aprovação de maneira automatizada. Além disso, haveria a otimização do tempo de resposta da empresa ao mercado.

A empresa não comentou oficialmente as informações divulgadas pela NPR. Conforme relatos internos, a iniciativa gerou apreensão entre parte dos funcionários, especialmente quanto à capacidade da automação de captar certos contextos, como regras de publicação e funcionamento dos algoritmos.
Um ex-executivo da Meta, sob anonimato, declarou à NPR que, “na medida em que esse processo significa, funcionalmente, mais lançamentos em menos tempo, com menos rigor na análise e menos oposição, isso significa que você está criando riscos maiores”. Na visão do homem, há consequências negativas em alterações nos produtos que podem gerar impactos reais antes de uma revisão humana.
Com a mudança, a inteligência artificial faria revisão dos produtos baseada em informações preenchidas por funcionários em formulários prévios. A análise dos riscos e a aprovação ou não dos serviços ariam a ser instantâneas, segundo a NPR.
Fonte: revistaoeste