Brasileiros ajudam a treinar IA para evitar temas como ‘beber até cair’ e nazismo

Brasileiros Treinam Inteligência Artificial para Abordar Temas Sensíveis
Profissionais da área emação a IA
No cenário atual da tecnologia, um grupo de brasileiros está dedicando seu tempo a treinar inteligência artificial (IA) para responder de forma adequada a questões complexas e sensíveis. Entre eles, estão a designer de conteúdo Bárbara Rainov e o jornalista Marcos*, que atuam na análise de respostas geradas por sistemas de IA, com foco em aumentar a segurança e a precisão das informações fornecidas.
Metodologia de trabalho
Contratados pela Outlier, uma intermediária que conecta colaboradores a grandes empresas de tecnologia, Bárbara e Marcos são responsáveis por criar e avaliar "prompts", além de categorizar as respostas que a IA gera. O trabalho deles é crucial para evitar que a inteligência artificial forneça informações perigosas ou imprecisas.
Bárbara descreve sua experiência, afirmando que precisa avaliar não apenas a veracidade das informações, mas também o tratamento de temas críticos, como nazismo. "Eu tinha que orientar a IA a focar na história, evitando juízos de valor", diz a designer.
Abordando temas sensíveis
Marcos relata que também é requisitado para trabalhar com questões delicadas, relacionadas a grupos historicamente marginalizados. Por exemplo, se um usuário perguntar como causar dano a alguém, a IA deve recusar-se a responder de forma direta. A função de Marcos é encontrar maneiras indiretas de abordar tais questões, ampliando as informações que a IA processa e garantindo respostas mais seguras.
Riscos de desinformação
Os desafios não são pequenos. Exemplos recentes mostram que a IA pode fornecer respostas alarmantes ou completamente erradas. A inteligência artificial do Google, por exemplo, sugeriu que humanos deveriam ingerir pedras pequenas e, em outro contexto, fez comentários enganosos sobre as urnas eletrônicas nas eleições brasileiras de 2022.
De acordo com a Scale AI, empresa que controla a Outlier, o treinamento de IA é fundamental para prevenir conteúdo prejudicial. A companhia se compromete a fornecer suporte psicológico aos colaboradores que lidam com temas sensíveis, embora não tenha revelado quantos trabalhadores estão envolvidos em suas operações globais.
Aumento de preocupações legais e emocionais
Nos Estados Unidos, um grupo de colaboradores da Scale AI está processando a empresa e a Outlier, alegando que suas condições de trabalho não garantiram a proteção necessária para a saúde mental deles, enfrentando questões perturbadoras regularmente. Eles enfatizam que o trabalho impôs um "fardo emocional" sem as devidas proteções.
Entretanto, os brasileiros que atuam nesse segmento afirmam que foram consultados previamente sobre sua disposição para lidar com tais questões e que não enfrentaram gatilhos emocionais significativos.
A importância do toque humano
Apesar de serem chamados de inteligência artificial, esses sistemas dependem de intervenções humanas para aprimorar suas respostas. Especialistas afirmam que a tecnologia ainda é incipiente e que o conhecimento que a IA possui é derivado do trabalho humano. Thais Gouveia, outra colaboradora do setor, destaca a necessidade de cultivar um "toque humano" nas interações, evitando que a IA se confunda com a condição humana.
Remuneração e condições de trabalho
Os profissionais entrevistados trabalham remotamente e são pagos em dólar, com uma média de remuneração de 10 dólares por hora. Temas sensíveis podem gerar uma paga maior, entre 18 e 19 dólares. Contudo, há relatos de discrepâncias salariais e incertezas quanto à regularidade das tarefas.
A maioria dos colaboradores foi recrutada via LinkedIn, e muitos apontam desconfianças relacionadas a atrasos nos pagamentos. Eles também assinam acordos de confidencialidade sobre o conteúdo com o qual lidam.
Riscos associados à IA
Um Relatório Internacional de Segurança em IA destaca preocupações sobre o uso indevido da tecnologia para manipulação e disseminação de desinformação, criação de armas químicas e decisões autônomas sem supervisão humana. O documento, publicado com colaboração de especialistas internacionais, recomenda aumentar a transparência nos modelos de IA como um modo de mitigar riscos.
O professor André Ponce, que participou da elaboração do relatório, enfatiza a necessidade de esclarecer como os sistemas de IA chegam a suas conclusões, já que muitos deles são considerados "caixas-pretas".
*Nome foi alterado a pedido do entrevistado.
Com informações de: G1