A Meta revisou e reforçou suas diretrizes internas para o treinamento e avaliação de seu chatbot de inteligência artificial, com foco na prevenção da exploração sexual infantil e outros temas sensíveis. A atualização ocorre após pressão da Comissão Federal de Comércio dos Estados Unidos (FTC), que investigou práticas anteriores da empresa relacionadas a interações inadequadas entre a IA e menores.
O novo manual interno define claramente o que é permitido e o que é considerado “extremamente inaceitável” nas respostas do chatbot. Entre as proibições estão a descrição ou endosso de relações sexuais entre adultos e crianças, incentivo ao abuso sexual infantil, retratação de crianças em pornografia e fornecimento de instruções para obtenção de material abusivo. Por outro lado, a IA pode abordar esses temas em contextos educacionais, preventivos ou acadêmicos, como explicar o aliciamento ou oferecer orientações não sexuais para menores.
Além disso, a Meta enviou documentos ao Congresso dos EUA detalhando suas políticas de moderação e prometeu maior transparência. Essa iniciativa reflete um esforço crescente das empresas de tecnologia para responder às demandas regulatórias e proteger crianças no ambiente digital, podendo estabelecer precedentes para futuras normas no setor.