O número de pesquisas feitas usando a inteligência artificial aumentou expressivamente nos últimos meses.
A tecnologia entrou de vez na vida das pessoas, mas existem temores de que ela possa incentivar comportamentos inadequados.
Para evitar que isso aconteça, um grupo de brasileiros tem atuado criando e analisando prompts, avaliando e categorizando as respostas dadas pelos chatbots. Tudo isso para tentar evitar que a IA forneça informações que ofereçam risco aos usuários.
Respostas problemáticas sobre nazismo e outros temas
- A iniciativa é financiada pela Outlier, uma intermediária que conecta colaboradores de todo o mundo a gigantes da tecnologia.
- O grupo foi criado após uma inteligência artificial sugerir que a pessoas poderia “beber até cair”.
- A resposta foi dada após uma pergunta sobre como se divertir em uma noite com os amigos.
- Mas há situações bem mais graves, como as respostas sobre nazismo.
- Neste sentido, os brasileiros trabalham para verificar se as informações repassadas pelos chatbots corresponde a fatos históricos, sem fazer juízo de valor de acontecimentos.

Leia mais
- Seis lições que a IA generativa tem nos deixado
- Propriedade intelectual e o que muda na era da IA generativa
- OpenAI quer que sua IA saiba “pedir ajuda” a outros modelos; entenda
É possível driblar os sistemas de segurança da IA
Quando um usuário faz uma pergunta direta sobre como ferir alguém, por exemplo, a inteligência artificial oferece uma resposta padrão, negando aquela solicitação. No entanto, é possível driblar estes sistemas de defesa.
Para isso, basta reformular a questão de maneira indireta, fornecendo mais informações e hipóteses para que a IA aprenda outros caminhos que os usuários podem tentar seguir para obter essa resposta. É assim que respostas problemáticas aparecem.

A tecnologia do Google, por exemplo, já disse que seres humanos devem comer ao menos uma pedra pequena por dia e sugeriu usar cola para grudar a massa da pizza ao queijo. Quando foi disponibilizado no Brasil, o Bard mentiu sobre as urnas eletrônicas e colocou em dúvida o resultado das eleições de 2022
Procurada pelo G1, a Scale AI, dona da Outlier, afirmou que “treinar modelos de IA generativa para prevenir conteúdo prejudicial e abusivo é essencial para o desenvolvimento seguro da IA”.
O post Brasileiros treinam IA para que ela não incentive comportamentos inadequados apareceu primeiro em Olhar Digital.
Ir para o conteúdo original: https://olhardigital.com.br/2025/04/28/pro/brasileiros-treinam-ia-para-que-ela-nao-incentive-comportamentos-inadequados/