Home / Tecnologia / Uso de IA em brinquedos pode ser prejudicial às crianças, diz professor

Uso de IA em brinquedos pode ser prejudicial às crianças, diz professor

A Mattel é a maior fabricante de brinquedos do mundo, além de uma das empresas mais tradicionais do segmento. No entanto, isso não significa que ela esteja presa ao passado. Pelo contrário, a companhia tem apostado na inteligência artificial.

Um acordo firmado com a OpenAI, responsável pelo ChatGPT, estabelece o uso da IA em alguns produtos para crianças acima de 13 anos de idade. Não há muitas informações sobre esta parceria, mas a notícia já é suficiente para levantar algumas discussões importantes.

Uso de IA em brinquedos pode ser prejudicial às crianças, diz professor
Primeiro produto da Mattel com IA será lançado ainda em 2025 (Imagem: Ken Wolter/Shutterstock)

Brinquedos estão cada vez mais tecnológicos

  • A Mattel é responsável por diversas inovações que deixaram os brinquedos mais responsivos.
  • Em 1960, por exemplo, a empresa lançou uma boneca capaz de cantar “Eu te amo” e “Vamos brincar de escola”.
  • Produtos cada vez mais interativos foram desenvolvidos nas décadas seguintes.
  • Mas foi só em 2015 que a IA entrou na jogada.
  • A tecnologia foi utilizada para que a Barbie pudesse ouvir e responder às conversas das crianças.
  • Estes dados eram enviados para os servidores da Mattel e pesquisadores de segurança logo mostraram que as bonecas poderiam ser hackeadas, expondo redes domésticas e gravações pessoais.

Leia mais

Logo da OpenAI exibido em um smartphone que está na horizontal
Tecnologia da OpenAI vai permitir o desenvolvimento de brinquedos inteligentes (Imagem: Vitor Miranda/Shutterstock)

Impactos da IA para crianças

Em artigo publicado no portal The Conversation, André McStay, professor da Universidade de Bangor, no País de Gales, afirma que a adição da inteligência artificial ao setor precisa ser discutida. Em especial pela necessidade de criação de recursos de segurança, incluindo limitações de tópicos e respostas pré-roteirizadas para temas sensíveis e quando as conversas saem do curso. Mesmo assim, existem riscos.

Não se pode esperar que as crianças entendam como seus dados são processados. Os pais muitas vezes também não. Os sistemas de consentimento on-line nos incentivam a clicar em “aceitar tudo”, muitas vezes sem entender totalmente o que está sendo compartilhado. Depois, há a intimidade psicológica. Esses brinquedos são projetados para imitar a empatia humana. Se uma criança chega em casa triste e conta à boneca sobre isso, a IA pode consolá-la. A boneca poderia então adaptar conversas futuras de acordo. Mas na verdade não se importa. É fingir, e essa ilusão pode ser poderosa.

André McStay, professor da Universidade de Bangor

Ilustração de inteligência artificial em chip
Tecnologia promete deixar produtos ainda mais interativos (Imagem: dee karen/Shutterstock)

De acordo com o especialista, isso cria laços emocionais unilaterais, com as crianças formando apegos a sistemas que não podem retribuir. À medida que os sistemas de IA aprendem sobre o humor, as preferências e as vulnerabilidades de uma criança, eles também podem criar perfis de dados para acompanhar as crianças até a idade adulta.

Isso significa que estes não são apenas brinquedos, mas sim atores psicológicos. Por conta disso, o professor defende que, embora as leis devam estabelecer limites, padrões detalhados podem ajudar a definir boas práticas no setor. A Mattel foi procurada pelo pesquisador, mas preferiu não se pronunciar sobre o uso de IA nos brinquedos.

O post Uso de IA em brinquedos pode ser prejudicial às crianças, diz professor apareceu primeiro em Olhar Digital.

Fonte: Olhar Digital

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *