O economista e vendedor do Prêmio Nobel Paul Romer não está tão entusiasmado com a inteligência artificial — e ele também não confia nela.
Em um painel no evento Febraban Tech, o professor do Boston College desafiou o entusiasmo com o qual tem sido tratada a tecnologia. E dá dois conselhos: que os cientistas da computação e as companhias desenvolvedoras dessas tecnologias não sejam ouvidos.
- Leia também: Para grandes bancos, uso de IA é obrigatório e não representa mais ganho competitivo
- Leia também: Meta está criando um novo laboratório de IA para buscar a “superinteligência”
“Os cientistas da computação porque estão interessados nas coisas novas que podem fazer”, disse. “E as empresas porque querem vender o que eles criaram com sistemas de computação. Eles estão vendendo ferramentas nas quais a primeira coisa que você deveria perceber é quando há um erro.” E isso, avalia Romer, não tem acontecido.
Para ele, mecanismos de IA generativa geram respostas aparentemente confiáveis que escondem os erros. “Os modelos não estão melhorando no sentido de chegar a 100% de precisão. Eles estão presos, e nós estamos alimentando eles com cada vez mais dados. Nunca chegaremos ao ponto de precisão”, diz.
A conclusão é que, no fim, tudo é matemático, já que no mundo de códigos, sempre poder haver erros nas centenas de milhares de possíveis combinações de dados.
Essa capacidade das inteligências artificiais em produzir respostas imprecisas, embora convincentes, seria um risco a instituições que buscam a “verdade”, na avaliação de Romer. A ciência (principalmente), o judiciário e o jornalismo seriam algumas delas.
“Historicamente, os humanos criaram instituições, sistemas sociais que encorajam as pessoas, ajudam a progredirem com a verdade. O sistema da ciência que emergiu depois da revolução cientifica é de longe a mais importante”, disse. “O maior risco que enfrentamos agora é perder esse sistema que nos ajudou tão bem nos últimos séculos.”
Embora não descarte que os modelos podem ser úteis, Romer acredita que as pessoas e empresas precisam calcular melhor quão custosos são os erros promovidos pelo uso de inteligência artificial. E esses custos podem ser altos. “Estamos usando software para mover grandes peças de metal como carros e aviões, onde erros são muito custosos.” Ele resume: “Machine learning não é confiável”.
The post “Machine learning não é confiável”, diz vencedor do Nobel, Paul Romer appeared first on InfoMoney.
Fonte: InfoMoney