Um conflito legal emergiu entre o New York Times e a OpenAI, após a descoberta de que a inteligência artificial da empresa, liderada por Sam Altman, estaria utilizando conteúdo do jornal sem a devida atribuição. O caso levanta preocupações sobre a natureza da pesquisa realizada por modelos de IA, que, segundo especialistas, pode ser considerada plágio em vez de uma análise abrangente de fontes. A linguista Emily Bender, uma das principais críticas da IA, argumenta que esses modelos operam como 'papagaios estocásticos', reproduzindo informações sem compreensão ou intenção.
Bender, professora da Universidade de Washington, destaca que a capacidade de gerar texto por parte das IAs não se compara à habilidade humana de raciocínio e adaptação. Em uma recente entrevista ao Financial Times, ela afirmou que os chatbots de IA são, na verdade, 'máquinas de plagiar', e criticou a promessa de que esses sistemas poderiam revolucionar a inteligência. Para ela, a expressão 'inteligência artificial' é um exagero, sugerindo que o termo mais apropriado seria 'automatização'.
Além disso, Bender e Alex Hanna, co-autores do livro 'O Embuste da IA', alertam que os modelos de IA atuais representam um risco, pois estão sob o controle de grandes corporações que podem influenciar setores inteiros da sociedade. A discussão sobre a eficácia e a ética da IA continua a se intensificar, à medida que mais especialistas se manifestam sobre as limitações e os perigos associados a essas tecnologias emergentes.