O rápido desenvolvimento dos grandes modelos de linguagem (LLMs) tem levado especialistas a questionar se a inteligência artificial (IA) já atingiu um nível de consciência comparável ao humano. Projetos como a “máquina dos sonhos”, da Universidade de Sussex, buscam entender como o cérebro humano gera experiências conscientes, enquanto pesquisadores debatem se a IA poderá, em breve, desenvolver autoconsciência. A discussão, antes restrita à ficção científica, ganhou força com a capacidade impressionante de sistemas como ChatGPT e Gemini de simular conversas fluidas e plausíveis, levantando dúvidas sobre os limites entre máquinas e mentes humanas.
Embora alguns defendam que a consciência artificial seja inevitável, outros, como o professor Anil Seth, argumentam que a associação entre inteligência e consciência é um viés humano. Enquanto empresas como a Anthropic e pesquisadores do Google DeepMind investigam a possibilidade de IA consciente, há preocupações sobre a falta de compreensão de como esses sistemas funcionam internamente. A ausência de clareza sobre os mecanismos dos LLMs aumenta os riscos de avanços descontrolados, exigindo maior transparência e segurança no desenvolvimento da tecnologia.
O debate também aborda as implicações éticas e sociais da IA, como a potencial “ilusão de consciência”, que pode distorcer relações humanas e prioridades morais. Especialistas alertam que, mesmo sem consciência real, máquinas persuasivas e humanoides podem influenciar comportamentos e reduzir a empatia entre pessoas. Enquanto alguns veem a IA como o próximo passo evolutivo, outros defendem que a verdadeira consciência pode estar ligada a sistemas biológicos, como organoides cerebrais. O desafio, agora, é equilibrar inovação com reflexão crítica sobre o futuro da humanidade.