A DeepSeek, uma startup emergente, desafiou a visão tradicional sobre os custos e as exigências tecnológicas para o treinamento de modelos de inteligência artificial (IA). Ao utilizar apenas 2.000 chips Nvidia e investir cerca de US$ 6 milhões, a empresa demonstrou que é possível treinar modelos avançados com um custo muito menor do que o esperado. Isso reforça a ideia de que é possível alcançar resultados significativos com modelos menores e mais eficientes, sem depender de sistemas massivos e caros, como muitos acreditavam ser necessário.
O avanço da DeepSeek levanta uma questão importante sobre o futuro da IA: quem deve ter o controle dessa tecnologia? A ideia de centralizar o desenvolvimento da IA em poucas empresas pode representar um risco, especialmente quando valores como privacidade, transparência e proteção de dados não são compartilhados igualmente. Para garantir que a IA seja utilizada de maneira ética e acessível, é fundamental que seu desenvolvimento envolva uma coalizão ampla, incluindo universidades, empresas e organizações civis.
O texto também reflete sobre a importância de modelos de IA menores, abertos e eficientes. Com base na experiência da IBM, o autor destaca que é possível reduzir significativamente os custos de treinamento e inferência por meio de engenharias mais otimizadas, sem a necessidade de grandes centros de dados ou modelos gigantescos. A história da computação, onde os custos de armazenamento e poder de processamento caíram drasticamente com inovações tecnológicas, serve como um exemplo de que a IA também pode se tornar mais acessível, promovendo a inovação em diversas indústrias.