Inteligência artificial e games - um ensaio

Olá. Eu estou decepcionado, bravo, revoltado e com vários outros sentimentos ruins em relação às Inteligências Artificiais (IAs). A coisa é tão pra baixo e tão extensa que estou até com dificuldade de organizar as ideias e fazer as ligações entre elas.

Então segue aqui um rascunho mais ou menos organizado pra ver se sai alguma coisa razoável e, depois, eu tento um texto mais conciso pra por na revista, que TALVEZ saia em janeiro.


Antes de começar: como eu vejo o uso de inteligência artificial como professor

Eu já escrevi um texto inteiro sobre isso nesta postagem e reitero dois pontos importantes: em primeiro lugar, o atual sistema de avaliação favorece uma relação utilitarista com o saber, ou seja, os alunos não trabalham para adquirir novos conhecimentos ou se formarem enquanto pessoas, mas realizam as atividades escolares simplesmente pela nota; e, em segundo, qual a diferença entre o aluno que copia um texto da IA e o estudante dos anos 1980 e 1990 que simplesmente copiava seus trabalhos das enciclopédias?

Dito isso, em razão dessas questões, que eu gostaria de classificar como estruturais do sistema de ensino, ainda não tenho uma posição clara sobre o uso de IAs na educação. Mas a minha atual tendência é pensar que quem não dominar quaisquer novas tecnologias vai ficar para trás de alguma maneira e, ainda, que pessoas em fase de formação têm dificuldades em encontrar os erros ou lacunas presentes nos textos gerados por este tipo de tecnologia.

Complexo.

Como eu vejo a Inteligência Artificial em escala generalista

A criação e uso de Inteligência Artificial (IA) nada mais é do que a tentativa de fazer os computadores responderem de maneira semelhante a humanos quando colocados para resolver tarefas que envolvam raciocínio, aprendizado e adaptação.

O primeiro problema que aparece, e tem até um paralelo histórico, é que a IA esta sendo a aposta de diversas empresas e analistas como o fator decisivo na passagem da Terceira Revolução Industrial, que também é chamada de Era da Informação, para a Quarta Revolução Industrial ou somente Indústria 4.0.

A Terceira Revolução Industrial pode ser caracterizada como o período que começa após a II Guerra Mundial, mais especificamente, a partir de 1947 com a criação do transistor, que permitiu o desenvolvimento de processadores de computador e, depois, o surgimento de uma série de aplicações econômicas e novas áreas do conhecimento, como informática, robótica e química fina.

Em razão disso, no início do século XXI tivemos mudanças tão intensas em comparação com o período de criação do primeiro processador de computador, que passamos a classificar o período em que vivemos Indústria 4.0.

Faz sentido.

Só que, como estamos vivendo um período de transição, fica difícil identificar o fator determinante para a transformação que está em andamento e que não é causada por uma única mudança ou tecnologia.

Apostar na IA como ator principal da passagem para a indústria 4.0, logo depois de falhar miseravelmente fazendo a mesma coisa com a Internet das Coisas (IoT - Internet of Things), é, no mínimo, apressado. Mas as pessoas que tomam decisões nas empresas decidiram que tudo tem que ter IA e ela passou a ser a cura para todos os males de qualquer área da tecnologia.

Temos uma bolha. Tudo relacionado a inteligência artificial está ganhando mais atenção e custando muito mais caro do que deveria. As empresas de IA fazem investimentos bilionários apostando que elas conseguirão monopólio no futuro, as ações sobem, mas o valor real é uma fração ínfima de todos esses valores.

Para deixar a coisa clara usando um economiquês barato: basta dizer que uma empresa, produto ou serviço vai ser feito utilizando Inteligência Artificial, ou simplesmente deixará que os consumidores usem este recurso, que já se ganha a confiança do mercado e investidores começam a colocar seu dinheiro ali.

Felizmente, já tem analistas apontando pra isso e parece que essa febre vai diminuir um pouco na economia. Mas, infelizmente, na área de TI, parece que só vai piorar.

Qualquer busca online agora já mostra o que a Inteligência Artificial da empresa tem a dizer a respeito, principalmente quando você não quer. Daí, quando você quer que a IA gere um pequeno texto sobre um assunto, ela não faz e você tem que abrir o app ou página específica do Gemini, Copilot ou Chat GPT. Sua agenda online agora tem Inteligência Artificial. Você abre um vídeo em inglês e, sem que você configure nada, o áudio já está dublado por IA.

Mas não tem uma porcaria de uma inteligência artificial que gerencie uma simples lista de compras com a mesma praticidade que uma checklist do Google Keep ou um papel feito a mão mesmo. No atual estado, meio do segundo semestre de 2025, as IAs têm mais me atrapalhado que ajudado.

Na minha opinião, a indústria de software elevou a enésima potência uma coisa errada que já faz há bastante tempo: entrega de produtos inacabados. Afinal de contas, depois é só fazer um patch, não é mesmo?!

Como eu vejo o uso de IA na área de TI (Informática)


Inicialmente, para melhorar o desempenho dos computadores e consoles, a IA está sendo empregada para aumentar a resolução dos jogos - upscaling -, além de gerar imagens para aumentar a quantidade de quadros por segundo (fps, frames per second) - frame generation. Nestes dois processos, o computador que estiver rodando o jogo consegue resultados melhores do que o seu processamento bruto permitiria.

Teoricamente isso faria com que as peças dos computadores e videogames fossem usadas com menos intensidade, prolongando a vida útil do aparelho.

A mesma coisa vale para o ray tracing, tecnologia exclusiva da Nvidia para a iluminação de espaços em 3 dimensões.

Mas isso tudo não vem sem custo: é necessário que o hardware tenha uma ou mais partes exclusivamente dedicadas para o processamento da Inteligência Artificial que vai fazer isso, então os preços estão aumentando.

Só que piora: programas que já vem instalados e rodam em segundo plano, a coleta de dados e uma inteligência artificial funcionando 100% do tempo em todos os computadores consomem recursos como velocidade de conexão, memória RAM e processamento, deixando todas as máquinas mais lentas. E se elas não tiverem o hardware dedicado para o funcionamento de IAs, a velocidade desses computadores, que já não são tão novos, diminui mais ainda.

E continua piorando: o uso de IA no hardware doméstico está migrando do processamento na nuvem, que depende de servidores, data centers e da internet, para o processamento local, no seu PC, tornando seu computador mais eficiente, mais rápido para tarefas de IA e capaz de oferecer novos recursos. Para isso estão sendo adicionado nos processadores de computador uma nova parte: a NPU - Neural Processing Unit ou, em português, Unidade de Processamento Neural. 

Afinal de contas, até o atual momento, são as empresas que gastam o próprio dinheiro para montar servidores, data centers, pagar a energia elétrica e o resfriamento de todas as máquinas para que as pessoas possam perguntar sobre qualquer coisa que antes elas teriam que pesquisar.

Nada mais justo que tirar esse gasto das empresas e colocar no computador das pessoas, passando para elas todos esses gastos e, ao mesmo tempo, cobrar mais pelos processadores.

Tudo isso pra que os jogos fiquem piores graficamente do que Ryze: Son of Rome (2013).

Como eu vejo o uso de IA em escala nacional

Data Centers: complexos prediais com uma quantidade obscena de servidores para processar todas as tarefas realizadas por Inteligências Artificiais na internet. E como a quantidade de computadores é absurda, o consumo de energia elétrica, para tudo funcionar, e de água, para resfriar, também é colossal.

Só levando em consideração os quatro maiores, teremos:

1. Scala AI City - em Eldorado do Sul (RS): Terá potência inicial de 1800 megawatts, que equivale a, aproximadamente, 7,2 milhões de residências. Mas o consumo pode aumentar para 5000 megawatts até 2033. Me sinto obrigado a dizer que é pretendido usar refrigeração a óleo para consumir menos água.

2. Rio AI City - no Rio de Janeiro (RJ): será instalado no bairro de Jacarepaguá e terá potência inicial de 1500 megawatts, equivalente a 6 milhões de casas, e poderá ser ampliada até 3200 megawatts.

3 e 4. Maringá (PR) e Uberlândia (MG): serão instalados dois complexos com 400 megawatts cada. No Paraná, inclusive, o prefeito que estabelecer uma área de livre comércio para que a empresa importe os equipamentos sem que seja pago qualquer imposto.

Juntos, estes quatro complexos, no início de sua operação, vão consumir 4100 megawatts, que é literalmente mais energia elétrica que a gerada pela hidrelétrica de Jiral, a quarta maior do Brasil. E graças ao Sistema Interligado Nacional, é possível que ocorra aumento no custo da luz das cidades do entorno.

Tem também o consumo de água, que pode faltar nas proximidades e, muito provavelmente, vai ficar mais cara.

Além de que, pra comprar peças de computador num número colossal, o que você acha que vai acontecer? A demanda por hardware vai aumentar e, consequentemente, o preço também. Provavelmente no mundo inteiro.

E eu não estou sendo dramático: isso já aconteceu com placas de vídeo quando elas começaram a ser usadas para minerar cripto moedas.

Com impactos ambientais na geração de eletricidade, alto consumo de água e fazendo os preços subirem para todo mundo comprar hardware, eu não consigo ver isso com olhos positivos.

Como eu vejo isso como consumidor (talvez um olhar gamer)

Chegamos em um momento de estagnação da tecnologia: em determinados aspectos chave, não tem como ela melhorar ou não existe motivo para ela melhorar.

Eu acredito que isso pode ser ilustrado por aluns pontos interessantes.

(1) não será possível continuar reduzindo o tamanho dos microchips muito além do que já foi feito, então serão necessárias tecnologias bem diferentes para que os processadores se tornem mais capazes; 

(2) até que resolução e taxa de atualização os monitores e placas de vídeo precisam chegar para que as pessoas não sintam mais a diferença? É sério: estamos chegando no limite da percepção humana; e

(3) um computador ou celular utilitário tem o desempenho necessário para durar um pouco mais de 10 anos. É sério: se não fossem tecnologias empurradas forçadamente para os usuários, dificilmente muitas pessoas trocariam de computador. Pra ver vídeos, ouvir música, jogar umas velharias, uns indies e usar um pacote Office qualquer não precisa de muita coisa.

Minha esposa continua usando um notebook que eu comprei em 2014 sem nenhum problema e de vez em quando eu ainda pego ele pra resolver uns pepinos do trabalho. Minha mãe estava 13 anos com um notebook que, até então, não tinha dado nenhum problema e deu conta de resolver tudo que ela precisou. E no meu trabalho é difícil ver alguém com notebook nascido depois da pandemia.

Então nós chegamos num ponto que é preciso gastar uma quantidade de dinheiro obscena para ter um ganho de desempenho marginal, pífio, irrelevante na maioria dos casos.

Se você quiser jogar todos os jogos lançados até agora com resolução Full HD, basta montar um máquina custando entre 4500 e 5 mil reais. Agora, se você quiser fazer a mesma coisa em 4k, morrem mais de 10 mil reais tranquilamente.

Agora, com Inteligência Artificial, tudo vai ficar mais caro: os consoles, os celulares, as peças de computador e energia elétrica e a água. Já estamos vendo isso nos videogames, que no final da geração, pela primeira vez, estão mais caros.

E é isso.

Se você gostou, acompanhe o Miss Play também nas outras redes!

X-Twitter
Instagram
YouTube

E baixe o número piloto da revista AQUI!

Comentários

Postagens mais visitadas deste blog

Assassin's Creed IV: Black Flag - meu 2º jogo da Ubisoft

A guerra dos consoles acabou e quem perdeu fomos nozes

Visão de um consumidor sobre o Game Pass