Engenharia de software na era da IA: novo jogo, novas regras

Maurício Aniche
Maurício Aniche

Compartilhe

Mais do que acelerar a implementação, a IA mudou o centro de gravidade dos devs: saímos do ato de escrever código e fomos para a capacidade de especificar, verificar, proteger e direcionar sistemas que agora produzem software em nosso nome.

Durante muito tempo, a engenharia de software foi organizada em torno de uma unidade de trabalho bastante clara: pessoas escreviam código, linha por linha, arquivo por arquivo, abstração por abstração.

Ferramentas ajudavam, frameworks aceleravam, bibliotecas evitavam reinvenção, mas o centro de gravidade continuava o mesmo. Agora ele mudou.

Em muitos cenários, o gargalo já não está mais em digitar 200 linhas de código, e sim em formular bem o problema, explicitar restrições, decompor tarefas e verificar se o resultado gerado realmente merece entrar em produção.

Essa mudança não aconteceu porque surgiu um autocomplete dentro da sua IDE que era um pouco melhor do que os autocompletes anteriores.

O salto entre 2025 e 2026

Na verdade, essa mudança aconteceu quando ela ganhou outra escala entre o fim de 2025 e o início de 2026, quando modelos e agentes passaram a combinar geração de código com reasoning mais forte, uso de ferramentas, execução em background e capacidade de operar por mais tempo sem perder o contexto.

O efeito prático é que a fronteira entre "programar" e "orquestrar um sistema que programa" começou a ficar borrada. Em vez de escrever tudo diretamente, times vão cada vez mais trabalhar por meio de especificação, revisão, refinamento e validação.

Da experimentação ao uso em escala

O mais importante é que agentes que escrevem código já passaram da fase do experimento, do teste.

Os exemplos recentes já apontam para uso real em escala: reportagens e posts de mercado falam de dezenas de pontos percentuais de código gerado por IA em empresas como Microsoft e Google, de mais de 1.300 pull requests por semana revisados por humanos, mas sem código humano escrito na Stripe, e de centenas ou milhares de mudanças semanais geradas por agentes internos em empresas como Uber. 

Há exagero em parte do discurso? Sim.

A adoção está acontecendo de maneira muito mais devagar do que os líderes das big techs por trás desses modelos gostam de admitir. Mas está acontecendo. A IA está entrando no fluxo de entrega de software de empresas sérias, com impacto operacional de verdade.

Banner promocional da Alura destacando oferta especial com até 40% de desconto em cursos de tecnologia. A mensagem convida a transformar a carreira na maior escola tech da América Latina, com botão “Aproveite” para acessar a promoção.

A mudança da unidade de trabalho: de implementar para especificar

A nova unidade de trabalho deixou de ser "escrever código".

Antes, muita energia era gasta para traduzir uma ideia em implementação manual; agora, uma boa especificação pode criar uma primeira versão completamente funcional em minutos. Isso não significa que a implementação virou irrelevante.

Significa que o ponto de alavancagem mudou. Quem descreve mal recebe velocidade com ruído. Quem estrutura bem contexto, objetivo, trade-offs e critérios de aceitação consegue multiplicar capacidade.

É por isso que a sensação de quem domina essas ferramentas e observa um fluxo de desenvolvimento totalmente manual já parece estranha.

A produtividade muda de patamar porque o trabalho deixa de ser apenas construção direta e passa a incluir delegação. Só que delegar para IA não é como delegar para uma biblioteca determinística.

É mais próximo de orientar um sistema probabilístico que precisa de contexto, limites, feedback e correção contínua. O trabalho do engenheiro deixa de ser só escrever a solução e passa a incluir desenhar o processo que produz a solução.

“Vibe coding” e o novo teto da prototipação

Essa transição também ajuda a explicar por que alguns casos extremos parecem quase absurdos.

Os exemplos de "vibe coding", de jogos construídos em fluxos altamente improvisados ou até de plataformas inteiras montadas com múltiplos agentes em poucas dezenas de horas mostram que o teto ficou muito mais alto para prototipação e aceleração.

Ao mesmo tempo, eles mostram que velocidade bruta não é sinônimo de engenharia madura. A pergunta relevante não é "a IA consegue gerar algo funcionando agora?", mas "esse jeito de gerar software cria um sistema sustentável ao longo do tempo?". 

O ganho de velocidade e o aumento proporcional do risco

O ganho de velocidade é real, mas ele compra risco se vier sem disciplina

A IA amplifica nossa produtividade, processo de exploração, e throughput de código de uma maneira nunca vista antes. Só que também amplifica código mal pensado, decisões ruins, vulnerabilidades, regressões e confiança excessiva.

Em outras palavras, a ferramenta não elimina os problemas clássicos da engenharia. Em muitos casos, ela os torna mais baratos de produzir e mais caros de detectar depois.

O uso frequente de IA está relacionado a horas economizadas por semana, onboarding mais rápido e maior volume de código produzido.

Por outro lado, surgem alertas sobre aumento de incidentes, crescimento de vulnerabilidades em software open source, experiências em que agentes tomaram ações destrutivas e relatos de grandes empresas endurecendo suas práticas depois de incidentes sérios.

O caso da Amazon

O caso da Amazon é simbólico: se até uma organização desse porte, com engenharia de software no estado-da-arte, precisou apertar revisão e controle depois de falhas relacionadas a mudanças assistidas por IA, então ninguém deveria tratar esse novo cenário com ingenuidade. O ganho existe, mas ele não vem como almoço grátis. Ele vem como troca: mais velocidade em troca de mais responsabilidade operacional.

Esse contraste também aparece na questão de manutenção do código.

Há leituras mais otimistas, como as que dizem que a IA acelera sem necessariamente piorar a capacidade de evoluir o código. Mas também há sinais importantes na direção oposta, inclusive benchmarks mais novos preocupados não apenas com corretude imediata, e sim com sobrevivência do código ao longo de ciclos reais de evolução.

Essa é uma mudança de maturidade muito importante: engenharia de software nunca foi só sobre "funciona agora". Sempre foi sobre "continua funcionando quando o sistema cresce, muda e sofre pressão". Se a IA encurta o tempo entre ideia e entrega, então qualidade deixa de ser uma camada complementar e vira o principal mecanismo de contenção de dano.

Guardrails como parte da nova maneira de trabalhar com IA

Guardrails deixaram de ser recomendação e viraram infraestrutura essencial

Se a IA multiplicou a quantidade de código que escrevemos e entregamos em produção, os guardrails viraram a infraestrutura que permite usar esse throughput sem transformar a operação em loteria.

Code review, análise estática, testes automatizados, testes end-to-end, feature flags, deploy parcial, monitoramento, alertas e rollback rápido já eram boas práticas antes. Agora eles passam a funcionar como freios e sensores de um sistema produtivo muito mais acelerado.

Se a sua empresa não tem guardrails prontos, ela ainda pode fazer uso de AI. Basta diminuir a taxa de mudança, reduzir o raio de explosão, escolher melhor onde aplicar a ferramenta e compensar risco com prudência operacional.

Mesmo com essa redução de throughput, muitos times ainda ficarão mais rápidos do que no "modo de programação totalmente manual". A diferença é que estarão comprando velocidade de um jeito responsável.

Também muda a natureza do trabalho de verificação. A abstração sobe de nível: em vez de apenas escrever código de teste, o engenheiro precisa criar conjuntos de agentes, prompts, ferramentas, integrações e permissões que garantem que o resultado gerado é o esperado.

Nesse novo mundo, julgamento de engenharia, clareza de especificação e desenho de salvaguardas viram habilidades de altíssima alavancagem. Guardrail não é burocracia. Guardrail é o que torna velocidade repetível.

O futuro é a engenharia orientada a agentes

O próximo salto realmente importante acontecerá quando a IA deixa de ser apenas um assistente no editor e passa a operar fora do repositório local, conectada a dados, ferramentas e sinais do sistema real.

O exemplo da Intercom é especialmente eloquente: plugins internos, dezenas de skills, acesso controlado a dados e consoles de produção, fluxos para análise de QA, investigação de flakiness, geração de issues e atualização sistemática de documentação operacional.

Isso muda o que entendemos por ferramenta de desenvolvimento. Não é mais só uma camada que sugere código. É uma infraestrutura capaz de consumir sinais do sistema real, executar investigações e participar de processos inteiros de engenharia.

Esse movimento tem duas implicações profundas.

  • A primeira é técnica: engenharia passa a exigir desenho de ferramentas internas, permissão, observabilidade, trilhas de auditoria e workflows confiáveis para agentes.
  • A segunda é organizacional: o valor deixa de estar apenas em quem usa bem uma interface pronta e passa também por quem cria o ambiente em que agentes conseguem operar com segurança e produzir resultado consistente.

Em outras palavras, a fronteira entre plataforma de desenvolvimento, plataforma de dados, qualidade e operações fica ainda mais integrada.

O que faz um dev agora?

A pergunta "o que um dev faz agora?", que aparece tanto nas redes sociais, parece assustadora, pois nos dá a entender que o trabalho vai desaparecer. Mas não, ele não desaparece; ele sobe de camada. 

O engenheiro mais valioso tende a ser cada vez mais "product-minded" (ou seja, foca também no produto), capaz de entender o problema de negócio, o comportamento do usuário, as restrições técnicas e os riscos de operação.

Ao mesmo tempo, a parte especificamente "engenharia" não some. Ela muda de foco. Aparecem com mais força papéis como guardião da qualidade, arquiteto de agentes, designer de sistemas com forte observabilidade, e a capacidade de transformar modelos em capacidade operacional real.

Em vez de menos engenharia, o que aparece é uma engenharia diferente: menos centrada em produção manual de código e mais centrada em direção, validação e desenho de sistemas sociotécnicos.

O novo valor da engenharia e por onde começar

A IA não elimina a necessidade de engenheiros. Ela reprecifica quais contribuições são mais valiosas. Se tarefas genéricas e pouco diferenciadas ficarem cada vez mais baratas de produzir, então o prêmio econômico migra para quem decide melhor o que construir, desenha sistemas mais robustos, integra modelos ao ambiente real, protege produção, reduz risco e transforma velocidade em resultado de negócio.

É nesse contexto que ideias como "product-minded engineer" e "product-minded architect" ganham força. Não porque engenharia virou gestão de produto, mas porque throughput sem direção é desperdício acelerado.

Se antes um time conseguia construir devagar a coisa errada, agora ele pode construir muito rápido a coisa errada, com mais automação e em mais frentes simultâneas. Isso torna mais valiosa a capacidade de priorização, comunicação, leitura de contexto, modelagem de trade-offs e validação rápida.

Ao mesmo tempo, é importante não trocar um hype por outro. Também existe um risco claro de perda de foco, de times investindo energia demais em "side quests" tecnicamente fascinantes, mas pouco conectadas à missão principal da empresa, e de narrativas apressadas como "o SaaS morreu".

Há sinais reais de mudança de interface, de workflows mais conversacionais e de software gerado sob demanda para resolver necessidades internas. Mas sistemas de registro, dados, governança, integração e operação continuam existindo.

O futuro mais plausível não é o desaparecimento súbito do software tradicional. É uma recomposição do stack, com mais geração dinâmica na borda e mais responsabilidade arquitetural no núcleo.

Adoção incremental e foco em aprendizado

A pior resposta possível neste momento é tratar IA como buzzword cosmética. A segunda pior é apostar em adoção irrestrita sem preparo. Entre esses extremos, há um caminho mais útil: começar por casos concretos, medir impacto real, investir em treinamento, formar pessoas com profundidade prática, explicitar regras de uso e fortalecer guardrails antes de aumentar demais a velocidade.

Em muitos contextos, isso significa começar com um grupo mais avançado, transformar esse núcleo em referência prática e depois ampliar a adoção com mais segurança. Ferramenta importa, preço importa, ROI importa, e quase nenhuma dessas decisões vem com resposta óbvia de antemão.

O caminho mais maduro, hoje, não parece nem big bang nem negação. Parece adoção incremental com aprendizado explícito.

Conclusão

Também vale admitir uma verdade simples: ninguém tem bola de cristal. Há muita convicção performática circulando no mercado e pouca humildade epistemológica. Nem toda promessa vai se confirmar, nem toda limitação atual vai durar.

Mas já existe evidência suficiente para uma conclusão pragmática: a engenharia de software mudou, porque a relação entre intenção, implementação e validação mudou. A empresa que aprender a usar isso com foco, disciplina e senso de produto terá uma vantagem importante. A empresa que ignorar o movimento, ou que adotá-lo sem proteção, provavelmente aprenderá da pior forma.

No fim, a IA não substitui pessoas. Ela multiplica capacidade, inclusive a capacidade de acertar e a capacidade de errar. É justamente por isso que a parte humana fica mais importante, e não menos: entender o problema certo, escolher o nível certo de autonomia, construir os guardrails certos e responder pelos efeitos do que colocamos em produção.

O código continua existindo. Mas a engenharia, agora, começa muito antes dele e termina muito depois.

Se antes a pergunta era "quem consegue construir?", daqui para frente ela será cada vez mais "quem consegue construir com direção, qualidade e consequência?". É nessa resposta que a nova engenharia de software vai se diferenciar.

Como acompanhar as rápidas mudanças?

A tecnologia está mudando rápido demais para depender apenas do que já sabemos. Modelos como o GPT-5 e agentes autônomos estão alterando o jeito de trabalhar, criar software e tomar decisões. Quem acompanha essa mudança consegue enxergar oportunidades antes dos outros.

Nesse novo cenário, aprender IA deixou de ser diferencial e virou necessidade. Entender como esses sistemas funcionam, como especificar, validar e integrar modelos no dia a dia é o que separa quem se adapta de quem fica preso no passado.

Se você quer evoluir junto com esse movimento, a Formação em Inteligência Artificial para Desenvolvedores da Alura é o próximo passo. Ela te coloca no ritmo da tecnologia atual e te prepara para trabalhar com IA de forma prática, segura e estratégica.

Referências

- Anthropic. Introducing Claude Opus 4.5."

- OpenAI. Introducing GPT-5.3-Codex.

- Sherin Shibu. AI Is Already Writing About 30% of Code at Microsoft and Google. Here’s What It Means for Software Engineers.

- Stripe. "Over 1,300 Stripe pull requests merged each week are completely minion-produced, human-reviewed, but contain no human-written code." [post no X]

- Jonas Birmé. "I Directed a Streaming Service in 36 Hours. My Team Was Six AI Agents."

- Caleb Leak. "I Taught My Dog to Vibe Code Games."

- The Pragmatic Summit. "Data vs Hype: How Orgs Actually Win with AI."

- Dave Farley. "Is AI creating a maintenance nightmare? We actually measured it." [post no LinkedIn]

- John P. Mello Jr. "Open-Source Vulnerabilities Double as AI Coding Grows."

- Summer Yue. "Nothing humbles you like telling your OpenClaw 'confirm before acting' and watching it speedrun deleting your inbox." [post no X]

- Addy Osmani. "Every abstraction shift in software history made devs more productive by raising the level of intent." [post no X]

- Craig Hale. "Amazon is making even senior engineers get code signed off following multiple recent outages."

- Brian Scanlan. "We've been building an internal Claude Code plugin system at Intercom with 13 plugins, 100+ skills, and hooks that turn Claude into a full-stack engineering platform." [thread no X]

- Gergely Orosz. "The Product-Minded Software Engineer."

- Priyanka Vergadia. "BREAKING: Alibaba just proved that AI coding isn't taking your job, it's just writing the legacy code that will keep you employed fixing it for the next decade." [post no X]

Maurício Aniche
Maurício Aniche

Maurício é o CTO e um dos co-fundadores da Alura. Maurício teve passagens pela Uber, Adyen, e Locaweb, possui mestrado e doutorado em Ciência da Computação e atuou como pesquisador em engenharia de software na TU Delft, na Holanda. Sua pesquisa focou em qualidade de software, e depois inteligência artificial. Maurício é autor do livro Effective Software Testing (Manning) e autor de diversos livros pela Casa do Código.

Veja outros artigos sobre Inteligência Artificial