<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Arquivos Inteligência Artificial - Diego Nogare</title>
	<atom:link href="https://diegonogare.net/categorias/inteligencia-artificial/feed/" rel="self" type="application/rss+xml" />
	<link>https://diegonogare.net/categorias/inteligencia-artificial/</link>
	<description>Consultor Executivo de IA &#38; ML</description>
	<lastBuildDate>Wed, 22 Apr 2026 01:59:33 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/06/cropped-cropped-DN-Black-300x300-1.png?fit=32%2C32&#038;ssl=1</url>
	<title>Arquivos Inteligência Artificial - Diego Nogare</title>
	<link>https://diegonogare.net/categorias/inteligencia-artificial/</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">247556142</site>	<item>
		<title>A importância das certificações oficiais para validar expertise em IA</title>
		<link>https://diegonogare.net/2026/04/a-importancia-das-certificacoes-oficiais-para-validar-expertise-em-ia/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Wed, 22 Apr 2026 01:59:33 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Agentes]]></category>
		<category><![CDATA[AI Business Professional]]></category>
		<category><![CDATA[AI Transformation Leader]]></category>
		<category><![CDATA[certificacao]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[Microsoft]]></category>
		<category><![CDATA[Microsoft Certification]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4677</guid>

					<description><![CDATA[<p>O crescimento absurdo das ferramentas de IA nos últimos anos criou um fenômeno bizarro curioso nas redes sociais. Diariamente, surgem novos influenciadores prometendo o domínio de ferramentas complexas em poucas horas de conteúdo. Vendem milagres sem nunca terem colocado nada em produção! O que não contam é que o desenvolvimento de soluções de Machine Learning...</p>
<p>O post <a href="https://diegonogare.net/2026/04/a-importancia-das-certificacoes-oficiais-para-validar-expertise-em-ia/">A importância das certificações oficiais para validar expertise em IA</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p data-path-to-node="8">O crescimento absurdo das ferramentas de IA nos últimos anos criou um fenômeno <del>bizarro</del> curioso nas redes sociais. Diariamente, surgem novos influenciadores prometendo o domínio de ferramentas complexas em poucas horas de conteúdo. Vendem milagres sem nunca terem colocado nada em produção!</p>
<p data-path-to-node="9">O que não contam é que o desenvolvimento de soluções de <b data-path-to-node="9" data-index-in-node="45">Machine Learning</b> e <b data-path-to-node="9" data-index-in-node="64">IA Generativa</b> exige um entendimento profundo de fundamentos técnicos. Vender &#8220;milagres tecnológicos&#8221; sem nunca ter implementado uma solução real em ambiente de produção prejudica o setor. Mas o que vale pra essa galera é o hype, e eles estão surfando essa onda e ganhando dinheiro. Isso porque muitos desses cursos superficiais custam pequenas fortunas e entregam pouco valor prático para os negócios.</p>
<p data-path-to-node="9">Em contrapartida, as próprias criadoras das tecnologias disponibilizam recursos de altíssima qualidade de forma gratuita. Só que isso não é tão divulgado. Empresas líderes como a <b data-path-to-node="11" data-index-in-node="24">Microsoft</b> e a <b data-path-to-node="11" data-index-in-node="38">Anthropic</b> investem pesado em documentação e trilhas de aprendizado acessíveis. Além disso, plataformas como a <b data-path-to-node="11" data-index-in-node="148">DeepLearning.AI</b> oferecem cursos ministrados por ícones da área, como Andrew Ng. O grande diferencial desses treinamentos é a conexão direta com as necessidades reais das arquiteturas de software modernas. Eles não ensinam apenas a usar uma ferramenta, mas explicam a lógica por trás dos modelos.</p>
<h3 data-path-to-node="9">E como validar isso?</h3>
<p data-path-to-node="13">Para o profissional que busca seriedade, o próximo passo lógico após o estudo gratuito é a <b data-path-to-node="13" data-index-in-node="91">certificação</b>. O exame de certificação (as vezes gratuitos com ondas de promoção das empresas) serve como uma auditoria externa do seu conhecimento, garantindo que você compreende as nuances da tecnologia. O legal é que nós fazemos o exame aqui no Brasil, que é igual ao do Charlie nos Estados Unidos, o do Manoel em Cabo Verde ou do Franz na Alemanhã. Temos uma validação global do nosso entendimento sobre aquele assunto.</p>
<p data-path-to-node="14">Recentemente, a Microsoft lançou duas credenciais focadas em liderança e implementação de agentes de IA. A primeira é a certificação de <a href="https://learn.microsoft.com/pt-br/credentials/certifications/ai-transformation-leader/?practice-assessment-type=certification" target="_blank" rel="noopener"><b data-path-to-node="14" data-index-in-node="136">AI Transformation Leader</b></a>, voltada para quem gerencia a mudança tecnológica nas organizações. A segunda é a de <a href="https://learn.microsoft.com/pt-br/credentials/certifications/ai-business-professional/?practice-assessment-type=certification" target="_blank" rel="noopener"><b data-path-to-node="15" data-index-in-node="17">AI Business Professional</b></a>, que foca em como aplicar a IA para gerar valor de negócio real. Ambas as provas são fundamentais para balizar o mercado e estabelecer um padrão de qualidade aceitável.</p>
<h3 data-path-to-node="14">Ainda não está satisfeito?</h3>
<p data-path-to-node="16">Instituições renomadas como <b data-path-to-node="16" data-index-in-node="28">Harvard</b> e <b data-path-to-node="16" data-index-in-node="38">MIT</b> também democratizaram o acesso aos seus laboratórios virtuais. Essas universidades oferecem cursos que cobrem desde a ética na IA até o desenvolvimento de redes neurais complexas. O investimento em educação deve ser direcionado para fontes que possuem autoridade científica comprovada. O domínio técnico não vem de atalhos, mas sim de uma base sólida construída com ferramentas oficiais e prática constante.</p>
<p data-path-to-node="18">Desenvolvedores e arquitetos de soluções precisam ignorar as promessas de ganhos fáceis e focar na construção de um portfólio robusto. As certificações funcionam como um selo de qualidade que abre portas em grandes corporações globais. Além disso, o processo de preparação para uma prova de certificação força o estudante a cobrir lacunas de conhecimento. Frequentemente, descobrimos funcionalidades que ignoraríamos em um aprendizado puramente informal e autodidata.</p>
<p data-path-to-node="18"><em><strong>E ai, qual vai ser o seu próximo passo?!</strong></em></p>
<blockquote>
<p data-path-to-node="18">A imagem de capa eu fiz no Canva, com os 2 emblemas destas novas provas de AI da Microsoft. Eu fiz os exames e fui aprovado nas duas.</p>
</blockquote>
<p>O post <a href="https://diegonogare.net/2026/04/a-importancia-das-certificacoes-oficiais-para-validar-expertise-em-ia/">A importância das certificações oficiais para validar expertise em IA</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4677</post-id>	</item>
		<item>
		<title>O que deve ter no seu projeto de Agentes de IA</title>
		<link>https://diegonogare.net/2026/04/o-que-deve-ter-no-seu-projeto-de-agentes-de-ia/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Thu, 02 Apr 2026 11:20:18 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Agentes de IA]]></category>
		<category><![CDATA[AgentOps]]></category>
		<category><![CDATA[Automação de Codificação]]></category>
		<category><![CDATA[Governança de IA]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4667</guid>

					<description><![CDATA[<p>É saudável, e até intelectualmente respeitoso, começar este texto dizendo que você não precisa usar Agentes de IA para tudo. Mas, para o que realmente faz sentido, ai sim os projetos de AI Agents trazem resultados muito satisfatórios. Desde 2025 estamos enfrentando uma enxurrada de direcionamento de projetos para Agentes de IA. E olhando para...</p>
<p>O post <a href="https://diegonogare.net/2026/04/o-que-deve-ter-no-seu-projeto-de-agentes-de-ia/">O que deve ter no seu projeto de Agentes de IA</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>É saudável, e até intelectualmente respeitoso, começar este texto dizendo que você não precisa usar Agentes de IA para tudo. Mas, para o que realmente faz sentido, ai sim os projetos de AI Agents trazem resultados muito satisfatórios. Desde 2025 estamos enfrentando uma enxurrada de direcionamento de projetos para Agentes de IA. E olhando para isso de forma pragmática, a implementação detalhada de como usar Agentes de IA de verdade é um desafio operacional, além de escalabilidade técnica.</p>
<p>Também é importante dizer que, na minha visão, este movimento não tem objetivo de substituição de profissionais qualificados por algoritmos, mas sim a integração de agentes autônomos em fluxos de trabalho específicos que tragam ROI. Muito se foca em automatizar tarefas repetitivas e complexas, como a reconciliação financeira em tempo real ou a triagem avançada de suporte técnico para direcionar somente o que é realmente complexo para os atendentes humanos. Mas veja, o humano continua no processo de forma mais estratégica e menos operacional.</p>
<h2>O panorama dos Agentes em 2026</h2>
<p>Indo contra o senso comum, de forma prática, os agentes de IA não substituíram os engenheiros de software ou analistas de negócios. Pelo contrário, eles se tornaram ferramentas autônomas especializadas que operam dentro de domínios específicos para garantir precisão e velocidade excepcionais. É possível observar uma aplicação massiva de projetos de AI Agents em setores que exigem alta conformidade, como a processos financeiros. Nesses cenários, os agentes processam volumes massivos de dados, identificando discrepâncias que levariam dias para serem notadas por humanos. Vou me dar o direito de repetir o que já escrevi antes, essa automação é tirar trabalho que nem é trabalho. Gastar tempo de uma pessoa fazendo um &#8220;cara-crachá&#8221; é jogar dinheiro fora!</p>
<p>Em outras áreas, como a de TI, a triagem de suporte técnico foi acelerada por sistemas que não apenas categorizam tickets, mas resolvem problemas simples e rotineiros de forma autônoma. Essa abordagem libera os profissionais para focarem em problemas complexos, além de  poder trabalhar com o que é estratégico para a empresa. A integração desses sistemas nas operações de negócios ocorre de forma modular e focada no ROI imediato. Assim, pelo que me parece, o mercado parou de buscar uma &#8220;Super IA Generalista&#8221; para investir em múltiplos agentes coordenados que resolvem dores latentes do cotidiano corporativo. É mais apropriado ter um batalhão de especialistas do que um monolito único que se propõe a fazer tudo.</p>
<h2>A automação da codificação</h2>
<p>Não vou fazer juízo de valor sobre o tanto de Layoffs que estão acontecendo na área de TI nos últimos anos atribuídos, principalmente, à uso da IA para substituir devs e afins. Contudo, é nítido que uma das atividades que mais impactam o mercado de TI hoje é a automação de codificação através de agentes especializados. Recentemente li que o Spotify e a Anthropic não tem mais &#8220;gente codificando&#8221;, tudo é feito com IA. Também vejo diversas notícias, além das conversas que tenho com outros executivos, que as áreas de negócios estão investindo em fazer os sistemas sem depender da TI. Tenho um monte de ressalvas com isso, <a href="https://exame.com/bussola/vibe-coding-como-programar-sem-saber-codigo-e-os-riscos-que-isso-traz-para-empresas/" target="_blank" rel="noopener">já falei sobre elas em outras situações</a>, mas que isso muda o jogo é real!</p>
<p>Bom, esses Agentes de IA para codificação transformaram profundamente a percepção sobre o trabalho dos engenheiros de software modernos. Diferente dos antigos assistentes de preenchimento automático (como os Code-Snippets ou Auto-Complete), os agentes de codificação atuais conseguem entender o contexto completo de um repo do Git. Eles realizam refatorações mais amplas, escrevem testes unitários e sugerem melhorias de performance de forma proativa e consistente. Conseguem construir documentação de ponta a ponta.</p>
<p>Com isso, o papel do desenvolvedor mudou de um &#8220;escritor de código&#8221; para um &#8220;revisor e arquiteto de soluções&#8221;. Esta mudança de paradigma permite que equipes menores entreguem produtos com uma complexidade que anteriormente exigiria times muito maiores. Manter o time de dev do tamanho que tinha antes, e utilizando essas ferramentas que dão produtividade, podem aumentar a velocidade das suas entregas de forma absurda. Isso porque o uso de agentes de codificação reduz drasticamente o tempo de lançamento para o mercado (time-to-market). Como resultado, as empresas conseguem validar hipóteses de produto com uma velocidade que redefine os padrões de agilidade da indústria de software.</p>
<h2>Governança e observabilidade com AgentOps</h2>
<p>Para que essa autonomia seja segura, a implementação de práticas de AgentOps (eu sei, ninguém aguenta mais um Ops para nos preocuparmos!) tornou-se obrigatória nas operações para garantir essas infraestruturas modernas de tecnologia. Sem uma operação estruturada, o uso de agentes pode gerar riscos de segurança e custos inesperados para a organização. Similar ao que já estudamos há anos como DevOps, MLOps, AIOps, <del>LavaSecaCozinhaConstroiVendeOps</del>, o conceito de AgentOps foca em manter os ambientes de execução sob rigorosa governança corporativa. Isso inclui o monitoramento em tempo real de cada ação tomada pelo agente, garantindo que ele não exceda seus limites de autorização. Isso ajuda, inclusive, a evitar erros de <a href="https://www.tecmundo.com.br/software/275314-chatgpt-vende-carro-us-80-mil-us-1-atender-cliente.htm" target="_blank" rel="noopener">vender um carro de 80 mil dólares por apenas 1 dólar</a>!</p>
<p>De forma complementar, a observabilidade permite rastrear o raciocínio da IA, facilitando a depuração de falhas em sistemas autônomos. Ferramentas de AgentOps fornecem logs detalhados e métricas de desempenho que são essenciais para auditorias de conformidade e segurança. O controle de custos, na vertente do FinOps, é um pilar que não pode ser desprezado dentro das operações de agentes autônomos. Através de dashboards integrados, os gestores conseguem visualizar o consumo de tokens e o processamento computacional de cada agente individualmente.</p>
<h2>A importância das métricas de Autonomia</h2>
<p>O sucesso de uma estratégia de IA depende diretamente da capacidade da empresa em medir a eficácia dessas ferramentas. Sem as métricas de performance não se sabe onde há gargalo, e não é de agora que se fala: &#8220;Só conseguimos evoluir o que é medido&#8221;. Sem metrificações apropriadas, o impacto dos agentes nos negócios pode ser negativo ou mascarar ineficiências graves. A avaliação da autonomia dos agentes deve ser feita através de critérios que se alinhem entre as necessidades de negócios e as possibilidades de TI. É necessário medir, por exemplo, quantas tarefas o agente concluiu sem intervenção humana e qual foi a precisão final dessas entregas em produção. Também é interessante entender até que ponto a autonomia do agente resolveu problemas dos clientes.</p>
<p>Se um agente requer supervisão constante para tarefas simples, ele deixa de ser um ganho de produtividade, ancorando a produtividade ao invés de impulsioná-la. Por isso, medir a taxa de sucesso por tarefa é interessante para justificar o investimento tecnológico. Diversas empresas utilizam frameworks de pesquisa para testar os limites de seus agentes antes de escalá-los. Essa prática diminui alucinações de modelos e, de certa forma, garante que a automação contribua efetivamente para o crescimento sustentável da organização.</p>
<h2>Para fechar</h2>
<p>Resumindo&#8230; Vou separar em grupos a minha forma de ver/ler o cenário atual.</p>
<ul>
<li><span style="text-decoration: underline;"><strong>Devs</strong></span>, o domínio e gestão dessas ferramentas não é mais opcional, mas um requisito para manter o emprego. Reparem que o mercado passou a valorizar a orquestração de sistemas acima da execução manual.</li>
<li>Para a <span style="text-decoration: underline;"><strong>sociedade</strong> </span>isso trás serviços digitais mais rápidos e precisos, em contra partida, exige mais uma camada de responsabilidade técnica das empresas que estão fornecendo.</li>
<li>O impacto no <span style="text-decoration: underline;"><strong>mercado de trabalho</strong></span> é claro: <a href="https://diegonogare.net/2025/06/a-ia-vai-tomar-o-meu-emprego/" target="_blank" rel="noopener">Já há mudanças</a>! É saudável ter profissionais que saibam desenhar fluxos onde a IA e o humano colaboram de forma conjunta e segura.</li>
</ul>
<p>Em geral, a implementação de agentes de IA exige equilíbrio entre autonomia técnica e controle operacional. Parece clichê, mas desafio de negócio hoje não é mais &#8220;se&#8221; devemos usar IA, mas sim como medir e governar esses sistemas para evitar que a automação se transforme em um custo invisível e descontrolado. Sem estratégias de AgentOps e métricas de desempenho validadas, as empresas correm o risco de implementar soluções que aumentam a complexidade sem resolver o problema central de eficiência. É o que falo de Tech-by-Tech, e isso geralmente joga grana pelo ralo. Investir na compreensão profunda de como esses agentes operam é o único caminho para garantir que a tecnologia sirva ao propósito de crescimento e inovação sustentável da organização.</p>
<p>E lembre-se, nem sempre você precisa de um Agente de IA para seu projeto. Mas, para o que realmente faz sentido, vai te trazer benefícios absurdos!</p>
<blockquote><p>&nbsp;</p>
<p>Imagem de capa criada com Nano Banana 3, utilizando o prompt: Um retrato suave e cinematográfico de um escritório de engenharia de software moderno e sofisticado em 2026. No centro da composição, um engenheiro e uma engenheira de software conversam de forma colaborativa, gesticulando em direção a uma projeção holográfica de um agente de IA representado por uma forma fluida e luminosa. Ao fundo, em uma parede de concreto aparente, há um grande monitor de alta resolução exibindo painéis de métricas complexas, gráficos de autonomia, logs de AgentOps e indicadores de ROI em tempo real. O estilo é &#8220;Retrato Suave&#8221;, com uma iluminação difusa vinda de janelas laterais, criando um contraste elegante entre a luz natural e o brilho tecnológico azulado. A atmosfera transmite profissionalismo, harmonia e foco, mostrando que a IA é uma ferramenta de suporte integrada ao trabalho humano, e não uma substituta. Renderização fotorrealista com profundidade de campo rasa para destacar a interação humana.</p></blockquote>
<p>O post <a href="https://diegonogare.net/2026/04/o-que-deve-ter-no-seu-projeto-de-agentes-de-ia/">O que deve ter no seu projeto de Agentes de IA</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4667</post-id>	</item>
		<item>
		<title>Agentes de IA em 2026 &#8211; A evolução da programação e autonomia</title>
		<link>https://diegonogare.net/2026/03/agentes-de-ia-em-2026-a-evolucao-da-programacao-e-autonomia/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Tue, 24 Mar 2026 12:00:18 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Agentes de IA]]></category>
		<category><![CDATA[GenAI]]></category>
		<category><![CDATA[IA Agêntica]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[Inteligência Artificial Generativa]]></category>
		<category><![CDATA[Multiagentes]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4657</guid>

					<description><![CDATA[<p>O 2026 Agentic Coding Trends Report, da Anthropic, revela como a transição de assistentes para sistemas agênticos está redefinindo a produtividade e a economia de avanço global. Este movimento tecnológico surge em um cenário onde o desenvolvimento de software tradicional, conhecidamente determinístico, cede espaço para abordagens probabilísticas e sistemas de IA que não apenas respondem,...</p>
<p>O post <a href="https://diegonogare.net/2026/03/agentes-de-ia-em-2026-a-evolucao-da-programacao-e-autonomia/">Agentes de IA em 2026 &#8211; A evolução da programação e autonomia</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>O <a href="https://resources.anthropic.com/hubfs/2026%20Agentic%20Coding%20Trends%20Report.pdf" target="_blank" rel="noopener">2026 Agentic Coding Trends Report</a>, da Anthropic, revela como a transição de assistentes para <a href="https://diegonogare.net/2026/02/arquitetura-de-ia-agentica-guia-de-implementacao-e-frameworks/" target="_blank" rel="noopener">sistemas agênticos</a> está redefinindo a produtividade e a economia de avanço global. Este movimento tecnológico surge em um cenário onde o desenvolvimento de software tradicional, conhecidamente determinístico, cede espaço para abordagens probabilísticas e sistemas de IA que não apenas respondem, mas agem de forma autônoma.</p>
<p>Há um movimento de parte do mercado que segue abandonando modelos de interação passiva em favor de equipes coordenadas de agentes. Processos esses que gerenciam ciclos de vida inteiros de aplicações, desde a concepção até a manutenção.</p>
<p>O principal motivo para essa mudança refletir nos projetos reside na capacidade desses sistemas de reduzir o tempo de entrega de meses para dias. Essa mudança trás vários benefícios, mas o que gosto de destacar é que especialistas foquem na estratégia e na arquitetura. A parte operacional, e muitas veze repetitiva, é realizada por ferramentas especializadas nestas tarefas.</p>
<h2>Da lógica determinística à fluidez da GenAI</h2>
<p>O desenvolvimento de software tradicional sempre se baseou em uma lógica determinística, onde entradas específicas geram saídas previsíveis através de regras rígidas. De maneira análoga, os projetos de dados evoluíram para organizar grandes volumes de informação, buscando padrões claros para suportar decisões de negócio. Contudo, a introdução de ferramentas de Inteligência Artificial mudou essa dinâmica, movendo a computação para um campo onde a flexibilidade dos dados substitui as regras engessadas nas camadas de negócios.</p>
<p>Fazendo uma rápida linha do tempo, há poucos anos, interagimos com <a href="https://diegonogare.net/2020/03/projeto-com-interpretacao-de-linguagem-natural/" target="_blank" rel="noopener">chatbots passivos</a>. Estes eram limitados a fluxos de perguntas e respostas pré-programadas que frequentemente frustravam o usuário por sua falta de contexto. Mais recentemente, surgiram os chatbots conversacionais, que trouxeram maior fluidez na linguagem natural e uma interação mais humana.</p>
<p>Enquanto isso, projetos de <a href="https://diegonogare.net/2024/03/machine-learning-para-quem-nao-e-de-ti/" target="_blank" rel="noopener">Machine Learning</a> consolidaram o paradigma probabilístico, focando em prever resultados com base em estatísticas e dados históricos. Atualmente, a IA Generativa representa o ápice desse interesse, sendo a tecnologia mais procurada por sua capacidade de criar conteúdo inédito e complexo.</p>
<h2>Aplicações reais e a hierarquia da IA</h2>
<p>A IA Generativa expandiu as fronteiras do possível, permitindo aplicações que vão desde a automação de revisões jurídicas até a criação de plataformas de B2B2C complexas. Para navegar nesse novo ecossistema, é fundamental distinguir as diferentes categorias de ferramentas disponíveis no mercado atual.</p>
<ul>
<li>Um <strong>Assistente de IA</strong> atua como um colaborador que sugere melhorias ou completa tarefas simples sob demanda direta;</li>
<li>Já um <strong>Agente de IA</strong> possui maior autonomia, sendo capaz de planejar e executar fluxos de trabalho completos para atingir um objetivo;</li>
<li>A evolução natural desse conceito nos leva à <strong>IA Multiagente</strong>, onde diferentes especialistas digitais trabalham em paralelo, coordenados por um orquestrador central;</li>
<li>Por fim, a <strong>IA Agêntica</strong> descreve sistemas de longo prazo que operam por dias ou semanas, mantendo a coerência e adaptando-se a falhas sem intervenção constante.</li>
</ul>
<p>Conhecer essa estrutura de ferramentas permite que engenheiros atuem como orquestradores, focando em &#8220;o que&#8221; construir, enquanto a IA cuida do &#8220;como&#8221; implementar. Esta mudança de papel aumenta o volume de entrega e permite que empresas corrijam pequenas falhas que antes seriam ignoradas por falta de tempo.</p>
<p>Já falei disso outras vezes, mas nunca é demais relembrar. A IA é uma ferramenta, trate ela como tal. Dependendo do tipo de projeto que está desenvolvendo, é fundamental ter um Human-in-the-Loop para &#8220;aprovar&#8221; ou &#8220;rejeitar&#8221; uma determinada ação que a ferramenta tomou. Volto a falar destas questão de risco mais pra frente neste texto.</p>
<h2>A Importância das métricas e do ROI</h2>
<p>Para que esses projetos agênticos tragam resultados positivos, a implementação de métricas de acompanhamento rigorosas são prioridades estratégicas. Não basta medir apenas a velocidade de execução, as organizações precisam avaliar a autonomia do agente e a precisão de suas decisões.</p>
<p>Um estudo da Harvard Busines Review (que está referenciado no relatório da Anthropic) mostrou que, embora a IA seja usada em 60% do trabalho, a taxa de delegação total (% de quanto os devs delegam para IA fazer) ainda é baixa, variando entre 0% e 20%. Isso reforça a necessidade de métricas que quantifiquem a eficácia da colaboração humano-IA e o tempo economizado por interação.</p>
<p>A atenção deve estar voltada para a criação de sistemas de controle de qualidade que identifiquem vulnerabilidades antes que elas cheguem à produção. Empresas que ignoram essa etapa correm o risco de criar gargalos técnicos ou introduzir falhas de segurança críticas em seus sistemas.</p>
<p>Monitorar o volume de tarefas &#8220;totalmente delegadas&#8221; versus tarefas &#8220;colaborativas&#8221; ajuda a ajustar as expectativas de produtividade do time. Inclusive, recomendo a leitura deste outro material da Anthropic, <a href="https://www.anthropic.com/research/measuring-agent-autonomy" target="_blank" rel="noopener">Measuring AI agent autonomy in practice</a>.</p>
<h2>Preocupações críticas de segurança e supervisão humana</h2>
<p>Voltando ao ponto dos riscos, a implementação de agentes exige uma postura de segurança em primeiro lugar, dado que a tecnologia possui natureza de uso duplo. O mesmo agente que automatiza defesas pode, se mal configurado, ser explorado por atacantes para escalar ameaças em velocidade de máquina.</p>
<p>Além disso, a supervisão humana não deve ser negligenciada, mas sim escalada através de sistemas de revisão automatizados. O objetivo é fazer com que a expertise humana conte onde ela é mais valiosa: em decisões estratégicas e casos de complexos.</p>
<p>Outra preocupação essencial é evitar que a autonomia dos agentes crie uma &#8220;caixa preta&#8221; organizacional, onde ninguém compreende as decisões tomadas pelo sistema. Agentes sofisticados devem ser projetados para reconhecer incertezas e pedir ajuda quando o impacto nos negócios for elevado. Sem esse guardrail, o risco operacional pode anular os ganhos de produtividade obtidos com a automação.</p>
<h2>O impacto na sociedade e no mercado</h2>
<p><a href="https://diegonogare.net/2025/06/a-ia-vai-tomar-o-meu-emprego/" target="_blank" rel="noopener">A IA vai tomar meu emprego? Bom, já falei disso algumas vezes. Te convido a ler o que penso sobre o assunto aqui neste post</a>.</p>
<p>A transição para sistemas agênticos não é apenas uma mudança de ferramenta, mas uma reconfiguração da economia do desenvolvimento de software. Projetos que antes eram inviáveis devido ao alto custo de manutenção ou débito técnico acumulada, agora tornam-se factíveis através do trabalho autônomo de agentes.</p>
<p>Isso democratiza o acesso à tecnologia, permitindo que área de negócios que são especialistas de domínios como jurídico, marketing e vendas construam suas próprias soluções sem depender exclusivamente de equipes de engenharia, que muitas vezes, estão atolados até o pescoço em demandas represadas.</p>
<p>Para os desenvolvedores, o impacto é uma evolução forçada para o papel de arquiteto e orquestrador. A capacidade de aprender novos contextos em horas, em vez de semanas, permite uma alocação de talentos muito mais dinâmica e resiliente.</p>
<p>Na sociedade, isso se traduz em serviços digitais mais eficientes, como triagens em poucas horas e respostas jurídicas quase em tempo real. A medição de sucesso, contudo, dependerá de como as empresas gerenciam o paradoxo da colaboração: usar a <a href="https://hsmmanagement.com.br/a-economia-do-obvio-como-a-ia-commoditiza-conteudo-e-recoloca-o-humano-no-centro/" target="_blank" rel="noopener">IA para o trabalho tático enquanto preservam o julgamento humano para o que realmente importa</a>.</p>
<p>Não precisamos de agentes para &#8220;tudo&#8221;, mas sim para as tarefas que escalam nossa capacidade de resolver problemas reais. O grande desafio de negócio não é a substituição do capital humano, mas a superação da ineficiência operacional que consome o tempo estratégico das lideranças.</p>
<p>Pense nisso!</p>
<p>&nbsp;</p>
<blockquote><p>Imagem de capa feita utilizando Google Nano Banana, com o prompt: Crie uma imagem com qualidade de foto 4k, de retrato suave, com iluminação de estúdio. A composição deve ter uma aura de orquestra contendo 7 robôs regida por um ser humano. O humano e os robôs estão vestidos apropriadamente, só que ao invés de tocarem instrumentos os robôs estão realizando tarefas em uma linha de produção. Todos robôs estão conectados por fios em um computador a frente do regente humano. A foco é explicar a ideia de IA Agêntica</p></blockquote>
<p>O post <a href="https://diegonogare.net/2026/03/agentes-de-ia-em-2026-a-evolucao-da-programacao-e-autonomia/">Agentes de IA em 2026 &#8211; A evolução da programação e autonomia</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4657</post-id>	</item>
		<item>
		<title>Arquitetura de IA Agêntica &#8211; Guia de implementação e Frameworks</title>
		<link>https://diegonogare.net/2026/02/arquitetura-de-ia-agentica-guia-de-implementacao-e-frameworks/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 23 Feb 2026 15:45:55 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Automação de Processos]]></category>
		<category><![CDATA[IA Agêntica]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4638</guid>

					<description><![CDATA[<p>A Arquitetura de IA Agêntica representa um salto necessário para que empresas transformem modelos de linguagem estáticos em sistemas dinâmicos capazes de executar ações complexas com autonomia. Já cansei de falar disso, mas no cenário atual, onde a tecnologia avança rapidamente, entender essa tendência é ponto central porque ela diferencia o simples processamento de dados...</p>
<p>O post <a href="https://diegonogare.net/2026/02/arquitetura-de-ia-agentica-guia-de-implementacao-e-frameworks/">Arquitetura de IA Agêntica &#8211; Guia de implementação e Frameworks</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>A <strong>Arquitetura de IA Agêntica</strong> representa um salto necessário para que empresas transformem modelos de linguagem estáticos em sistemas dinâmicos capazes de executar ações complexas com autonomia. Já cansei de falar disso, mas no cenário atual, onde a tecnologia avança rapidamente, entender essa tendência é ponto central porque ela diferencia o simples processamento de dados da execução estratégica de tarefas operacionais ponta a ponta. Diferente dos sistemas tradicionais, a Arquitetura de IA Agêntica integra <strong>planejamento</strong>, <strong>memória</strong> e uso de <strong>ferramentas</strong> para resolver problemas de negócio sem intervenção humana constante. Neste texto quero lhe apresentar alternativas de frameworks, tanto da Microsoft quanto alternativas de código aberto, para guiar os times de desenvolvedores e gestores na implementação prática dessas IA Agênticas.</p>
<h3>A diferença entre Agentes de IA e IA Agêntica</h3>
<p>Muitas pessoas confundem o termo <strong>Agente de IA</strong> com o conceito mais amplo de <strong>IA Agêntica</strong>, mas conhecer essa distinção técnica é fundamental. Bom, um agente individual é, geralmente, uma implementação de um modelo de linguagem (LLM) configurado com instruções específicas para uma tarefa única (expliquei sobre isso <a href="https://diegonogare.net/2025/01/o-que-sao-agentes-e-sistemas-multiagentes-de-llm/" target="_blank" rel="noopener">aqui</a>, <a href="https://diegonogare.net/2025/01/estrategias-para-construir-agentes-e-sistemas-multiagentes/" target="_blank" rel="noopener">aqui</a> e <a href="https://diegonogare.net/2025/02/avaliacao-de-agentes-e-sistemas-multiagentes-de-llm/" target="_blank" rel="noopener">aqui</a>). Em contrapartida, a IA Agêntica refere-se ao design de sistemas onde múltiplos agentes trabalham em conjunto e colaboração, planejam e utilizam ferramentas externas de forma orquestrada.</p>
<p>Enquanto o primeiro funciona como um assistente de chat aprimorado, a arquitetura agêntica opera como uma equipe de especialistas digitais coordenados. Essa é a principal diferença. Esses sistemas elaborados possuem ciclos de raciocínio, onde avaliam o resultado de suas próprias ações antes de prosseguirem para o próximo passo. Consequentemente, a robustez dessa abordagem permite que as empresas automatizem processos que exigem julgamento e adaptação em tempo real. Não podemos ser ingênuos em pensar que é só dar controle total para um Agente ou conjunto deles que tudo estará seguro. Não, não está! É preciso monitorar e controlar as ações para que nada saia do controle. Inclusive, em situações mais delicadas como processos financeiros, é recomendado ter uma supervisão humana.</p>
<p>O mercado está migrando rapidamente para essa visão mais sistêmica, pois ela resolve as limitações de contextos curtos e respostas puramente textuais. Para implementar uma Arquitetura de IA Agêntica, deve-se ter um pensamento estruturado sobre como os componentes de software se comunicam entre si. Essa maturidade arquitetural é o que separa um protótipo experimental de uma solução de nível empresarial confiável. E aqui entra um outro risco. Muitas pessoas sem conhecimento de Tecnologia estão fazendo seus <a href="https://exame.com/bussola/vibe-coding-como-programar-sem-saber-codigo-e-os-riscos-que-isso-traz-para-empresas/" target="_blank" rel="noopener">produtos com Vibe Coding</a> e acabam abrindo brechas de segurança por desconhecimento da área.</p>
<h3>A arquitetura de referência da Microsoft, o Framework AutoGen</h3>
<p>Para materializar esses conceitos, a <a href="https://github.com/microsoft/autogen" target="_blank" rel="noopener">Microsoft Research introduziu o framework AutoGen lá em 2024</a>. Ele se tornou a principal referência acadêmica e prática para sistemas multiagentes. A arquitetura original do AutoGen propõe que os agentes sejam entidades capazes de conversar entre si para resolver desafios específicos. Segundo a documentação oficial da Microsoft, esse modelo permite que desenvolvedores criem fluxos de trabalho onde um agente &#8220;programador&#8221; escreve código e um agente &#8220;revisor&#8221; valida a execução.</p>
<p>A implementação dessa solução começa com a definição de funções claras para cada agente dentro do ecossistema corporativo. Você deve configurar um orquestrador que gerencie o histórico da conversa e a transferência de contexto entre as diferentes personas de IA. Além disso, a arquitetura da Microsoft enfatiza a importância de permitir a intervenção humana em pontos críticos, garantindo segurança e supervisão.</p>
<p>Inclusive, mais recentemente, a Microsoft criou o Agent Framework para ser o substituto natural do AutoGen. Eles <a href="https://learn.microsoft.com/pt-br/agent-framework/migration-guide/from-autogen/" target="_blank" rel="noopener">publicaram um guia completo de migração</a> para ajudar os desenvolvedores nesta jornada.</p>
<p>Implementar o AutoGen (ou o Agent Framework) envolve o uso de Python para definir as capacidades de cada componente, conectando-os a APIs de modelos como os mais modernos da OpenAI. As empresas utilizam essa estrutura para acelerar o desenvolvimento de software e a análise de dados complexos de forma automatizada. Como há uma padronização nesta tarefa, a sacada da Microsoft foi oferecer um caminho seguro para empresas que buscam alta performance com integração nativa no Azure.</p>
<h3>Alternativas e o ecossistema Open Source</h3>
<p>Embora a Microsoft esteja liderando essas discussões com soluções robustas e integradas nativamente ao Office, o universo de código aberto oferece alternativas poderosas para quem busca flexibilidade e controle total. Frameworks como <a href="https://www.crewai.com/" target="_blank" rel="noopener">CrewAI</a> e <a href="https://www.langchain.com/langgraph" target="_blank" rel="noopener">LangGraph</a> ganharam tração por simplificar a orquestração de agentes em ambientes de produção. O CrewAI, por exemplo, foca na criação de &#8220;equipes&#8221; onde cada agente possui um papel, um objetivo e uma história de fundo específica. O LangGraph, que faz parte do ecossistema LangChain, permite criar grafos de estado cíclicos, o que é essencial para processos que exigem repetição e refinamento.</p>
<p>Essas ferramentas permitem que os desenvolvedores evitem o lock-in de algum fornecedor, além de personalizar totalmente o comportamento dos sistemas.  Ao adotar essas bibliotecas, as equipes técnicas conseguem iterar rapidamente sem depender exclusivamente de infraestruturas proprietárias caras.</p>
<p>A comunidade Open Source também disponibiliza modelos de linguagem menores (Small Language Models &#8211; SLM) que podem ser executados localmente para tarefas agênticas específicas. Geralmente os SLM são focados em uma vertical ou nicho, se tornando super especializados naquela tarefa. Essa abordagem reduz custos de API e aumenta a privacidade dos dados sensíveis da organização durante o processamento.</p>
<h3>Implementação prática com os desafios de engenharia</h3>
<p>Para implementar uma <strong>Arquitetura de IA Agêntica</strong> com sucesso, a equipe de desenvolvimento deve focar na construção de ferramentas que os agentes possam consumir. Um agente só é útil se ele puder acessar bancos de dados, APIs de terceiros, sistemas de arquivos internos de forma segura, ou outra fonte de dados que possa fazer sentido para o trabalho. O desenvolvimento de &#8220;skills&#8221;, ou funções bem documentadas, é o que dá poder de execução aos modelos de inteligência artificial. Além disso, o monitoramento e o debugging de sistemas multiagentes apresentam uma complexidade muito superior aos chatbots tradicionais.</p>
<p>É necessário rastrear não apenas a resposta final, mas toda a sequência de interações e raciocínios que levaram a essa conclusão. Sem ferramentas de observabilidade adequadas, os sistemas agênticos podem entrar em loops infinitos de execução ou gerar custos inesperados de processamento. Isso é um risco, uma vez que o custo marginal de uso dos agentes está totalmente conectado à quantidade de tokens utilizados. Outro ponto crítico é o gerenciamento da memória de longo prazo, permitindo que os agentes &#8220;lembrem&#8221; de interações passadas para melhorar decisões futuras. A integração de bancos de dados vetoriais torna-se indispensável para fornecer esse contexto histórico de forma eficiente e rápida.</p>
<h3>O impacto no mercado e na sociedade</h3>
<p>Para os desenvolvedores que irão trabalhar em projetos de IA Agêntica, isso significa uma mudança de paradigma. Eles saem do papel de codificadores de lógica explícita para orquestradores de inteligência distribuída. O impacto no mercado de trabalho será profundo, pois tarefas de coordenação rotineira serão delegadas a esses ecossistemas de agentes autônomos. Muita coisa que é burocrática ou que &#8220;não é trabalho&#8221;, vai passar para esses agentes. Mas o processo intelectual, de pensar no projeto de ponta a ponta, ainda é uma tarefa exclusiva de humanos.</p>
<p>No setor financeiro, por exemplo, sistemas agênticos já realizam análises de risco, auditorias de conformidade e execuções de ordens simultaneamente. Na saúde, eles podem coordenar o histórico do paciente com as últimas pesquisas científicas para sugerir protocolos de tratamento personalizados. Essa capacidade de agir sobre a informação, e não apenas resumi-la, aumenta muito o valor do uso de IA. Mas veja, tanto no setor financeiro quanto na saúde, a supervisão humana para determinadas atividades ainda é fundamental para garantir segurança, auditoria e transparência para os usuários.</p>
<p>Entretanto, esse avanço traz responsabilidades éticas e de segurança cibernética para os times de tecnologia. É desafiador garantir que agentes autônomos não tomem decisões prejudiciais para o cliente ou para o negócio, como também não acessem informações privilegiadas ou sensíveis indevidamente. Este é o novo grande desafio da segunrança/governança de TI.</p>
<h3>Comparativo de esforço entre solução proprietária vs. Open Source</h3>
<p>A decisão entre utilizar produtos proprietários ou investir em frameworks Open Source passa por uma análise criteriosa de custo total (Total Cost of Ownership &#8211; TCO), retorno sobre o investimento (Return on Investment &#8211; ROI) e tempo para colocar o produto na rua (Time to Market).</p>
<p>As soluções da Microsoft, que são proprietárias, oferecem um tempo de lançamento mais curto devido à integração pronta com o Office e suporte técnico. O investimento inicial pode ser maior em termos de licenciamento, mas o custo operacional é reduzido pela facilidade de manutenção e escalabilidade automática. Por outro lado, o uso de ferramentas Open Source, como CrewAI ou LangGraph, demandam um time técnico mais sênior e especializado, além de um esforço maior para construir e manter a infraestrutura própria.</p>
<p>O TCO pode parecer menor inicialmente, mas os custos ocultos de integração, segurança e atualizações constantes devem ser considerados no longo prazo. Contudo, o ROI de soluções abertas pode ser superior para empresas que possuem casos de uso altamente específicos e necessitam de personalização extrema. É a aplicação na prática da <a href="https://doi.org/10.1590/0001-3765202520240924" target="_blank" rel="noopener">Estratégia de Make or Buy</a>.</p>
<p>Pra resumir&#8230; Se o objetivo é uma implementação rápida e segura em um ambiente corporativo já estabelecido, a Microsoft tem vantagem. Se a prioridade é o controle total da propriedade intelectual e a economia em escala de tokens, o caminho Open Source pode ser o mais indicado. O problema de negócio central hoje não é apenas adotar IA, mas escolher a arquitetura que equilibre agilidade operacional com sustentabilidade financeira para garantir que a inovação não se torne um passivo técnico. <a href="https://hsmmanagement.com.br/ia-generativa-comece-pelo-problema-nao-pela-solucao/" target="_blank" rel="noopener">Comece pelo problema, não pela solução</a>!</p>
<blockquote><p>Imagem de capa criado com o Google Nano Banana 3, com o prompt: Faça um diagrama representando a Arquitetura de IA Agêntica em um ambiente corporativo moderno em formato de Doogle. Utilize uma folha de caderno como background e os traços devem ser de caneta esferográfica azul. A composição deve mostrar um diagrama de fluxo sofisticado e minimalista, onde módulos geométricos representam agentes especializados (Planejador, Executor, Revisor). Linhas de dados finas conectam esses módulos a um núcleo central de memória, deve ter a ícones discretos de ferramentas externas (nuvem, bancos de dados, código) desenhados no estilo Doogle. Não devem haver textos além dos agentes especialisados de Planejador, Executor e Revisor. Garanta um estilo de Technical Art, mantendo o rigor científico e técnico do diagrama.</p></blockquote>
<p>O post <a href="https://diegonogare.net/2026/02/arquitetura-de-ia-agentica-guia-de-implementacao-e-frameworks/">Arquitetura de IA Agêntica &#8211; Guia de implementação e Frameworks</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4638</post-id>	</item>
		<item>
		<title>It&#8217;s Dr. actually</title>
		<link>https://diegonogare.net/2026/02/its-dr-actually/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Wed, 04 Feb 2026 11:08:38 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Arquitetura de Referência]]></category>
		<category><![CDATA[Deep Learning]]></category>
		<category><![CDATA[Engenharia de Machine Learning]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[MLOps]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4604</guid>

					<description><![CDATA[<p>Depois de vários anos de estudo, stress e aprendizados, finalmente conquistei em 03/02/2026 o título de Doutor em Engenharia Elétrica e Computação pela Universidade Presbiteriana Mackenzie. E por coincidência, foi exatamente 6 anos após a defesa do meu mestrado. Consequentemente, ganhei o &#8220;passe livre&#8221; para brincar com o meme &#8220;It&#8217;s Dr. Actually&#8221; (e se preparem,...</p>
<p>O post <a href="https://diegonogare.net/2026/02/its-dr-actually/">It&#8217;s Dr. actually</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Depois de vários anos de estudo, stress e aprendizados, finalmente conquistei em 03/02/2026 o título de <strong>Doutor</strong> em Engenharia Elétrica e Computação pela Universidade Presbiteriana Mackenzie. E por coincidência, foi exatamente <a href="https://diegonogare.net/2020/02/mestrado-em-inteligencia-artificial-e-astrofisica/" target="_blank" rel="noopener">6 anos após a defesa do meu <strong>mestrado</strong></a>. Consequentemente, ganhei o &#8220;passe livre&#8221; para brincar com o meme &#8220;<strong>It&#8217;s Dr. Actually</strong>&#8221; (e se preparem, vou usar pra caramba agora! rss)</p>
<p>Esse meme é comum em fóruns de tecnologia e até no LinkedIn. Geralmente, as pessoas o utilizam para celebrar a conclusão do doutorado de forma leve e bem-humorada (alguns são arrogantes e espero não ficar assim!). A brincadeira marca o momento em que o aluno recebe o reconhecimento formal por seu esforço acadêmico intenso. Além disso, a brincadeira serve como uma ferramenta de quebra de gelo em ambientes técnicos muito sérios. No caso da minha pesquisa, resultados operacionais reais no setor financeiro validam essa nova autoridade técnica. Afinal, propor uma nova arquitetura de referência para plataformas de MLOps é uma proeza digna de um legítimo &#8220;Doutor&#8221;. rss</p>
<h2>Um pouco da minha pesquisa</h2>
<p>A jornada para colocar um modelo de Machine Learning em produção enfrenta obstáculos no ambiente corporativo. Muitos projetos de ML não atingem a fase operacional ou falham em entregar o valor esperado para o negócio. Isso por si só, já é ruim! Além disso, os profissionais de ciência de dados, frequentemente, focam na matemática dos algoritmos e acabam desprezando aspectos da computação como a Engenharia de Software. Elementos como qualidade, performance e confiabilidade acabam negligenciados durante o ciclo de desenvolvimento. E isso não é exatamente um problema, visto que a área de Ciência de Dados é bem plural e tem profissionais de muitas formações distintas.</p>
<p>E para ajudar, equipes de ciência de dados sofrem com a falta de infraestrutura automatizada e processos manuais lentos. Por exemplo, no Itaú Unibanco S.A., <a href="https://aws.amazon.com/pt/solutions/case-studies/itau-ml-case-study/" target="_blank" rel="noopener">cientistas chegavam a esperar seis meses por recursos computacionais</a>. Essa demora gerava um backlog crítico de mais de 100 modelos aguardando publicação. Entretanto, a instabilidade dos dados e a complexidade das dependências de entrada tornam o fluxo de trabalho manual altamente propenso a erros.</p>
<p>A área de MLOps surge justamente para automatizar esse ciclo de vida de desenvolvimento de modelos de ML iterativo. No entanto, a literatura acadêmica ainda apresenta poucas pesquisas sobre as técnicas de implementação prática e publicação, dando muito mais foco na parte de desenvolvimento/experimentação.</p>
<h3>Metodologia baseada em dados e o rigor científico</h3>
<p>Para dar fundamentação metodológica para a pesquisa, segui para uma abordagem de Pesquisa Aplicada, que trás em seu processo um alto rigor científico. Primeiramente, segui para uma Revisão Sistemática de Literatura (RSL) analisando 131 artigos primários publicados entre 2018 e 2024. Estes foram os artigos que li de fato, mas a pesquisa começou com mais de 2.800 publicações científicas. Essa análise permitiu identificar 12 categorias temáticas essenciais que orbitam a a área de MLOps.</p>
<p>Além da base teórica, também conduzi uma pesquisa anônima com 25 profissionais e executivos brasileiros. Essa etapa revelou os desafios reais enfrentados pelas indústrias, como a dificuldade de integração com sistemas legados. Os entrevistados apontaram que ferramentas existentes são complexas e exigem alta especialização técnica, o que impacta os projetos como um todo. Essa coleta de respostas foi fundamental para embasar o desenvolvimento da nova arquitetura que desenvolvi.</p>
<p>O terceiro pilar da metodologia eu investiguei a estratégia de &#8220;construir versus comprar&#8221; soluções de tecnologia. Construí um guia de suporte à tomada de decisão rigoroso baseado na maturidade da empresa e na vantagem competitiva do projeto. Se o MLOps for atividade central para o negócio, o desenvolvimento interno torna-se o caminho recomendado. Caso contrário, a aquisição de ferramentas de mercado pode acelerar a integração da IA nos produtos&#8230; Mas vale dar uma olhada com calma nessa publicação porque ela pode ser extrapolada para outras ferramentas e áreas. Ficou bem robusta <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>
<h3>A solução que apresentei é de uma Arquitetura de Referência modular</h3>
<p>A solução central da tese é uma Arquitetura de Referência composta por quatro estágios interconectados e modulares. O Estágio 1 foca na <strong>Engenharia de Dados</strong>, defendendo a centralidade e governança das fontes de informação. Nesta camada, processos de aquisição, preparação e validação garantem que os dados tenham a qualidade necessária para o treinamento. Consequentemente, o versionamento de dados torna-se peça-chave para a reprodutibilidade dos experimentos.</p>
<p>O Estágio 2 abrange o <strong>Ambiente de Desenvolvimento</strong>, onde ocorre a construção cíclica do modelo de ML. Detalho as etapas de ajuste de hiperparâmetros, seleção de algoritmos e avaliação de performance. Além disso, a arquitetura prevê a manutenção constante do código para evitar o acúmulo de débitos técnicos. Já o Estágio 3 foca no <strong>Ambiente de Produção</strong>, gerenciando as esteiras de inferência e publicação.</p>
<p>Finalmente, o Estágio 4 aborda as <strong>Preocupações Transversais</strong>, que permeiam todo o ciclo de vida do modelo. Este estágio inclui segurança cibernética, monitoramento contínuo e a flexibilidade do poder computacional. Dou destaque que o monitoramento deve registrar logs operacionais e detectar desvios estatísticos, como o data-drift. Essa estrutura modular mitiga a complexidade e permite que múltiplos times descentralizados colaborem de forma eficiente.</p>
<h3>Escalabilidade e gestão de modelos de Deep Learning</h3>
<p>Um diferencial importante desta Tese é o suporte explícito para esteiras de Deep Learning. Uma das soluções é o uso de contêineres e tecnologias de nuvem para garantir a portabilidade dos modelos. Assim, o sistema consegue processar predições em tempo real com baixa latência para o usuário final. A arquitetura detalha processos de Continuous Training (CT), permitindo o retreinamento automático dos modelos quando necessário. Isso é importante porque o desempenho de um modelo de IA pode degradar rapidamente no mundo real. Através da observabilidade, os engenheiros conseguem investigar comportamentos históricos e diagnosticar problemas silenciosos. Além disso, a transparência e a explicabilidade da IA são pilares fundamentais para garantir um processamento ético.</p>
<p>O fluxo operacional apresentado na Tese guia o desenvolvedor desde a definição de requisitos até a predição final. O uso de padrões como o &#8220;Modelo Campeão/Desafiante&#8221; permite testar novos algoritmos em paralelo sem afetar a produção. Se parar para ver com calma, a solução oferece um roteiro técnico preciso para evitar falhas comuns no desenvolvimento de projetos de IA, ML e DL.</p>
<h3>It&#8217;s Dr. Actually</h3>
<p>Já que chegou até aqui e investiu tempo lendo um pouco do trabalho que demorei 4 anos para concluir, te convido a gastar mais tempo e acompanhar as publicações que fiz em periódicos e congressos científicos. Afinal (tentando fazer a brincadeira do começo do post) It&#8217;s Dr., actually!</p>
<ul>
<li>2022 &#8211; <a href="https://sol.sbc.org.br/index.php/cbsoft_estendido/article/view/22303" target="_blank" rel="noopener">Automação no processo de publicação de modelos de Ciência de Dados</a></li>
<li>2024 &#8211; <a href="https://arxiv.org/abs/2408.11112" target="_blank" rel="noopener">Experimentation, Deployment and Monitoring Machine Learning Models: Approaches for applying MLOps</a></li>
<li>2024 &#8211; <a href="https://sol.sbc.org.br/index.php/latinoware/article/view/31526" target="_blank" rel="noopener">Machine Learning Model: Perspectives for quality, observability, risk and continuous monitoring</a></li>
<li>2025 &#8211; <a href="https://www.techrxiv.org/users/883822/articles/1312655-mlops-for-machine-learning-model-lifecycle-automation-a-systematic-literature-review" target="_blank" rel="noopener">MLOps for Machine Learning Model Lifecycle Automation &#8211; A Systematic Literature Review</a></li>
<li>2025 &#8211; <a href="https://journals.cypedia.net/rwas/article/view/29/53" target="_blank" rel="noopener">Interpersonal Trust in the Era of Scientific Communication with Artificial Intelligence &#8211; An Essay</a></li>
<li>2025 &#8211; <a href="https://www.scielo.br/j/aabc/a/qWrmjCbprBGzJdLB9STpx7P/?format=html&amp;lang=en" target="_blank" rel="noopener">Make or buy strategy for Machine Learning Operations – MLOps</a></li>
<li>2025 &#8211; <a href="https://aisel.aisnet.org/isla2025/8/" target="_blank" rel="noopener">Experimentation, deployment, and monitoring of machine learning models: How MLOps enhances AI productization</a></li>
<li>2025 &#8211; <a href="https://aisel.aisnet.org/relcasi/vol17/iss1/5/" target="_blank" rel="noopener">How MLOps boosts AI productization with experimentation, deployment, and monitoring of machine learning models</a></li>
<li>2026 &#8211; Towards a New MLOps Architecture: A Methodological Approach Driven by Business and Scientific Requirements (<em>ainda não está indexado no portal da SBC</em>)</li>
</ul>
<h2>Muito obrigado!</h2>
<p>Um doutorado não se faz da noite para o dia, foi uma construção de anos de dedicação, estudos e stress para criar essa Arquitetura de Referência de MLOps para projetos de Machine Lerning e Deep Learning&#8230; E, assim como a ciência, um doutorado não se faz sozinho. Quero aproveitar esse finalzinho do texto para agradecer todas pessoas que participaram comigo das publicações, todos que assistiram as apresentações ou leram os <em>papers</em>, todos que de forma direta ou indireta contribuíram para este trabalho. Vocês são parte disso, queria que a alegria desta titulação também se estendesse até vocês! E, claro, quero deixar um agradecimento especial à meus orientadores (Leandro Augusto da Silva e Ismar Frango Silveira) e aos avaliadores da banca (Marcelo Nogueira, Alexandra Aparecida de Souza, Gustavo Scalabrini Sampaio e Fabio Silva Lopes), suas sugestões e ensinamentos contribuíram com o resultado final deste trabalho.</p>
<p>MUITO OBRIGADO!</p>
<p>&nbsp;</p>
<blockquote><p>A foto de capa foi gerada com o Google Nano Banana 3, usando o prompt: Foto ultra-realista, com iluminação de estúdio, de uma mesa de trabalho de um profissional da computação com um teclado e mouse sem fio e um monitor ultra-wide curvo. A organização da mesa é bagunçada, mas em destaque tem uma xícara de café com o texto &#8220;It&#8217;s Dr. Actually&#8221; em letras pixealizadas como um terminal de computador.</p></blockquote>
<p>O post <a href="https://diegonogare.net/2026/02/its-dr-actually/">It&#8217;s Dr. actually</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4604</post-id>	</item>
		<item>
		<title>A crise de identidade na pesquisa científica</title>
		<link>https://diegonogare.net/2026/01/a-crise-de-identidade-na-pesquisa-cientifica/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Thu, 29 Jan 2026 09:02:36 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Descoberta Científica]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Inteligência Artificial Generativa]]></category>
		<category><![CDATA[Peer review]]></category>
		<category><![CDATA[Revisão por pares]]></category>
		<category><![CDATA[Rigor científico]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4597</guid>

					<description><![CDATA[<p>No artigo Interpersonal Trust in the Era of Scientific Communication with Artificial Intelligence &#8211; An Essay, que publiquei com meu orientador original do doutorado, relatamos que a ciência enfrenta um dilema ético sem precedentes, onde a produção de conhecimento de alta qualidade exige tempo e recursos, mas esbarra na pressão por velocidade. Bom, porque comentei...</p>
<p>O post <a href="https://diegonogare.net/2026/01/a-crise-de-identidade-na-pesquisa-cientifica/">A crise de identidade na pesquisa científica</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>No artigo <a href="https://journals.cypedia.net/rwas/article/view/29/53" target="_blank" rel="noopener"><strong>Interpersonal Trust in the Era of Scientific Communication with Artificial Intelligence &#8211; An Essay</strong></a>, que publiquei com meu orientador original do doutorado, relatamos que <span data-path-to-node="1,1"><span class="citation-71">a ciência enfrenta um dilema ético sem precedentes, onde a produção de conhecimento de alta qualidade exige tempo e recursos, mas esbarra na pressão por velocidade</span></span><span data-path-to-node="1,3">.</span></p>
<p>Bom, porque comentei do nosso ensaio? Principalmente porque este assunto<span data-path-to-node="1,5"><span class="citation-70"> ganhou novos contornos com o lançamento do </span><a href="http://prism.openai.com/" target="_blank" rel="noopener"><b data-path-to-node="1,5" data-index-in-node="54"><span class="citation-70">Prism</span></b></a><span class="citation-70">, o novo <a href="https://techcrunch.com/2026/01/27/openai-launches-prism-a-new-ai-workspace-for-scientists/" target="_blank" rel="noopener">espaço de trabalho da </a></span><b data-path-to-node="1,5" data-index-in-node="90"><span class="citation-70">OpenAI</span></b><span class="citation-70"> para cientistas, e o <a href="https://ai.gopubby.com/ai-peer-review-crisis-iclr-2026-344407b13818" target="_blank" rel="noopener">aumento exponencial de submissões em conferências</a> como a </span><b data-path-to-node="1,5" data-index-in-node="175"><span class="citation-70">ICLR 2026</span></b><span class="citation-70">, que atingiu volumes recordes de artigos</span></span><span data-path-to-node="1,7">.</span></p>
<p>O cenário atual preocupa a comunidade acadêmica devido ao uso desenfreado de IA para gerar conteúdo e realizar a revisão por pares, uma etapa fundamental que garante a qualidade e veracidade das descobertas antes de chegarem à sociedade. Embora ferramentas como o Prism prometam otimizar a escrita, o nosso ensaio já alertava para o risco de erosão da confiança pública e a criação de um ecossistema de &#8220;artigos slop&#8221;. PRecisamos, enquanto sociedade, ficar de olho nisso! Temos que, de alguma forma, assegurar <span data-path-to-node="1,17"><span class="citation-67">a manutenção da curadoria humana e da transparência no uso dessas tecnologias para evitar que o progresso científico seja sufocado por automações superficiais e enviesadas que só sabem encontrar a próxima palavra apropriada para o contexto que estão gerando</span></span><span data-path-to-node="1,19">.</span></p>
<h3>O valor invisível da pesquisa rigorosa</h3>
<p>Muitas pessoas utilizam tecnologias avançadas diariamente sem perceber que elas são frutos de décadas de rigor científico. O GPS do seu smartphone, por exemplo, só funciona devido a estudos complexos sobre a teoria da relatividade lá do Einstein. Da mesma forma, a tecnologia de telas OLED que você vai utilizar para ver a Copa do Mundo deste ano, resultaram de investimentos massivos em energia e intelecto humano. E veja, não estou fazendo juízo de valor se a pesquisa é originária da indústria ou de órgãos públicos, meu ponto é a pesquisa em si. Com isso, quando buscamos atalhos na produção científica, colocamos em xeque a qualidade desses produtos finais, que consequentemente, transformam a nossa vida em sociedade.</p>
<p>Não sei se é de conhecimento geral, mas a pesquisa científica não é apenas um exercício acadêmico. Ela consome recursos financeiros e mentais significativos. Por sua vez, o processo de revisão por pares atua como um filtro crítico contra o erro. São nestas duas etapas que a automação excessiva desse pode deixar passar falhas graves. Isso sem contar que a confiança interpessoal é um dos pilares do aprendizado. Se o público percebe que o conteúdo não nasce do conhecimento humano, surge um sentimento de decepção e traição. Ao invés de trazer o leitor para perto, vcoê o afasta.</p>
<h3>O boom das publicações e o &#8220;Slop&#8221; científico</h3>
<p>O volume de publicações científicas tem batido recordes anuais, mas a qualidade nem sempre acompanha a quantidade. Em um sub do Reddit, no <a href="https://www.reddit.com/r/MachineLearning/comments/1qno68x/advice_for_phd_students_in_this_al_slop_paper_era/" target="_blank" rel="noopener">r/MachineLearning</a>, estudantes de doutorado discutem a dificuldade de navegar na &#8220;era dos artigos slop&#8221;. Este termo descreve textos gerados por IA que parecem técnicos, muito bem elaborados, mas carecem de profundidade ou originalidade. Infelizmente, essa tendência sobrecarrega os revisores humanos, que muitas vezes recorrem à própria IA para dar conta da demanda. Olha o problema que temos, a IA gera o conteúdo, a IA revisa o conteúdo, a IA usa esse conteúdo para aprender e depois gerar mais conteúdo com base no que aprendeu. É por isso que o termo Slop remete à esse desperdício. E inclusive o termo Slop foi escolhida como a <a href="https://www.cnnbrasil.com.br/lifestyle/slop-palavra-do-ano-do-dicionario-merriam-webster-critica-conteudo-de-ia/" target="_blank" rel="noopener">palavra do ano pelo dicionário Merriam-Webster</a>.</p>
<p>A transparência é a única saída para preservar a autoridade dos comunicadores de ciência. Por respeito e consciência limpa, os leitores devem ser informados quando a IA gera ou auxilia o conteúdo (<em>repare que nos meus textos, no final do post, eu compartilho o prompt que uso para fazer a imagem de capa quando uso IA Generativa para isso</em>). Além disso, grandes editoras como Elsevier e IEEE já estabeleceram que o autor humano é o único responsável final pelo conteúdo. Sem essa responsabilidade, o risco de perpetuar vieses e informações falsas aumenta drasticamente.</p>
<h3>Prism: A promessa da OpenAI para aumentar a produtividade</h3>
<p>Recentemente, a OpenAI lançou o Prism, uma plataforma desenhada especificamente para auxiliar pesquisadores na organização e redação de textos científicos. A ferramenta promete integrar busca bibliográfica e síntese de dados de forma fluida. Embora o potencial de otimização seja claro, a comunidade precisa se manter cética sobre como isso afetará a autenticidade das publicacões científicas futuras.</p>
<p>Mais uma vez volto ao ensaio, a IA deve agir como uma ferramenta de suporte, não como um substituto integral para o trabalho intelectual humano. A curadoria humana garante que a ética e a sensibilidade do pesquisador permaneçam no centro do trabalho. Afinal, a ciência é baseada na credibilidade dos resultados apresentados.</p>
<p>Veja, a importância de manter o rigor científico nas pesquisas é tanto econômica quanto social. Se a base do conhecimento for corrompida por processos de revisão superficiais, o desenvolvimento de novos remédios, materiais de uso primários e tecnologias será mais lento e perigoso. O Prism pode ser um ótimo aliado para eliminar tarefas burocráticas, mas apenas se for utilizado sob uma governança ética rigorosa. Lembre-se, as ferramentas de IA são ferramentas. Use-as como tal, não como substitutos.</p>
<h3>É complicado!</h3>
<p>A ciência brasileira e internacional precisa equilibrar a eficiência da IA com a profundidade da mente humana para garantir que a inovação continue servindo ao bem comum. O uso da tecnologia para mascarar a falta de esforço intelectual é um problema de negócio latente, pois decisões corporativas baseadas em pesquisas &#8220;automatizadas&#8221; e sem validação podem levar a investimentos desastrosos. Além, é claro, de encolhimento do mercado por desacreditarem nos resultados práticos aplicados.</p>
<p>Ainda não testei o Prism, afinal, ele foi lançado há poucos dias. Mas farei em breve para avaliar se ele realmente preserva o rigor esperado ou se apenas facilita o &#8220;slop&#8221;. Publicarei os resultados e minha impressão sobre a ferramenta aqui no blog!</p>
<p>Bons estudos!</p>
<blockquote><p>Imagem de capa gerada com o Nano Banana 3, com esse prompt: Ilustração digital de um cientista humano caricato, revisando uma pilha de manuscritos, contrastando com hologramas da OpenAI Prism gerando fluxos digitais de <strong>&#8220;AI slop&#8221;</strong>. A cena deve simbolizar a pressão por produtividade e a crise de integridade na ciência, destacando o papel vital da curadoria humana e da transparência.</p></blockquote>
<p>O post <a href="https://diegonogare.net/2026/01/a-crise-de-identidade-na-pesquisa-cientifica/">A crise de identidade na pesquisa científica</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4597</post-id>	</item>
		<item>
		<title>Priorize seus dados nos projetos de IA e ML</title>
		<link>https://diegonogare.net/2026/01/priorize-seus-dados-nos-projetos-de-ia-e-ml/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Wed, 28 Jan 2026 08:36:51 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Data Augmentation]]></category>
		<category><![CDATA[Data Drift]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[MLOps]]></category>
		<category><![CDATA[Model Drift]]></category>
		<category><![CDATA[Qualidade de Dados]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4594</guid>

					<description><![CDATA[<p>O mercado de tecnologia passa por um momento decisivo onde a eficácia dos modelos de Inteligência Artificial não é medida apenas pela arquitetura do algoritmo, mas pela robustez de sua operação em escala para atender o cliente. Priorizar seus dados em projetos de IA e ML se mostrou ser uma forte aliada para evitar problemas...</p>
<p>O post <a href="https://diegonogare.net/2026/01/priorize-seus-dados-nos-projetos-de-ia-e-ml/">Priorize seus dados nos projetos de IA e ML</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>O mercado de tecnologia passa por um momento decisivo onde a eficácia dos modelos de Inteligência Artificial não é medida apenas pela arquitetura do algoritmo, mas pela robustez de sua operação em escala para atender o cliente. Priorizar seus dados em projetos de IA e ML se mostrou ser uma forte aliada para evitar problemas nos seus produtos.</p>
<p>Quero destacar neste texto quem são os profissionais impactados por essa mudança e por que a negligência na qualidade dos dados estruturados pode levar ao fracasso de projetos em produção. Falo sobre o uso estratégico de Data Augmentation em séries temporais e os perigos silenciosos dos dados ruins, conhecidos como &#8220;Garbage In &#8211;&gt; Garbage Out&#8221;. Além disso, conto como o MLOps surge como uma resposta factível para mitigar Drifts e garantir a escalabilidade.</p>
<h3>Estratégias de <em>Data Augmentation</em> em dados estruturados</h3>
<p>A técnica de <em><strong>Data Augmentation</strong></em> é amplamente difundida em projetos de <a href="https://diegonogare.net/2020/03/5-passos-da-visao-computacional/" target="_blank" rel="noopener">visão computacional</a>, <a href="https://diegonogare.net/2020/03/permitindo-interpretacao-e-geracao-de-fala-em-projetos/" target="_blank" rel="noopener">audio analytics</a> e <a href="https://diegonogare.net/2020/03/projeto-com-interpretacao-de-linguagem-natural/" target="_blank" rel="noopener">mineração de texto</a>, porém, sua aplicação em dados estruturados exige uma abordagem muito mais cautelosa e científica. Especialmente em cenários de <strong>Análise de Séries Temporais Históricas</strong>, a geração de dados sintéticos não pode ser aleatória. Contudo, para garantir que o aumento de dados beneficie o modelo, devemos seguir princípios eficientes.</p>
<ul>
<li>O primeiro deles é o <strong>Princípio da Preservação</strong>. Este conceito dita que devemos preservar o significado semântico dos dados originais durante qualquer transformação. Se uma alteração modifica o rótulo ou a essência da informação, não estamos aumentando os dados, mas sim corrompendo ou envenenando aquele dado;</li>
<li>Além disso, temos o <strong>Princípio da Distribuição</strong>. As variações introduzidas no conjunto de treinamento devem representar flutuações realistas que o modelo encontrará no ambiente de produção. Criar cenários impossíveis apenas confunde o algoritmo e degrada sua capacidade de generalização;</li>
<li>Por fim, aplicamos o <strong>Princípio da Medição</strong>. Modelos de aprendizado profundo submetidos a um aumento de dados correto devem apresentar métricas superiores. Portanto, esperamos melhorias tangíveis na perda de treinamento, na precisão e na validação geral em comparação com modelos treinados sem essa técnica.</li>
</ul>
<h3>O custo oculto da baixa qualidade dos dados</h3>
<p>Muitas equipes de ciência de dados concentram seus esforços excessivamente na seleção de arquiteturas complexas de redes neurais e negligenciam a matéria-prima básica: os dados. Esse descuido resulta em um fenômeno perigoso conhecido como <em><strong>GIGO &#8211; Garbage In: Garbage Out</strong></em>. Basicamente, se um modelo consome dados ruins durante o treinamento, ele inevitavelmente gerará previsões ruins, independentemente da sofisticação do algoritmo. O problema se agrava porque existe, frequentemente, uma discrepância significativa entre os dados limpos usados em ambiente controlado de desenvolvimento e os dados caóticos do mundo real.</p>
<p>Essa diferença de ambiente propicia o surgimento de falhas críticas. O <em><strong>Data Drift</strong></em> ocorre quando as propriedades estatísticas dos dados de entrada mudam ao longo do tempo, tornando o modelo obsoleto. Similarmente, o <em><strong>Model Drift</strong></em> acontece quando a relação entre as variáveis de entrada e a saída desejada se altera. Além disso, existe o risco de <em><strong>Data Poisoning</strong></em>, onde dados corrompidos são inseridos intencionalmente ou acidentalmente no fluxo de treinamento. Portanto, sem um monitoramento constante da qualidade dos dados rotulados, as métricas de sucesso obtidas no treinamento tornam-se irrelevantes quando o sistema entra em produção.</p>
<h3>MLOps: Uma resposta para escalar com segurança</h3>
<p>Diante dos riscos apresentados pelo aumento de dados mal executado e pela degradação da qualidade dos dados, a adoção de <strong>Machine Learning Operations (MLOps)</strong> torna-se quase que mandatória! Cientistas de dados, por natureza, focam na precisão estatística e na descoberta de padrões. No entanto, eles raramente priorizam questões de infraestrutura, como latência, aumento de chamadas de sistema ou escalabilidade de <em>endpoints</em>. É aqui que o MLOps atua, criando uma base sólida para que a ciência de dados atenda a demanda de negócio, em conjunto com as questões de operações de TI e da engenharia de software.</p>
<p>Empresas maduras utilizam MLOps para automatizar o ciclo de vida do modelo. Isso inclui pipelines automatizados que validam a qualidade dos dados antes mesmo do retreino começar. Dessa forma, garantimos que os princípios de preservação e distribuição do <em>Data Augmentation</em> sejam respeitados em cada iteração.</p>
<p>Além disso, sistemas de MLOps implementam monitoramento em tempo real para detectar <em>drifts</em> imediatamente. Assim, quando o modelo em produção começa a divergir do comportamento esperado devido a mudanças no comportamento do consumidor ou do mercado, o sistema pode alertar a equipe ou até iniciar um retreino automático. Consequentemente, a aplicação ganha estabilidade e capacidade de atender a uma demanda crescente de usuários sem colapsar.</p>
<h3>Contexto de mercado</h3>
<p>A refatoração de modelos estáticos para sistemas dinâmicos gerenciados por MLOps não é apenas uma capricho técnico, mas uma necessidade de sobrevivência corporativa. Não podemos nos dar o luxo de subir modelos em produção que respondam errado para nossos clientes.</p>
<p>Grandes players do mercado já demonstraram que a gestão eficiente de dados e modelos é o segredo para a liderança. Um exemplo disso foi o projeto que atuei no Itaú por alguns anos, para a construção da <a href="https://aws.amazon.com/pt/solutions/case-studies/itau-ml-case-study/" target="_blank" rel="noopener">plataforma de MLOps em parceria com a AWS</a>. Os resultados foram significativos e mudaram o patamar da plataforma de ciência de dados do banco.</p>
<p>Outro exemplo, a Uber, com sua <a href="https://www.uber.com/en-BR/blog/michelangelo-machine-learning-platform/" target="_blank" rel="noopener">plataforma Michelangelo</a>, estabeleceu um padrão ouro ao permitir que modelos de previsão de demanda e tempo de chegada fossem atualizados e monitorados em escala global. Sem essa infraestrutura de MLOps, a Uber não conseguiria lidar com o<em> Data Drift</em> causado por eventos de trânsito em tempo real ou mudanças climáticas repentinas.</p>
<p>Outro exemplo notável é a Netflix. O <a href="https://netflixtechblog.medium.com/recsysops-best-practices-for-operating-a-large-scale-recommender-system-95bbe195a841" target="_blank" rel="noopener">sistema de recomendação</a> da empresa depende inteiramente de dados comportamentais que mudam a cada segundo. Eles utilizam práticas avançadas de MLOps para garantir que o &#8220;envenenamento&#8221; de dados ou anomalias isoladas não afetem a experiência de milhões de usuários.</p>
<p>Para os desenvolvedores e a sociedade, isso significa serviços mais confiáveis e personalizados. O impacto no mercado é claro, empresas que insistem em tratar IA como um projeto artesanal, introduzindo tarefas <em>Data Augmentation</em> de forma incorreta e sem monitoramento de dados, perderão competitividade rapidamente para aquelas que profissionalizam seus processos de IA.</p>
<h3>Priorize seus dados nos projetos de IA e ML</h3>
<p>Na minha visão, a implementação de modelos de IA e ML em produção exige muito mais do que código limpo, algoritmos modernos e um time de ciência de dados para chamar de seu. Entendo que isso exige uma mudança de mentalidade voltada para a governança de dados. Comentei mais acima que as técnicas de <em>Data Augmentation</em> em dados estruturados podem ser poderosas, desde que respeitem os princípios de preservação e distribuição. Contudo, mesmo assim, o risco do <em><strong>GIGO</strong></em> permanece como uma ameaça constante que pode destruir o valor de negócio de qualquer iniciativa de IA. Priorize seus dados nos projetos de IA e ML!</p>
<p>A adoção de MLOps não deve ser vista como um custo adicional de infraestrutura, mas como um seguro contra a obsolescência, o erro e o caos dos sistemas em produção. A capacidade de detectar <em>drifts</em> nos dados e escalar operações de forma automatizada é o que separa provas de conceito interessantes de produtos digitais lucrativos e resilientes. E sem contar, é claro, que irá economizar rios de dinheiro ao se implementar de forma correta.</p>
<p>&nbsp;</p>
<blockquote><p>A imagem de capa foi feita com o Google Nano Banana 3, com o prompt:<em> Na esquerda mostra um laboratório caótico com lixo &#8220;GIGO&#8221; e gráficos de erro vermelhos. Centro traz uma ponte tecnológica com uma placa &#8220;MLOps&#8221; filtrando e organizando dados. Direita revela um data center futurista e limpo com métricas de sucesso verdes. A composição da imagem deve ser fluída e contínua, indicando que a saída do caos da esquerda para chegar ao sossego do lado direito, é através da ponte de MLOps do centro. Aplique estilo fotorrealista, iluminação cinematográfica, simbolizando a transformação de dados ruins em IA escalável.</em></p></blockquote>
<p>O post <a href="https://diegonogare.net/2026/01/priorize-seus-dados-nos-projetos-de-ia-e-ml/">Priorize seus dados nos projetos de IA e ML</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4594</post-id>	</item>
		<item>
		<title>A IA não é inteligente, e eu te mostro</title>
		<link>https://diegonogare.net/2026/01/a-ia-nao-e-inteligente-e-eu-te-mostro/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 12 Jan 2026 11:55:47 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Bert]]></category>
		<category><![CDATA[GPT]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Inteligência Artificial Generativa]]></category>
		<category><![CDATA[Transformers]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4556</guid>

					<description><![CDATA[<p>A presença invisível da IA no nosso cotidiano Você provavelmente interage com algoritmos diversas vezes ao longo do seu dia e as vezes nem se dá conta. Quando o Netflix sugere um filme novo, ele utiliza modelos de Machine Learning clássicos. O sistema analisa seu histórico para prever seu próximo interesse de forma eficiente. Da...</p>
<p>O post <a href="https://diegonogare.net/2026/01/a-ia-nao-e-inteligente-e-eu-te-mostro/">A IA não é inteligente, e eu te mostro</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h3>A presença invisível da IA no nosso cotidiano</h3>
<p>Você provavelmente interage com algoritmos <a href="https://diegonogare.net/2020/01/uso-da-inteligencia-artificial-no-cotidiano/">diversas vezes ao longo do seu dia</a> e as vezes nem se dá conta. Quando o Netflix sugere um filme novo, ele utiliza modelos de Machine Learning clássicos. O sistema analisa seu histórico para prever seu próximo interesse de forma eficiente. Da mesma forma, os bancos utilizam sistemas automáticos para identificar transações suspeitas e evitar fraudes financeiras.</p>
<p>Essas tecnologias operam silenciosamente nos bastidores de grandes aplicativos móveis e sites. Além disso, os filtros de spam do seu e-mail dependem de classificações binárias precisas. Eles rotulam mensagens como seguras ou perigosas baseando-se em características textuais específicas. Veja que a IA tradicional resolve tarefas analíticas fundamentais para a economia moderna.</p>
<p>Considerando isso, esses sistemas focam em problemas de Classificação, onde o objetivo é atribuir categorias a dados. Outro uso comum envolve a Regressão, que prevê valores numéricos contínuos com base em variáveis históricas. Consequentemente, as empresas utilizam essas ferramentas para otimizar preços e prever demandas de estoque sazonais. O algoritmo não &#8220;pensa&#8221; sobre as vendas, mas apenas calcula tendências estatísticas. Vou repetir, o algoritmo &#8220;não pensa&#8221; sobre a venda, mas calcula as tendências estatísticas.</p>
<h3>A transição para a era da inteligência generativa</h3>
<p>Recentemente, o comportamento das máquinas mudou de forma drástica e impressionante. As novas interfaces de chat parecem muito mais &#8220;inteligentes&#8221; e verdadeiramente &#8220;conversacionais&#8221; para o usuário comum. Você pode pedir um poema ou um código de programação complexo em segundos. Assim, a sensação de que existe um pensamento por trás da tela se fortaleceu.</p>
<p>Contudo, essa aparência de sabedoria é apenas uma camada de interface refinada. A IA Generativa foca em problemas de Criação de Texto, Resumo e Tradução de idiomas. Ela utiliza vastas bases de dados para tentar reproduzir a linguagem humana com perfeição. Além disso, utilizamos essas ferramentas no cotidiano para redigir e-mails profissionais ou organizar agendas complexas. Quem faz reunião online hoje, quase que por padrão, já ativa uma ferramenta que faz a ata da reunião de forma automatizada.</p>
<p>Só que veja, a escolha da solução depende diretamente do problema que você precisa resolver. Se você quer prever o preço de um imóvel, usará modelos de regressão tradicionais. Mas se precisa criar uma imagem artística, utilizará IA Generativa. Você gostando ou não, o coração de qualquer projeto de tecnologia reside na definição clara do objetivo de negócio. Não na ferramenta ou tecnologia que você quer utilizar. <a href="https://hsmmanagement.com.br/ia-generativa-comece-pelo-problema-nao-pela-solucao/" target="_blank" rel="noopener">Você precisa começar com o problema, não com a solução</a>.</p>
<h3>Por que a inteligência artificial não é inteligente</h3>
<p>Agora que já fiz uma introdução ao assunto, quero trazer a provocação inicial deste texto: <strong>A IA não é inteligente, e eu te mostro</strong>.</p>
<p>Embora os resultados sejam impressionantes, isso já é ponto pacífico e não temos o que discutir, a máquina não compreende o significado das palavras. Ela opera através de probabilidades e vetores numéricos em um espaço multidimensional.</p>
<p>Como os algoritmos de Clustering, que &#8220;apenas &#8221; agrupam dados similares sem entender a natureza desses objetos. A detecção de anomalias identifica desvios estatísticos sem saber o motivo real da falha. Consequentemente, o sistema apenas sinaliza que algo está fora do padrão matemático esperado.</p>
<p>Veja, nenhuma destas soluções são inteligentes, apesar de muito boas! O modelo não possui intuição ou julgamento ético sobre os dados que processa. Logo, ele não consegue lidar com situações inéditas que nunca apareceram em seu treinamento.</p>
<p>Nesse sentido, a inteligência humana envolve consciência, propósito e compreensão de causa e efeito. As máquinas, por outro lado, limitam-se a encontrar correlações em grandes volumes de informação digital. Por isso, especialistas como o cientista Miguel Nicolelis trazem pontos expondo que o termo &#8220;inteligência&#8221; é apenas uma metáfora de marketing muito poderosa&#8230; Na prática, estes algoritmos são como funções matemáticas iterativas que buscam minimizar erros de previsão.</p>
<h3>A revolução da arquitetura Transformers e o mecanismo de Atenção</h3>
<p>A grande mudança tecnológica ocorreu com o surgimento da arquitetura de Transformers em 2017. Pesquisadores do Google apresentaram o conceito de Mecanismo de Atenção em um artigo seminal chamado <a href="https://arxiv.org/abs/1706.03762" target="_blank" rel="noopener">Attention is all You Need</a>. Esse mecanismo permite que o modelo foque em partes específicas de uma frase para entender o contexto. Além disso, essa inovação possibilitou o processamento paralelo de dados em larga escala. O seu querido ChatGPT, usa essa tecnologia por trás!</p>
<p>Anteriormente à essa tecnologia, os sistemas de linguagem processavam palavras de forma sequencial e lenta. Porém, com os Transformers, a máquina consegue analisar relações entre termos distantes em um mesmo parágrafo. Essa técnica deu origem a modelos famosos como o BERT e o GPT.</p>
<p>O BERT foca na compreensão bidirecional do contexto em tarefas de busca. Em contrapartida, o GPT utiliza uma abordagem autorregressiva para gerar novos conteúdos de forma fluida. O mecanismo de atenção decide quais palavras anteriores são mais relevantes para prever a próxima. Em linhas gerais, o GPT é incrivelmente bom em escolher qual é a próxima palavra na sequência que está escrevendo.</p>
<p>Isso faz com que o texto gerado pareça coeso e gramaticalmente correto para o leitor humano, fazendo assim, a engenharia de software alcançar um padrão ouro nas técnicas de geração de texto (isso ainda sem falar nada da geração de imagem).</p>
<h3>Como o GPT funciona na prática matemática</h3>
<p>O GPT é a sigla para <em>Generative Pre-trained Transformer</em>, e funciona como um preditor estatístico de alta performance. Ele não consulta um dicionário ou uma enciclopédia para responder suas perguntas difíceis. Em vez disso, o modelo calcula a probabilidade da próxima unidade de texto, chamada de token. Além disso, ele utiliza bilhões de parâmetros para ajustar essas previsões durante o treinamento.</p>
<p>Inclusive, falando em token, transformers e mecanismo de atenção, <a href="https://poloclub.github.io/transformer-explainer/" target="_blank" rel="noopener">este site mostra como o cálculo é feito durante o processo</a> de prever a próxima palavra de uma sequência.</p>
<p>Durante o processo de pré-treinamento, o sistema consome quase toda a internet disponível publicamente (e não, não pagam royalties para os autores, deixando uma galera bem insatisfeita com isso!). Ele aprende padrões de linguagem, estilos de escrita e fatos de forma implícita. Portanto, quando você faz uma pergunta, o modelo busca a sequência de palavras mais provável.</p>
<p>Consequentemente, ele pode gerar informações falsas e inventadas, se a probabilidade estatística apontar para esse caminho. Veja que não é por maldade, é como funciona o método estatístico para prever a próxima palavra.</p>
<p>Este fenômeno é conhecido como &#8220;alucinação&#8221; e prova a falta de inteligência real. O algoritmo não verifica a verdade, mas apenas a coerência da estrutura linguística. Nesse sentido, o GPT é como um espelho sofisticado de todo o conhecimento humano digitalizado. Ele reflete padrões sem entender a essência do que está sendo refletido em sua saída. E se o que você está pedindo para fazer, for algo realmente inédito, ele não saberá qual palavra adicionar na sequência e irá colocar uma que atenda aos critérios estatísticos.</p>
<h3>Para <del>quase</del> finalizar</h3>
<p>Acredito que a importância desta discussão está diretamente ligada ao impacto direto que a compreensão técnica gera no mercado de tecnologia. Desenvolvedores que entendem as limitações da IA evitam erros catastróficos em implementações críticas de negócios. Além disso, empresas que tratam a IA como uma &#8220;mágica inteligente&#8221; costumam falhar em suas estratégias. Elas acabam ignorando a necessidade vital de dados de alta qualidade e curadoria humana constante.</p>
<p>Para a sociedade, este contexto é fundamental para mitigar preconceitos algorítmicos e desinformação automatizada. Se aceitarmos que a máquina é apenas um processador estatístico, seremos mais críticos com seus resultados. O potencial impacto desta tendência é uma transição do entusiasmo míope para o uso pragmático e responsável.</p>
<p>No setor corporativo, isso significa investir em governança de dados e transparência algorítmica. Consequentemente, a verdadeira inovação surge quando unimos a capacidade de cálculo da máquina com o discernimento estratégico dos profissionais.</p>
<h3>Agora sim, para finalizar</h3>
<p>Entender que a inteligência artificial opera através de previsões estatísticas, e não de pensamento consciente, resolve um problema de negócio importante: a alocação ineficiente de recursos em projetos sem propósito claro.</p>
<p>Muitas organizações enfrentam prejuízos ao tentar substituir o julgamento humano por algoritmos em áreas onde a intuição e a ética são indispensáveis. Portanto, ao compreender o papel exato de cada modelo, você se torna capaz de aplicar a tecnologia onde ela realmente gera valor operacional.</p>
<p>A ciência por trás dos modelos GPT e BERT prova que a engenharia superou a ficção, transformando matemática em linguagem fluida. Volto, com isso, à minha provocação inicial: A IA não é inteligente,  e eu te mostro! Bom, acreditoq que deu pra ver que ela é apenas um cálculo muito bem executado, né?!</p>
<p>E agora, depois desse texto breve, acha que te mostrei que ela não é inteligente?</p>
<p>Compartilhe este texto com colegas e interessados em entender como a tecnologia realmente funciona nos bastidores&#8230; Bons estudos!</p>
<blockquote><p>A imagem de capa eu fiz com o Google Nano Banana 3, com um prompt que precisei iterar muitas vezes para ficar como eu queria&#8230; Não vai rolar compartilhar <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f641.png" alt="🙁" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p></blockquote>
<p>O post <a href="https://diegonogare.net/2026/01/a-ia-nao-e-inteligente-e-eu-te-mostro/">A IA não é inteligente, e eu te mostro</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4556</post-id>	</item>
		<item>
		<title>Função de Ativação &#8211; O cérebro matemático das Redes Neurais Artificiais</title>
		<link>https://diegonogare.net/2025/12/funcao-de-ativacao-o-cerebro-matematico-das-redes-neurais-artificiais/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 08 Dec 2025 11:27:03 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[ciência de dados]]></category>
		<category><![CDATA[Deep Learning]]></category>
		<category><![CDATA[Funções de Ativação]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[redes neurais]]></category>
		<category><![CDATA[ReLU]]></category>
		<category><![CDATA[Sigmoide]]></category>
		<category><![CDATA[Softmax]]></category>
		<category><![CDATA[Tanh]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4471</guid>

					<description><![CDATA[<p>A essência de uma Rede Neural Artiificial reside em sua capacidade de processar dados e encontrar padrões complexos. Para entender as funções de ativação, primeiramente devemos olhar para a estrutura básica de um neurônio artificial. Inicialmente, o neurônio recebe entradas (inputs), multiplica-as por pesos (weights) específicos e soma um viés (bias). Contudo, o resultado dessa operação...</p>
<p>O post <a href="https://diegonogare.net/2025/12/funcao-de-ativacao-o-cerebro-matematico-das-redes-neurais-artificiais/">Função de Ativação &#8211; O cérebro matemático das Redes Neurais Artificiais</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>A essência de uma Rede Neural Artiificial reside em sua capacidade de processar dados e encontrar padrões complexos. Para entender as funções de ativação, primeiramente devemos olhar para a estrutura básica de um neurônio artificial. Inicialmente, o neurônio recebe entradas (inputs), multiplica-as por pesos (weights) específicos e soma um viés (bias).</p>
<figure id="attachment_4473" aria-describedby="caption-attachment-4473" style="width: 450px" class="wp-caption aligncenter"><img data-recalc-dims="1" fetchpriority="high" decoding="async" class="wp-image-4473" src="https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/12/neuronio_artificial.png?resize=450%2C245&#038;ssl=1" alt="Neurônio artificial" width="450" height="245" srcset="https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/12/neuronio_artificial.png?resize=300%2C164&amp;ssl=1 300w, https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/12/neuronio_artificial.png?resize=768%2C419&amp;ssl=1 768w, https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/12/neuronio_artificial.png?w=800&amp;ssl=1 800w" sizes="(max-width: 450px) 100vw, 450px" /><figcaption id="caption-attachment-4473" class="wp-caption-text">Neurônio artificial</figcaption></figure>
<p data-path-to-node="9">Contudo, o resultado dessa operação matemática é puramente linear. É neste momento que a função de ativação entra em cena. Ela recebe esse valor numérico resultante e aplica uma transformação matemática específica. Consequentemente, ela decide qual informação é relevante o suficiente para ser passada para a próxima camada da rede.</p>
<p data-path-to-node="10">Em termos técnicos, a função introduz a <b>não linearidade</b> ao sistema. Isso é fundamental para os avanços das técnicas de Redes Neurais. Sem essa transformação não linear, não importaria quantas camadas ocultas empilhássemos, a rede inteira se comportaria como uma única camada linear. Arrisco dizer que a função de ativação é o elemento que permite à rede aprender e modelar dados complexos, como imagens, áudio e linguagem natural.</p>
<h3 data-path-to-node="10">O porteiro da balada</h3>
<p data-path-to-node="12">Para tornar este conceito técnico mais lúdico, imagine uma <b>festa exclusiva</b> que possui um porteiro rigoroso na entrada. As pessoas que tentam entrar são ponderadas pela sua importância.</p>
<p data-path-to-node="13">Neste cenário, o porteiro segue uma regra pré-determinada para decidir quem entra. Se o porteiro fosse uma função linear simples, ele deixaria todos entrarem, causando superlotação e caos na balada. Porém, um porteiro seletivo com critérios específicos, age como uma função de ativação.</p>
<p data-path-to-node="14">Por exemplo, ele pode barrar qualquer pessoa com menos de 18 anos (semelhante à função ReLU, que zera valores negativos). Ou, ele pode permitir a entrada de forma gradual, permitindo a entrada rapidamente para pessoas que estão com nome na lista VIPs e demorando mais para convidados comuns (similar à função Sigmoide). Assim, apenas os convidados realmente importantes atravessam a porta para curtir a festa.</p>
<p data-path-to-node="14">Nessa analogia, a festa é a resposta desejada da nossa rede neural. O porteiro faz o papel da função de ativação, e as pessoas que tentam entrar são os inputs (os dados que queremos predizer).</p>
<h3 data-path-to-node="14">Machine Learning vs. Deep Learning</h3>
<p data-path-to-node="14">Embora as funções de ativação sejam presentes em todas as redes neurais, seu uso varia significativamente entre Machine Learning (ML) clássico e Deep Learning (DL). Em modelos tradicionais de ML, como a Regressão Logística, a função de ativação normalmente é usada apenas na saída final para classificar o resultado.</p>
<figure id="attachment_4479" aria-describedby="caption-attachment-4479" style="width: 600px" class="wp-caption aligncenter"><img data-recalc-dims="1" decoding="async" class="wp-image-4479" src="https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/12/onde-ficam-as-funcoes-de-ativacao.png?resize=600%2C328&#038;ssl=1" alt="Onde ficam as funções de ativação" width="600" height="328" srcset="https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/12/onde-ficam-as-funcoes-de-ativacao.png?w=1024&amp;ssl=1 1024w, https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/12/onde-ficam-as-funcoes-de-ativacao.png?resize=300%2C164&amp;ssl=1 300w, https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/12/onde-ficam-as-funcoes-de-ativacao.png?resize=768%2C419&amp;ssl=1 768w" sizes="(max-width: 600px) 100vw, 600px" /><figcaption id="caption-attachment-4479" class="wp-caption-text">Onde ficam as funções de ativação</figcaption></figure>
<p data-path-to-node="14">Por outro lado, no Deep Learning, a complexidade aumenta exponencialmente. Aqui, as funções são aplicadas após cada camada oculta. Isso ocorre porque as redes profundas precisam aprender representações hierárquicas dos dados. Dessa forma, as camadas iniciais podem detectar bordas simples em uma imagem, enquanto as camadas profundas, ativadas sucessivamente, identificam formas complexas como rostos.</p>
<p data-path-to-node="14">Um detalhe importante e as vezes negligenciado&#8230; A escolha da função de ativação em DL afeta diretamente a velocidade de convergência do treinamento e a estabilidade do gradiente. O uso incorreto em DL pode levar a problemas graves, como o &#8220;Vanishing Gradient&#8221;, onde a rede para de aprender.</p>
<h3 data-path-to-node="14">Principais Funções, Equações e Usabilidade</h3>
<h4 data-path-to-node="25">Sigmoide (Logistic Function)</h4>
<p data-path-to-node="25">A função Sigmoide foi, historicamente, a mais popular. Ela transforma qualquer valor de entrada em um número entre 0 e 1. Matematicamente, ela é definida como:</p>
<div><img data-recalc-dims="1" decoding="async" src="https://i0.wp.com/diegonogare.net/wp-content/plugins/wpmathpub/phpmathpublisher/img/math_960_1978f6577ae1d3a8fdb931b8dd16ead9.png?w=640&#038;ssl=1" style="vertical-align:-40px; display: inline-block ;" alt="sigma(x) = 1 / {1 + e^{-x}}" title="sigma(x) = 1 / {1 + e^{-x}}"/></div>
<p>Ela é excelente para modelos probabilísticos, pois o resultado pode ser interpretado como uma probabilidade. Frequentemente, é usada na camada de saída de classificadores binários, como a Regressão Logística.</p>
<p>Atualmente, ela caiu em desuso nas camadas ocultas de Deep Learning. Isso ocorre porque, para valores muito altos ou muito baixos de entrada, a derivada da função se aproxima de zeroe isso causa o problema do Vanishing Gradient, onde os pesos da rede param de ser atualizados durante o treino.</p>
<h4>Tanh (Tangente Hiperbólica)</h4>
<p>A Tanh é similar à Sigmoide, mas com uma diferença na amplitudo, seu intervalo de saída varia entre -1 e 1, e não de 0 a 1. A equação é:</p>
<p><img data-recalc-dims="1" decoding="async" src="https://i0.wp.com/diegonogare.net/wp-content/plugins/wpmathpub/phpmathpublisher/img/math_960_e19f767c36d2daa50a3dd2c663b55476.png?w=640&#038;ssl=1" style="vertical-align:-40px; display: inline-block ;" alt="tanh(x) = {e^x - e^{-x}} / {e^x + e^{-x}}" title="tanh(x) = {e^x - e^{-x}} / {e^x + e^{-x}}"/></p>
<p>Por ser &#8220;centrada em zero&#8221;, a Tanh geralmente performa melhor que a Sigmoide em camadas ocultas. Isso facilita o processo de otimização, pois os dados ficam centralizados em torno da origem.</p>
<p>Contudo, apesar de ser melhor que a Sigmoide, ela ainda sofre com o problema do vanishing em redes muito profundas. Mesmo assim, seu uso é comum em redes recorrentes (RNNs) ou projetos de complexidade intermediária.</p>
<h4>ReLU (Rectified Linear Unit)</h4>
<p>A ReLU é, indiscutivelmente, a &#8220;rainha&#8221; do Deep Learning moderno. Sua lógica é surpreendentemente simples: se a entrada for positiva, ela retorna o valor da entrada; se for negativa, retorna zero. A equação é essa:</p>
<p><img data-recalc-dims="1" decoding="async" src="https://i0.wp.com/diegonogare.net/wp-content/plugins/wpmathpub/phpmathpublisher/img/math_984.5_245fef0360db813561adf8d62763474f.png?w=640&#038;ssl=1" style="vertical-align:-15.5px; display: inline-block ;" alt="f(x) = max(0,x)" title="f(x) = max(0,x)"/></p>
<p>Ela é a escolha padrão para camadas ocultas em Redes Neurais Convolucionais (CNNs) e na maioria das arquiteturas de DL. A ReLU é computacionalmente eficiente, pois envolve operações matemáticas simples, como pode ser visto na sua equação. Além disso, ela resolve parcialmente o problema do desvanecimento do gradiente, permitindo o treinamento de redes muito mais profundas e rápidas.</p>
<p>Na documentação do <a href="https://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html" target="_blank" rel="noopener">MLP do Scikit-Learn</a>, explica que a ReLU é a função de ativação padrão do modelo caso você não especifique qual função de ativação quer utilizar.</p>
<p>Existe um fenômeno chamado &#8220;Dying ReLU&#8221;. Se um neurônio entra em um estado onde sempre retorna zero, portanto, ele &#8220;morre&#8221; e para de aprender. Para contornar isso, variações como a Leaky ReLU foram criadas. Durante o doutorado, inclusive, criei uma Rede GAN para fazer reconhecimento de dígitos que usou a Leaky ReLU entre as camadas escondidas do Gerador e do Discriminador, <a href="https://github.com/diegonogare/MachineLearning/blob/main/5.5-MNIST_GAN.ipynb" target="_blank" rel="noopener">e você pode ver aqui no meu Github</a>.</p>
<h4>Softmax</h4>
<p>Diferente das anteriores, a Softmax é usada quase exclusivamente na camada de saída de problemas de classificação multiclasse. Ela converte um vetor de números em um vetor de probabilidades, onde a soma de todas as probabilidades é igual a 1.</p>
<p><img data-recalc-dims="1" decoding="async" src="https://i0.wp.com/diegonogare.net/wp-content/plugins/wpmathpub/phpmathpublisher/img/math_896_2a1028d9699b6b35a25d9f945dda9113.png?w=640&#038;ssl=1" style="vertical-align:-104px; display: inline-block ;" alt="sigma(z)_i = {e^{z_i}} / sum{j=1}{K} {e^{z_j}} " title="sigma(z)_i = {e^{z_i}} / sum{j=1}{K} {e^{z_j}} "/></p>
<p>Em geral, se você está construindo uma rede neural para classificar dígitos manuscritos (0 a 9) ou categorias de produtos, a Softmax será sua função final. Ela garante que a rede diga: &#8220;Tenho 90% de certeza que isso é um gato, 5% que é um cachorro e 5% que é um carro&#8221;. Mas se você reparar no exemplo que fiz no Github do link mais acima, uso outras funções para a saída da rede e, infelizmente, não me lembro o motivo.</p>
<h3>Para finalizar</h3>
<p>A escolha correta da função de ativação vai além da teoria matemática, ela é uma decisão estratégica de engenharia. No mercado atual, onde empresas buscam eficiência computacional, usar uma função leve como a ReLU pode significar a diferença entre treinar um modelo em horas ou em dias. Isso impacta diretamente o custo de infraestrutura em nuvem (AWS, Azure, Google Cloud) e o pessoal que cuida de <a href="https://diegonogare.net/2025/09/a-importancia-do-finops-para-projetos-de-ia/" target="_blank" rel="noopener">Finops</a> na sua empresa vai agradecer seu cuidado com o custo. Além disso, para devs, entender essas nuances permite a criação de modelos mais robustos.</p>
<p>Ao projetar sua próxima rede neural, lembre-se do &#8220;porteiro&#8221;. A forma como você filtra a informação define a inteligência do seu modelo. O sucesso de uma implementação de IA depende tanto da qualidade dos dados quanto da sofisticação matemática que decide como processá-los.</p>
<p>A evolução dessas funções de ativação ajudou a moldar o salto recente em IA Generativa, que depende de arquiteturas estáveis que só são possíveis graças ao tratamento adequado da não linearidade.</p>
<blockquote>
<pre>Imagem de capa e do texto foram feitas
com o Google Nano Banana 3</pre>
</blockquote>
<p>O post <a href="https://diegonogare.net/2025/12/funcao-de-ativacao-o-cerebro-matematico-das-redes-neurais-artificiais/">Função de Ativação &#8211; O cérebro matemático das Redes Neurais Artificiais</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4471</post-id>	</item>
		<item>
		<title>A importância do FinOps para projetos de IA</title>
		<link>https://diegonogare.net/2025/09/a-importancia-do-finops-para-projetos-de-ia/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 15 Sep 2025 10:57:10 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Negócios e Tecnologia]]></category>
		<category><![CDATA[cloud computing]]></category>
		<category><![CDATA[FinOps]]></category>
		<category><![CDATA[Gestão de Custos]]></category>
		<category><![CDATA[Governança Financeira]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[MLOps]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4446</guid>

					<description><![CDATA[<p>A ascensão da Inteligência Artificial impulsionou uma demanda sem precedentes por poder computacional, majoritariamente na nuvem. Contudo, esse crescimento exponencial de recursos traz um desafio crítico: o controle de custos. É nesse contexto que se destaca a importância do FinOps para projetos de IA. Esta disciplina surge como uma prática cultural e uma metodologia que...</p>
<p>O post <a href="https://diegonogare.net/2025/09/a-importancia-do-finops-para-projetos-de-ia/">A importância do FinOps para projetos de IA</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>A ascensão da Inteligência Artificial impulsionou uma demanda sem precedentes por poder computacional, majoritariamente na nuvem. Contudo, esse crescimento exponencial de recursos traz um desafio crítico: o controle de custos. É nesse contexto que se destaca a importância do FinOps para projetos de IA. Esta disciplina surge como uma prática cultural e uma metodologia que une equipes de <strong>Negócios</strong>, <strong>Finanças</strong> e <strong>Engenharia</strong> para gerenciar os gastos com a nuvem. Em outras palavras, o FinOps garante que cada real/dólar investido em infraestrutura de IA gere o máximo de valor para o negócio. Sem uma governança financeira robusta, projetos promissores podem se tornar financeiramente insustentáveis, comprometendo o ROI e a inovação. A implementação do FinOps não é apenas uma medida de economia, mas sim um pilar estratégico para o sucesso e a escalabilidade de iniciativas de IA para as empresas.</p>
<p>O sucesso do FinOps em ambientes de Inteligência Artificial depende da colaboração entre três áreas distintas, porém, interdependentes. Primeiramente, a equipe de Negócios define o &#8220;porquê&#8221;. Eles estabelecem os objetivos, as metas estratégicas e o valor esperado que o projeto de IA deve entregar. Com isso, suas decisões direcionam o escopo e a prioridade dos investimentos.</p>
<p>Em seguida, a equipe de Finanças cuida do &#8220;quanto&#8221;. Ela é responsável por alocar o orçamento, monitorar o Custo Total de Propriedade (<em>Total Cost Ownership</em> &#8211; TCO) e garantir que o Retorno sobre o Investimento (<em>Return on Investment</em> &#8211; ROI) seja mensurável e alcançável. Além disso, os profissionais que cuidam do orçamento traduzem os gastos técnicos em relatórios compreensíveis para os <em>stakeholders</em>, criando uma ponte de comunicação vital.</p>
<p>Por fim, a equipe de Engenharia executa o &#8220;como&#8221;. Engenheiros de dados, cientistas de dados e especialistas em MLOps implementam as soluções, escolhendo as arquiteturas e os serviços de nuvem mais adequados. Todavia, sob a ótica do FinOps, sua responsabilidade vai além da implementação técnica. Eles devem, igualmente, otimizar o uso de recursos, selecionar instâncias de computação com melhor custo-benefício e instrumentar o código para fornecer dados claros sobre o consumo. Essa colaboração transforma a gestão de custos de uma tarefa reativa para uma responsabilidade compartilhada e proativa.</p>
<h3>Implementando a cultura de FinOps</h3>
<p>A implementação do FinOps não é um projeto com início, meio e fim, mas sim um ciclo iterativo e contínuo. Esse processo garante que a otimização de custos seja uma prática constante e adaptável às mudanças do projeto e do mercado. As cerimônias rigorosas e a comunicação frequente são essenciais para o sucesso. O ciclo se divide em três fases principais: <em>Informar</em>, <em>Otimizar</em> e <em>Operar</em>.</p>
<p>Na fase de <strong>Informar</strong>, o objetivo principal é a visibilidade. É aqui que ocorre o levantamento detalhado dos custos. As equipes trabalham juntas para etiquetar (<em>tagging</em>) recursos, alocar despesas a centros de custo específicos e criar dashboards que ofereçam uma visão clara e em tempo real de onde o dinheiro está sendo gasto;</p>
<p>Em seguida, a fase de <strong>Otimizar</strong> foca na ação. Com base nos dados coletados, as equipes identificam oportunidades de redução de custos, como desligar recursos ociosos, redimensionar instâncias superdimensionadas ou adotar modelos de compra mais vantajosos, como instâncias <em>spot</em> ou planos de economia;</p>
<p>Finalmente, a fase de <strong>Operar</strong> consolida o ciclo. Nela, as otimizações são implementadas e a governança é automatizada. As equipes definem políticas, estabelecem alertas de orçamento e refinam continuamente as melhores práticas. As apresentações regulares para os stakeholders garantem que todos estejam alinhados, celebrando as vitórias na economia de custos e planejando os próximos passos. Este ciclo garante que a gestão financeira evolua junto com a complexidade dos modelos de IA.</p>
<h3>Colocando em prática</h3>
<p>Para colocar a teoria do FinOps em prática, as equipes precisam de <em>frameworks</em> estruturados e ferramentas adequadas. A <strong>FinOps Foundation</strong> é a principal referência global sobre o assunto. A fundação oferece certificações, pesquisas e um <em>framework</em> agnóstico de nuvem que detalha as capacidades, os princípios e as fases do ciclo de vida FinOps. Adotar um <em>framework</em> como este proporciona uma linguagem comum e um roteiro claro para a jornada de maturidade em gestão financeira na nuvem.</p>
<p>A importância do FinOps para projetos de IA transcende a simples economia de custos. Na prática, ele funciona como um seguro contra o principal motivo de falha de muitas iniciativas de inovação: a inviabilidade financeira!</p>
<p>Um modelo de IA pode ser tecnicamente perfeito, mas se seu custo de treinamento e inferência for proibitivo, ele jamais sairá do laboratório para a produção. Portanto, o FinOps desmistifica o custo da IA, transformando-o de uma variável imprevisível em um componente gerenciável da estratégia de negócio. Isso significa que as empresas podem inovar com mais segurança, escalar suas operações de IA de forma sustentável e garantir que os investimentos em tecnologia de ponta se traduzam, de fato, em vantagem competitiva e crescimento para o negócio.</p>
<p>Me arrisco a afirmar, com certo grau elevado de confiança, que adotar o FinOps em projetos de IA não é mais um diferencial, mas uma necessidade estratégica. A disciplina promove uma cultura de responsabilidade financeira que permeia as equipes de Engenharia, Finanças e Negócios, garantindo que a inovação tecnológica caminhe lado a lado com a sustentabilidade econômica. Ao invés de restringir a experimentação, o FinOps a viabiliza, fornecendo o <em>framework</em> necessário para escalar soluções de IA com confiança e previsibilidade. Olhando para o futuro, a integração do FinOps será tão fundamental quanto as práticas de DevOps e MLOps no ciclo de vida do software e de Machine Learning.</p>
<p>Eu <a href="https://amzn.to/4nxdCRB" target="_blank" rel="noopener">li esse livro</a> na assinatura da O&#8217;Reilly, vale muito a pena para aprender sobre a importância do FinOps para projetos, e dá para facilmente extrapolar para projetos de IA! Invista um tempo estudando a disciplina, isso lhe retornará de forma bem positiva.</p>
<blockquote><p>Imagem de capa criada com IA:  Usei o prompt no Gemini: Um ser-humano biônico, desenhando um cifrão ($) em um quadro, em um estilo de ilustração digital de cartoon</p></blockquote>
<p>O post <a href="https://diegonogare.net/2025/09/a-importancia-do-finops-para-projetos-de-ia/">A importância do FinOps para projetos de IA</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4446</post-id>	</item>
	</channel>
</rss>
