<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Arquivos Ética na IA - Diego Nogare</title>
	<atom:link href="https://diegonogare.net/tags/etica-na-ia/feed/" rel="self" type="application/rss+xml" />
	<link>https://diegonogare.net/tags/etica-na-ia/</link>
	<description>Consultor Executivo de IA &#38; ML</description>
	<lastBuildDate>Tue, 03 Mar 2026 10:48:13 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/06/cropped-cropped-DN-Black-300x300-1.png?fit=32%2C32&#038;ssl=1</url>
	<title>Arquivos Ética na IA - Diego Nogare</title>
	<link>https://diegonogare.net/tags/etica-na-ia/</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">247556142</site>	<item>
		<title>O contraste no uso de IA entre Artistas e Desenvolvedores</title>
		<link>https://diegonogare.net/2026/03/o-contraste-no-uso-de-ia-entre-artistas-e-desenvolvedores/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Tue, 03 Mar 2026 11:55:58 +0000</pubDate>
				<category><![CDATA[Negócios e Tecnologia]]></category>
		<category><![CDATA[Ética na IA]]></category>
		<category><![CDATA[Futuro do Trabalho]]></category>
		<category><![CDATA[Inteligência Artificial Generativa]]></category>
		<category><![CDATA[Transparência de IA]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4648</guid>

					<description><![CDATA[<p>No cenário tecnológico atual, a integração da IA Generativa está fomentando uma discussão que leva ao abismo comportamental entre diferentes classes de criadores. Por um lado temos os desenvolvedores de software que celebram a automação e percebem o ganho de produtividade  diária ao utilizar as ferramentas, e do outro lado do fiel da balança, temos...</p>
<p>O post <a href="https://diegonogare.net/2026/03/o-contraste-no-uso-de-ia-entre-artistas-e-desenvolvedores/">O contraste no uso de IA entre Artistas e Desenvolvedores</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>No cenário tecnológico atual, a integração da IA Generativa está fomentando uma discussão que leva ao abismo comportamental entre diferentes classes de criadores. Por um lado temos os desenvolvedores de software que celebram a automação e percebem o ganho de produtividade  diária ao utilizar as ferramentas, e do outro lado do fiel da balança, temos escritores e ilustradores que frequentemente ocultam o uso de algoritmos ou até criticam quem o faça.</p>
<p>Essa hesitação artística, fundamentada no temor de desvalorização do trabalho autoral, contrasta com a cultura de eficiência técnica que domina o mundo corporativo. Enquanto o desenvolvedor enxerga os algoritmos de GenAI como uma evolução natural da engenharia, o artista teme que a máquina apague a &#8220;alma&#8221; da obra e comprometa sua credibilidade profissional.</p>
<h3>A hesitação artística e a crise da autoria</h3>
<p>Atualmente, muitos artistas e escritores enfrentam um dilema ético e profissional sobre a revelação do uso de ferramentas de IA em seus processos. Conforme aponta o portal <strong>The Conversation</strong>, com a matéria: &#8220;<a href="https://theconversation.com/artists-and-writers-are-often-hesitant-to-disclose-theyve-collaborated-with-ai-and-those-fears-may-be-justified-275888" target="_blank" rel="noopener"><strong>Artists and writers are often hesitant to disclose they’ve collaborated with AI – and those fears may be justified</strong></a>&#8220;, essa hesitação não é infundada, pois o público tende a valorizar menos obras que não parecem puramente humanas.</p>
<p>De fato, a percepção de esforço é um componente central na precificação e no prestígio de uma obra de arte ou texto literário. Quando um leitor descobre que um parágrafo ou ilustração foi refinado por um algoritmo, a conexão emocional com o autor pode sofrer um abalo significativo. Por outro lado, se utilizar ferramental de IA e não avisar o leitor, pode criar um distanciamento e um sentimento de enganação, como escrevi neste artigo para o <a href="https://journals.cypedia.net/rwas/index" target="_blank" rel="noopener">Real-World AI Systems</a> intitulado &#8220;<a href="https://journals.cypedia.net/rwas/article/view/29/53" target="_blank" rel="noopener"><strong>Interpersonal Trust in the Era of Scientific Communication with Artificial Intelligence &#8211; An Essay</strong></a>&#8220;.</p>
<p>Consequentemente, muitos criadores optam pelo silêncio para proteger sua reputação e garantir que sua técnica individual permaneça como o foco principal. Esse comportamento reflete um medo sistêmico de que a tecnologia substitua a genialidade por uma eficiência fria e processual. Além disso, existe uma pressão social considerável dentro das comunidades criativas contra o uso de modelos treinados em bases de dados protegidas por direitos autorais. Por isso, a revelação do uso de IA pode acarretar não apenas críticas estéticas, mas também retaliações éticas severas de colegas e consumidores.</p>
<h3>O desenvolvedor como artesão do software</h3>
<p>Por outro lado, o universo do desenvolvimento de software abraçou os assistentes de código, como o Copilot da Microsoft ou o Claude da Anthropic, com um entusiasmo quase pragmático e transparente. Para o programador, o código é uma ferramenta funcional que visa resolver problemas complexos com o menor custo de tempo possível. É comum, inclusive, encontrar desenvolvedores de software que investem horas de trabalho intelectual para automatizar uma tarefa que é executada de forma manual em segundos.</p>
<p>É pelo prazer de desenvolver, de criar, se de desafiar! Nesse contexto, o desenvolvedor também se vê como um artesão que produz material autoral de alta complexidade técnica e lógica todos os dias. No entanto, ele não sente que sua identidade profissional está ameaçada quando um modelo de linguagem sugere uma função ou corrige um erro. Pelo contrário, o uso de IA no desenvolvimento é frequentemente visto como um selo de modernidade e domínio das melhores ferramentas disponíveis no mercado.</p>
<p>Assim, o desenvolvedor compartilha abertamente seus prompts e fluxos de trabalho otimizados em fóruns como Stackoverflow e repositórios públicos do Github sem qualquer receio de julgamento. O uso de algoritmos de GenAI para desenvolvimento de software criou, inclusive, um processo mais democrático para que outras pessoas pudessem começar a desenvolver software de forma conversacional. Esta técnica é conhecida como <a href="https://exame.com/bussola/vibe-coding-como-programar-sem-saber-codigo-e-os-riscos-que-isso-traz-para-empresas/" target="_blank" rel="noopener">Vibe Coding</a>, e isso trás, por consequência, riscos para os usuários e empresas que devem tomar cuidado para levar seus produtos para produção.</p>
<h3>O conflito da omissão vs. o julgamento</h3>
<p>A questão de não declarar o uso de IA na produção de material autoral levanta debates éticos em diversas áreas do conhecimento. A omissão do uso de algoritmos cria uma falsa percepção de capacidade humana isolada. Quando um autor omite a participação da máquina, ele está, de certa forma, manipulando a expectativa de originalidade do seu público-alvo. Todavia, essa prática de ocultação é alimentada por um mercado que ainda não sabe como recompensar a curadoria humana sobre o conteúdo gerado por IA. Se a sociedade punir a transparência, a tendência natural será o aumento do conteúdo &#8220;sintético camuflado&#8221;, o que prejudica a confiança mútua. O processo de <a href="https://www.cnnbrasil.com.br/tecnologia/delegar-pensamento-a-ia-coloca-em-xeque-a-construcao-do-senso-critico/" target="_blank" rel="noopener">delegar o pensamento crítico para a IA não é saudável</a>, mas usar a IA como ferramenta, pode melhorar o seu trabalho.</p>
<blockquote><p>Existem muitas iniciativas para potencializar o uso da IA de forma responsável nas empresas, é &#8220;só&#8221; questão de procurar que você encontra cursos e publicações ensinando como <a href="https://diegonogare.net/2025/09/micro-blog-como-a-explainable-ai-xai-esta-mudando-a-governanca-de-modelos/" target="_blank" rel="noopener">utilizar IA em seu cotidiano de forma responsável</a>.</p></blockquote>
<p>Portanto, o desafio reside em encontrar um equilíbrio onde o criador possa admitir a assistência tecnológica sem perder o valor de sua visão artística. A honestidade intelectual deveria ser o pilar, mas o medo da rejeição comercial fala mais alto para muitos produtores de conteúdo.</p>
<h3>O caso da Natalia Beauty e a nova fronteira da transparência</h3>
<p>Recentemente, a influenciadora e empresária Natalia Beauty chamou a atenção ao declarar abertamente que utiliza inteligência artificial para escrever seus artigos. Essa abordagem direta rompe com o padrão de sigilo adotado por muitas personalidades da mídia e do mercado editorial contemporâneo. Ao publicar que faz uso dessas ferramentas, ela traz para o debate público uma postura de vulnerabilidade e transparência que poucos artistas ousam demonstrar. Natalia não esconde o &#8220;motor&#8221; por trás de suas palavras, desafiando a percepção de que a IA invalida a mensagem.</p>
<p>Essa movimentação sugere que, talvez, estejamos caminhando para uma era onde a curadoria será mais importante do que a digitação manual de cada caractere. No entanto, a recepção de tal honestidade ainda é mista e depende muito do nicho em que o profissional está inserido. Certamente, o gesto provoca uma reflexão sobre até que ponto o público está disposto a aceitar a máquina como uma extensão legítima do pensamento.</p>
<p>Ai fica a dúvida, se uma empresária ou desenvolvedor de software pode admitir o uso de IA, por que o romancista ou o pintor ainda sentem medo?</p>
<h3>Para reflexão</h3>
<p>A divergência entre artistas e desenvolvedores revela uma tensão fundamental sobre o conceito de &#8220;valor&#8221; na economia da atenção e da criação intelectual. Para o mercado de tecnologia, o valor é utilitário; para o mercado das artes, o valor é intrinsecamente ligado à experiência e ao sacrifício humano. E veja que não entrei na discussão de juízo de valor sobre a arte em si, não vem ao caso desta discussão se é um quadro branco com um jato de tinta jogado, ou se é uma escultura feita a partir de um único monólito de mármore branco Carrara. A discussão é sobre uso de ferramentas, no caso, as ferramentas de Inteligência Artificial.</p>
<p>Esta discussão ampla mostra que a IA não está apenas mudando como produzimos, mas como definimos a própria identidade do trabalhador que cria. Desenvolvedores que usam IA ganham velocidade e são promovidos por isso, enquanto artistas que usam IA podem ser cancelados ou ter suas obras desvalorizadas em leilões e galerias. Essa assimetria cria um ambiente onde a inovação é punida em certos setores e recompensada em outros, o que pode atrasar a adoção de fluxos de trabalho mais eficientes na economia criativa global.</p>
<p>Essa discussão me leva a pensar e questionar se o problema reside na ferramenta ou na nossa percepção de autenticidade. Se o resultado final atende às expectativas e resolve o problema proposto, a origem da &#8220;faísca&#8221; criativa deveria ser um fator determinante de qualidade?</p>
<p>&nbsp;</p>
<blockquote><p>Foto de capa criada com o Google Nano Banana, com o prompt: <em>Hyper-realistic 8k studio photography, cinematic lighting. A split-focus composition featuring a modern software developer at a sleek workstation, coding on a high-resolution monitor with visible syntax-highlighted code. Emerging from the workspace, advanced robotic mechanical arms are precision-carving a masterpiece from a large, solid block of white Carrara marble. The sculpture is an impressionist figure with visible, textured &#8220;chisel marks&#8221; that mimic painterly brushstrokes. High contrast between the glowing blue light of the monitors and the warm, dramatic studio spotlights hitting the marble dust in the air. Deep shadows, sharp focus on the textures of the marble grain and the metallic finish of the robot arms. Professional editorial aesthetic.</em></p></blockquote>
<p>&nbsp;</p>
<p>O post <a href="https://diegonogare.net/2026/03/o-contraste-no-uso-de-ia-entre-artistas-e-desenvolvedores/">O contraste no uso de IA entre Artistas e Desenvolvedores</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4648</post-id>	</item>
		<item>
		<title>[Micro-blog] Como a Explainable AI (XAI) está mudando a governança de modelos</title>
		<link>https://diegonogare.net/2025/09/micro-blog-como-a-explainable-ai-xai-esta-mudando-a-governanca-de-modelos/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Fri, 12 Sep 2025 00:11:19 +0000</pubDate>
				<category><![CDATA[Micro-blog]]></category>
		<category><![CDATA[Algoritmos Black-box]]></category>
		<category><![CDATA[Árvores de Decisão]]></category>
		<category><![CDATA[Ética na IA]]></category>
		<category><![CDATA[Explainable AI]]></category>
		<category><![CDATA[Governança de Modelos]]></category>
		<category><![CDATA[redes neurais]]></category>
		<category><![CDATA[Regulação]]></category>
		<category><![CDATA[Transparência]]></category>
		<category><![CDATA[XAI]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4439</guid>

					<description><![CDATA[<p>A Explainable AI (XAI) é fundamental para desvendar as decisões de algoritmos de Inteligência Artificial, independente da aplicação. Para profissionais de tecnologia, a XAI garante transparência e confiança em sistemas complexos, sendo um pilar de sustentação na adoção responsável da IA. A inteligência artificial avança rapidamente, isso é ponto pacífico. Contudo, nem todas as IAs...</p>
<p>O post <a href="https://diegonogare.net/2025/09/micro-blog-como-a-explainable-ai-xai-esta-mudando-a-governanca-de-modelos/">[Micro-blog] Como a Explainable AI (XAI) está mudando a governança de modelos</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>A <strong>Explainable AI (XAI)</strong> é fundamental para desvendar as decisões de algoritmos de Inteligência Artificial, independente da aplicação. Para profissionais de tecnologia, a XAI garante transparência e confiança em sistemas complexos, sendo um pilar de sustentação na adoção responsável da IA.</p>
<p>A inteligência artificial avança rapidamente, isso é ponto pacífico. Contudo, nem todas as IAs são igualmente compreensíveis. Estamos diante de um dilema que não é simples de se resolver. Escolhemos utilizar algoritmos &#8220;black-box&#8221; com alta performance versus &#8220;glass-box&#8221; transparentes, com talvez um pouco menos de performance? Tomar essa decisão quando um algoritmo glass-box tem melhor desempenho é fácil, nem se discute, mas e quando o algoritmo &#8220;black-box&#8221; tem melhor desempenho? É ai que a <strong>Explainable AI</strong> surge, portanto, como a ponte entre a complexidade e a clareza, tornando as decisões da máquina compreensíveis para os humanos.</p>
<h3>Complexidade</h3>
<p>Considere que em uma mão você tem as <strong>Redes Neurais Multicamadas (MLP)</strong>, que processam dados através de múltiplas camadas interconectadas, alcançando frequentemente performance superior em tarefas complexas. Na outra mão, estão as <strong>Árvores de Decisão</strong>, que classificam dados por meio de uma série de regras simples e sequenciais, revelando de forma clara o caminho lógico de cada decisão.</p>
<p>A escolha entre eles implica um <strong>trade-off</strong> significativo. Embora uma MLP possa (em alguns cenários) alcançar maior acurácia preditiva, sua &#8220;caixa preta&#8221; dificulta a explicação do &#8220;porquê&#8221; de suas saídas. Por outro lado, uma Árvore de Decisão, mesmo com possível menor precisão em certos cenários, oferece um rastro de decisão totalmente auditável. Seres humanos conseguiriam, de forma fácil, seguir o fluxo de uma Árvore de Decisão desde a sua raiz até a folha e explicar como as decisões foram tomadas. O que já fica bem mais complicado quando um ser humano precisa fazer cálculos de derivadas para entender como os dados de uma Rede Neural com Multi-layer Perceptron funciona.</p>
<h3>Impactos</h3>
<p>O que quero dizer é que, explicar manualmente um problema que a IA resolve com milhares de variáveis e interações não lineares é humanamente inviável. A complexidade intrínseca de muitos modelos de IA exige, assim, ferramentas especializadas para desmistificar seu funcionamento.</p>
<p>A importância da XAI é evidente em diversos aspectos. Principalmente porque permite a <strong>transparência</strong> em decisões críticas, como diagnósticos médicos ou aprovação de crédito. Também ajuda a melhorar a <strong>confiança</strong> do usuário (e das partes interessadas) nos sistemas de IA. Facilita a <strong>identificação e correção</strong> de vieses algorítmicos, e em certos casos, garante a <strong>conformidade regulatória</strong> em setores rigorosamente auditados.</p>
<p>A eficiência de um algoritmo não deve ser medida exclusivamente por sua métrica de performance, apesar disso ser muito importante quando se olha exclusivamente pelo lado técnico do processo. A <strong>XAI</strong> é, de fato, um pilar fundamental para a governança de IA, essencial em setores regulados como direito, saúde e finanças. Ela permite aos devs construir sistemas não só eficazes, mas também <strong>responsáveis</strong> e <strong>auditáveis</strong>, impactando diretamente a adoção e a ética da tecnologia. Encontrar o equilibrio entre XAI e Métricas de Avaliação de Performance de Modelos é uma tarefa difícil, mas que precisa ser feita!</p>
<p>&nbsp;</p>
<p>O post <a href="https://diegonogare.net/2025/09/micro-blog-como-a-explainable-ai-xai-esta-mudando-a-governanca-de-modelos/">[Micro-blog] Como a Explainable AI (XAI) está mudando a governança de modelos</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4439</post-id>	</item>
	</channel>
</rss>
