<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Arquivos Visão Computacional - Diego Nogare</title>
	<atom:link href="https://diegonogare.net/tags/visao-computacional/feed/" rel="self" type="application/rss+xml" />
	<link>https://diegonogare.net/tags/visao-computacional/</link>
	<description>Consultor Executivo de IA &#38; ML</description>
	<lastBuildDate>Mon, 30 Jun 2025 21:35:36 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/06/cropped-cropped-DN-Black-300x300-1.png?fit=32%2C32&#038;ssl=1</url>
	<title>Arquivos Visão Computacional - Diego Nogare</title>
	<link>https://diegonogare.net/tags/visao-computacional/</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">247556142</site>	<item>
		<title>IA Multimodal &#8211; O futuro da interação inteligente</title>
		<link>https://diegonogare.net/2025/06/ia-multimodal-o-futuro-da-interacao-inteligente/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 30 Jun 2025 03:01:42 +0000</pubDate>
				<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Deep Learning]]></category>
		<category><![CDATA[Google Gemini]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[IA Multimodal]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Linguagem Natural]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Visão Computacional]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=4250</guid>

					<description><![CDATA[<p>A IA Multimodal está transformando a interação e experiência de como nos relacionamos com a tecnologia, processando informações de texto, imagens, áudio e vídeo para criar experiências verdadeiramente intuitivas criando um futuro de interação inteligente. Antes de mais nada, é importante entender que essa capacidade de unir diferentes modalidades de dados permite que os sistemas...</p>
<p>O post <a href="https://diegonogare.net/2025/06/ia-multimodal-o-futuro-da-interacao-inteligente/">IA Multimodal &#8211; O futuro da interação inteligente</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>A IA Multimodal está transformando a interação e experiência de como nos relacionamos com a tecnologia, processando informações de texto, imagens, áudio e vídeo para criar experiências verdadeiramente intuitivas criando um futuro de interação inteligente.</p>
<p>Antes de mais nada, é importante entender que essa capacidade de unir diferentes modalidades de dados permite que os sistemas de IA compreendam o mundo de uma maneira muito mais completa e contextualizada. Consequentemente, as aplicações se tornam mais poderosas e adaptáveis.</p>
<p>Estamos, meus amigos, vivendo uma revolução que promete transformar desde assistentes virtuais até sistemas complexos de análise de dados. Ah, e antes que perguntem, não precisamos criar <a href="https://diegonogare.net/2025/01/o-que-sao-agentes-e-sistemas-multiagentes-de-llm/" target="_blank" rel="noopener">Agentes</a> para trabalhar com Multimodal.</p>
<h2>Metodologias, ferramentas e frameworks para IA Multimodal</h2>
<p>Primeiramente, para desenvolver sistemas de IA multimodal, empregamos diversas metodologias, cada uma com suas particularidades. Uma abordagem comum é a fusão de dados, onde as informações de diferentes modalidades são combinadas em diferentes estágios do processamento. Por exemplo, a fusão pode ocorrer no nível dos recursos (<em>early fusion</em>), onde características extraídas de cada modalidade são concatenadas/combinadas antes de serem alimentadas em um modelo. Além disso, também podemos fazer a fusão no nível da decisão (<em>late fusion</em>), com modelos separados processando cada modalidade e combinando suas saídas posteriormente.</p>
<p>Além disso, a atenção cruzada (<em>cross-attention</em>) tem se mostrado importante peça nesta jornada. Essa técnica permite que o modelo analise a importância de diferentes partes das entradas de múltiplas modalidades ao fazer uma previsão. Ou seja, um sistema pode, por exemplo, focar em uma palavra-chave em um áudio enquanto analisa uma imagem relacionada. Assim, essa capacidade de correlacionar informações entre modalidades aprimora significativamente a compreensão contextual.</p>
<p>No que diz respeito às ferramentas e frameworks, temos muitas ferramentas de IA com opções robustas. O PyTorch e o TensorFlow são, sem dúvida, os pilares. Eles fornecem as bases para a construção de modelos complexos, desde redes neurais convolucionais (CNNs) para processamento de imagens até redes neurais recorrentes (RNNs) e Transformers para texto e áudio. Além disso, bibliotecas como Hugging Face Transformers têm sido cruciais para o desenvolvimento rápido de modelos multimodais, disponibilizando arquiteturas pré-treinadas.</p>
<p>Da mesma forma, o OpenCV é indispensável para o processamento de vídeo e imagem, oferecendo funções para análise e manipulação de dados visuais. Portanto, a combinação dessas ferramentas permite aos desenvolvedores explorar e implementar soluções inovadoras com relativa facilidade.</p>
<h2>Desafios no desenvolvimento de sistemas multimodais</h2>
<p>Muitos profissionais já perceberam o avanço da IA Multimodal para suas atividades cotidianas, mas ainda assim, o desenvolvimento de sistemas de IA multimodal apresenta um monte de desafios. Um dos principais é o problema da heterogeneidade (tive que ir no Google pra conseguir escrever essa palavra direito, rss) dos dados. Isso porque dados de texto, imagem e áudio possuem estruturas e formatos diferentes. O problema está em harmonizar essas várias representações para que um modelo possa processá-las de forma coesa. Além disso, sincronizar o contexto a tempo é outro obstáculo, principalmente em cenários com áudio e vídeo, onde precisamos alinhar os eventos com precisão para uma compreensão contextual correta. Contudo, se tiver falhas na sincronização, podemos receber interpretações erradas por parte do sistema (e vamos combinar, nem vai ser culpa deles!).</p>
<p>Finalmente, a interpretabilidade dos modelos multimodais é um desafio que está em evidência. Compreender como um modelo chega a uma determinada decisão de resposta, especialmente quando ele está processando informações de múltiplas fontes, é importante para a confiança na IA Multimodal.</p>
<h2>IA Multimodal &#8211; transformando interação e experiência</h2>
<p>A IA multimodal já pode ser encontrada em diversos setores, transformando a maneira como interagimos com a tecnologia e com o mundo. Um exemplo é o <a href="https://gemini.google.com/app" target="_blank" rel="noopener">Google Gemini</a>, que representa um avanço significativo nesse campo. Ele é capaz de entender e operar através de diferentes tipos de informações como texto, código, áudio, imagem e vídeo. Isso permite que a IA execute tarefas complexas e compreenda contextos de maneira mais profunda.</p>
<p>Veja um exemplo de como é uma interação Multimodal utilizando o Google Gemini dentro do Google AI Studio.<br />
<iframe title="YouTube video player" src="https://www.youtube.com/embed/UE7Yo72_OFg?si=TPHzDeveqa42FgVJ" width="560" height="315" frameborder="0" allowfullscreen="allowfullscreen" data-mce-fragment="1"></iframe></p>
<p>Além disso, a <a href="https://ai.meta.com/blog/" target="_blank" rel="noopener">Meta</a> também tem feito avanços interessantes com seu trabalho em modelos multimodais. Eles estão explorando como a IA pode processar e gerar conteúdo em diversas formas para melhorar experiências em realidade virtual e aumentada. Por exemplo, a IA pode criar avatares realistas que respondem a expressões faciais e comandos de voz do usuário, gerando uma experiência imersiva e natural. Similarmente, na área da saúde, sistemas multimodais estão sendo desenvolvidos para analisar imagens médicas (raio-x, ressonância magnética, etc) em conjunto com históricos de pacientes e notas clínicas para auxiliar no diagnóstico e tratamento.</p>
<h2>Para finalizar</h2>
<p>A IA Multimodal representa um salto enorme na capacidade dos sistemas de IA de compreender e interagir com o mundo real. Avança a habilidade de processar e correlacionar informações de texto, imagem, áudio e vídeo abre um leque de possibilidades para aplicações mais inteligentes e contextualizadas.</p>
<p>Apesar dos desafios inerentes, como a heterogeneidade e a escassez de dados, as metodologias e ferramentas atuais já permitem avanços como vimos no vídeo de interação para análise dos livros. Portanto, à medida que a pesquisa e o desenvolvimento continuam, podemos esperar que a IA multimodal se torne cada vez mais presente em nosso cotidiano, tornando a tecnologia mais intuitiva, eficiente e, acima de tudo, verdadeiramente inteligente.</p>
<p>Não fique pra trás, bons estudos!</p>
<blockquote><p>Imagem de capa gerada com o Gemini, com o prompt: &#8220;<em>A close-up, ultra-realistic studio shot of a human hand interacting with a holographic interface displaying interconnected elements of text, images, audio waveforms, and video frames, symbolizing multimodal AI. The lighting is professional and dramatic, highlighting the intricate details of the hand and the glowing digital projections.</em>&#8220;</p></blockquote>
<p>O post <a href="https://diegonogare.net/2025/06/ia-multimodal-o-futuro-da-interacao-inteligente/">IA Multimodal &#8211; O futuro da interação inteligente</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4250</post-id>	</item>
		<item>
		<title>Review do livro &#8220;Transformer for natural language processing and computer vision &#8211; 3rd Edition&#8221;</title>
		<link>https://diegonogare.net/2024/04/transformers-para-texto-e-visao-computacional/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 29 Apr 2024 20:00:07 +0000</pubDate>
				<category><![CDATA[Review de Livro]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[NLP]]></category>
		<category><![CDATA[Processamento de Linguagem Natural]]></category>
		<category><![CDATA[python]]></category>
		<category><![CDATA[Transformers]]></category>
		<category><![CDATA[Visão Computacional]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=3872</guid>

					<description><![CDATA[<p>Fiz mais um review de livro, como já tinha feito recentemente de MLOps, Azure Data Factory e algoritmos, mas desta vez foi &#8220;Transformer for natural language processing and computer vision &#8211; 3rd Edition&#8220;. O livro foi escrito por Denis Rothman e publicado pela Packt Pub. Neste livro você irá aprender sobre transformers para texto e...</p>
<p>O post <a href="https://diegonogare.net/2024/04/transformers-para-texto-e-visao-computacional/">Review do livro &#8220;Transformer for natural language processing and computer vision &#8211; 3rd Edition&#8221;</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Fiz mais um review de livro, como já tinha feito recentemente de <a href="https://diegonogare.net/2024/01/review-do-livro-machine-learning-engineering-with-python-mlops-ciclo-vida-modelos/" target="_blank" rel="noopener">MLOps</a>, <a href="https://diegonogare.net/2024/04/review-do-livro-azure-data-factory-cookbook-2nd-edition/" target="_blank" rel="noopener">Azure Data Factory</a> e <a href="https://diegonogare.net/2024/03/50-algoritmos-que-deve-conhecer/" target="_blank" rel="noopener">algoritmos</a>, mas desta vez foi &#8220;<em>Transformer for natural language processing and computer vision &#8211; 3rd Edition</em>&#8220;. O livro foi escrito por Denis Rothman e publicado pela Packt Pub. Neste livro você irá aprender sobre transformers para texto e visão computacional.</p>
<h2>O livro e seus capítulos</h2>
<p>Quero compartilhar minhas impressões iniciais, mas já sei que vou ter que ler mais vezes para realmente entender. Para mim esse assunto é novo, e achei difícil, por mais direto e didático que o Denis foi no livro, ainda sinto que é complexo e terei que estudar muito até ter confiança de sair falando de IA Generativa. O livro é uma leitura ampla, explica a arquitetura de transformers para texto e visão computacional. Em suas quase 700 páginas o livro possui 20 capítulos e está separado em três grandes grupos, sendo: Os Fundamentos dos Transformers; A Ascensão da NLP Supra-humana; Visão computacional generativa: uma nova maneira de ver o mundo.</p>
<p>Ao final de cada capítulo, acima de tudo, é possível ver as referências utilizadas para gerar o texto, além de algumas recomendações de leituras futuras para completar o aprendizado. FAlando em aprendizado, contudo, no final de cada capítulo você irá encontrar questões de Verdadeiro ou Falso sobre o que estudou. No final do livro tem o gabarito com as respostas, e algumas delas até tem uma explicação rápida da resposta correta.</p>
<p>Desde a arquitetura básica até aplicações práticas, este livro abrange:</p>
<div class="content" tabindex="0" aria-description="" aria-label="Enviado por Copilot: [1]: https://link.springer.com/chapter/10.1007/978-3-031-24349-3_6 &quot;&quot; [2]: https://www.goodreads.com/book/show/60114857-natural-language-processing-with-transformers &quot;&quot; [3]: https://www.mdpi.com/2078-2489/14/4/242 &quot;&quot; **Review do livro &quot;Transformer for natural language processing and computer vision - 3rd edition&quot;** Os **Transformers** revolucionaram o campo de Processamento de Linguagem Natural (NLP) e Visão Computacional. Nesta terceira edição do livro &quot;Transformer for natural language processing and computer vision&quot;, você encontrará insights atualizados e técnicas avançadas para dominar esses modelos. Desde a arquitetura básica até aplicações práticas, este livro abrange: - **Representações de Linguagem**: Aprenda como os Transformers aprendem representações ricas para palavras e frases. - **Tradução Automática**: Explore como os Transformers são usados para traduzir entre idiomas. - **Visão Computacional**: Descubra como aplicar os mesmos princípios aos dados de imagem. **Leia este livro e mergulhe no mundo dos Transformers!** **Principais TAGs**: NLP, Visão Computacional, Processamento de Linguagem Natural, Transformers. **Frase-Chave**: &quot;Review Transformers 3rd edition&quot; **Metadescrição**: &quot;Leia o review do livro &quot;Transformer for natural language processing and computer vision - 3rd edition&quot; e domine os Transformers em NLP e Visão Computacional.&quot;">
<div class="ac-container ac-adaptiveCard">
<div class="ac-textBlock">
<ul>
<li><strong>Representações de Linguagem</strong>: Entenda como os transformers aprendem representações ricas para palavras e frases.</li>
<li><strong>Tradução Automática</strong>: Discute como os transformers são usados para tradução de idiomas.</li>
<li><strong>Visão Computacional</strong>: Descubra como aplicar os mesmos princípios aos dados de imagem.</li>
</ul>
</div>
</div>
</div>
<p>Bom, vamos aos capítulos&#8230;</p>
<h3>Capítulo 1</h3>
<p><strong>O que são transformer? </strong>O autor explica, de forma abrangente, o conceito de transformer e os modelos fundamentais. O texto trás a complexidade de tempo <strong>O(1)</strong> desses modelos, que, segundo o texto, revolucionou diversas áreas. Além disso, destaca como os transformers se tornaram dominantes e trouxeram avanços significativos em várias áreas de pesquisa. Transformers são importantes para texto e também para visão computacional.</p>
<h3>Capítulo 2</h3>
<p><strong>Iniciando com a arquitetura do modelo transformer</strong> explora o contexto do Processamento de Linguagem Natural (NLP) e compreende como as arquiteturas de Redes Neurais Recorrentes (RNNs), Long Short-Term Memory (LSTM) e Redes Neurais Convolucionais (CNNs) foram abandonadas e abriram caminho para a arquitetura transformer. Nesse capítulo, o autor explora a arquitetura original do transformer, publicada no artigo científico <strong><a href="https://research.google/pubs/attention-is-all-you-need/" target="_blank" rel="noopener">Attention Is All You Need</a></strong>, desenvolvida por pesquisadores do Google Research e Google Brain. Além disso, descreve a teoria dos transformers e explora, na prática, como funcionam as subcamadas de múltiplas atenções em Python.</p>
<h3>Capítulo 3</h3>
<p>Em <strong>Tarefas emergentes vs. tarefas downstream: As profundezas invisíveis dos transformers</strong>, o autor estabelece uma conexão entre a arquitetura funcional e matemática dos transformers por meio da introdução do conceito de <em>emergência</em>. Em seguida, o autor aborda como medir o desempenho dos transformers antes de explorar diversas tarefas downstream, como o <em>Standard Sentiment TreeBank</em> (SST-2), a aceitabilidade linguística e os esquemas de <em>Winograd</em>.</p>
<blockquote><p>Não sei como traduzir Downstream, então mantive com o nome original. Se você tiver uma tradução apropriada, me conte e eu atualizo o post <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p></blockquote>
<h3>Capítulo 4</h3>
<p>Já em <strong>Avanços em traduções com Google Trax, Google Translate e Gemini</strong>, o texto explora a tradução automática em três etapas. Primeiro, define o que é a tradução automática. Em seguida, explica o pré-processamento de um conjunto de dados do <a href="https://www.statmt.org/wmt14/" target="_blank" rel="noopener">Workshop on</a><br />
Statistical Machine Translation (WMT) de 2014. Por fim, demonstra como implementar códigos para traduções automáticas em Python.</p>
<h3>Capítulo 5</h3>
<p><strong>Aprofundando no ajuste fino com BERT</strong> discute a arquitetura do transformer original. O <em>Bidirectional Encoder Representations from Transformers</em> (BERT) leva os transformers a uma nova e vasta maneira de perceber o mundo do NLP. Em vez de analisar uma sequência passada para prever uma sequência futura, o BERT analisa a toda a sequência! O autor explora as principais inovações da arquitetura do BERT e, em seguida, ajusta um modelo BERT passo a passo em um <a href="https://www.youtube.com/watch?v=hNCRlWgziNk" target="_blank" rel="noopener">notebook do Google Colab</a>.</p>
<h3>Capítulo 6</h3>
<p>No <strong>Pré-treinando um modelo RoBERTa do zero</strong>, o texto implementa um modelo de transformer RoBERTa a partir do zero usando PyTorch na Hugging Face. Primeiro, é treinado um tokenizador em um conjunto de dados personalizado. Em seguida, é feito um pré-treino de modelo de suporte ao cliente com IA generativa.</p>
<h3>Capítulo 7</h3>
<p>No capítulo de <strong>A revolução da IA Generativa com o ChatGPT</strong>, o autor explora as melhorias significativas e a disseminação dos modelos ChatGPT no cotidiano de desenvolvedores e usuários finais. Inicialmente, é apresentada a arquitetura dos modelos GPT da OpenAI. Em seguida, trabalha com a API do GPT-4 e seus hiper-parâmetros para implementar diversos exemplos de NLP em Python. Por fim, aprendemos como obter melhores resultados com <em>Retrieval Augmented Generation</em> (RAG). No capítulo é implementado um exemplo de RAG com o GPT-4.</p>
<h3>Capítulo 8</h3>
<p><strong>Ajuste fino de modelos OpenAI GPT</strong>, é explorada a técnica de ajuste fino para aprimorar os modelos GPT disponíveis por meio da API. Com o ajuste fino é possível obter resultados de maior qualidade do que apenas com prompts. Além disso, permite treinar o modelo com mais exemplos do que caberia em um prompt e economizar tokens devido a prompts mais curtos. Essa abordagem também reduz a latência das respostas nas solicitações. Os modelos da OpenAI já foram treinados em uma grande quantidade de texto, mas o fine tuning permite adaptá-los para tarefas em áreas de negócios específicas.</p>
<h3>Capítulo 9</h3>
<p><strong>Desvendando a caixa preta com ferramentas interpretáveis</strong>, o autor trás detalhes dos modelos de transformer, interpretando e visualizando suas tarefas. Apresenta o <em>BertViz</em> para visualizar as camadas de atenção, o <em>Language Interpretability Tool</em> (LIT) para rodar uma análise de componentes principais (PCA) e o <em>LIME</em> para visualizar os transformers por meio do aprendizado de dicionário. Além disso, os <strong>LLMs da OpenAI</strong> vão mais a fundo, permitindo visualizar a atividade de um neurônio em um transformer de forma interativa.</p>
<h3>Capítulo 10</h3>
<p>Em <strong>Investigando o papel dos Tokenizadores na formação de Modelos de transformadores</strong>, apresenta inicialmente as práticas recomendadas independentes de tokenizadores para avaliar a qualidade de um tokenizador. Descreve as diretrizes básicas para conjuntos de dados e tokenizadores sob a perspectiva da tokenização. O autor explora a abordagem de tokenizadores de palavras e subpalavras, e demonstra como um tokenizador pode moldar o treinamento e o desempenho de um modelo de transformers.</p>
<h3>Capítulo 11</h3>
<p>O capítulo com titulo <strong>Alavancando os incorporamentos de LLM como alternativa ao ajuste fino</strong>, explora por que a busca com incorporamento pode ser, às vezes, uma alternativa eficaz ao ajuste fino. São discutidas as vantagens e limitações dessa abordagem. Além disso, são explicados os fundamentos dos incorporamentos de texto. Para solidificar o aprendizado, implementa um código Python que lê um arquivo, o tokeniza e o incorpora com as bibliotecas <em>Gensim</em> e <em>Word2Vec</em>. Para concluir, você terá trabalhado desde o design de prompts até a engenharia avançada de prompts, utilizando incorporamentos para a RAG.</p>
<h3>Capítulo 12</h3>
<p><strong>Rumo à rotulagem de papéis semânticos sem sintaxe com o ChatGPT e o GPT-4</strong> explora os conceitos de modelos estocásticos sem sintaxe e não repetitivos. Utilizam o ChatGPT Plus com o GPT-4 para executar amostras de <em>Semantic Role Labeling</em> (SRL), com exemplos simples e complexos. Apresenta como um modelo de propósito geral reage às solicitações de SRL.</p>
<h3>Capítulo 13</h3>
<p>Em <strong>Sumarização com T5 e ChatGPT</strong>, o autor explica os conceitos e a arquitetura do modelo de transformer T5. Utiliza o T5 para resumir documentos com modelos da <em>Hugging Face</em>. Os exemplos neste capítulo estão relacionados a áreas jurídicas e médicas, buscando explorar a sumarização em domínios específicos do conhecimento. Também trás uma comparação das abordagens de sumarização entre o T5 e o ChatGPT.</p>
<h3>Capítulo 14</h3>
<p><strong>Explorando os LLMs de ponta com o Vertex AI e o PaLM 2</strong>. Apresenta o <em>Google PaLM 2</em>, um modelo com 540 bilhões de parâmetros. O PaLM 2 é um modelo autoregressivo, com ativação densa e decodificador. Explora como o PaLM 2 pode executar diversas tarefas como chat, classificação e geração de texto. O capítulo implementa a API do PaLM 2 dontro da Vertex AI, para várias tarefas de NLP, incluindo mas não se limitando, à perguntas e respostas e sumarização. FInaliza o capítulo, inclusive, com o processo de ajuste fino no Vertex AI.</p>
<h3>Capítulo 15</h3>
<p>Em <strong>Protegendo os gigantes: mitigando riscos em LLMs</strong>, exploram os riscos associados aos <em>Large Language Models</em> (LLMs) e estratégias para tentar mitigar os riscos. Estes são alguns riscos e abordagens de mitigação:</p>
<ol>
<li><strong>Alucinações</strong>: LLMs podem gerar respostas falsas ou incorretas, inegavelmente, levando à desinformação;</li>
<li><strong>Memorização</strong>: LLMs podem memorizar exemplos específicos de seus dados de treinamento, reproduzindo-os literalmente;</li>
<li><strong>Comportamento emergente arriscado</strong>: LLMs podem exibir comportamento inesperado ou prejudicial devido à sua complexidade;</li>
<li><strong>Desinformação</strong>: LLMs podem ocasionalmente gerar conteúdo que dissemina desinformação;</li>
<li><strong>Operações de influência</strong>: Atacantes maliciosos podem explorar LLMs para manipular a opinião pública ou enganar os usuários;</li>
<li><strong>Conteúdo prejudicial</strong>: LLMs podem produzir saídas sobretudo prejudiciais ou ofensivas, e até criminosas;</li>
<li><strong>Ataques adversários (“Jailbreaks”)</strong>: LLMs podem ser vulneráveis a manipulações intencional, comprometendo a integridade do conteúdo gerado.</li>
</ol>
<p>A fim de mitigar esses riscos, empregam técnicas avançadas de engenharia de prompts. Isso inclui a implementação de um modelo de moderação, a manutenção de uma base de conhecimento, a análise de palavras-chave, o uso de pilotos de prompts, a moderação pós-processamento e a alavancagem de incorporamentos, entre outras&#8230;</p>
<h3>Capítulo 16</h3>
<p>O texto <strong>Além do texto: transformers de visão no amanhecer da IA revolucionária</strong>, explora os modelos de transformers que respeitam a estrutura básica do transformer original, mas fazem algumas extensões significativas. Isso gerou poderosos transformers para visão, como o <strong>ViT</strong>, <strong>CLIP</strong>, <strong>DALL-E</strong> e <strong>GPT-4V</strong>. O autor implementa transformer de visão em Python, utilizando o GPT-4V, e expande as interações de texto-para-imagem do DALL-3. É importante destacar que os transformers vão além de texto e chegam até visão computacional.</p>
<h3>Capítulo 17</h3>
<p>Em <strong>Transcendendo a fronteira entre imagem e texto com a Stable Difusion</strong>, o autor explora os modelos de difusão, apresentando o <em>Stable Vision</em>, que, aliás, criou uma onda incrível de imagens realistas que está se espalhando pelo mercado. Explica os princípios, a matemática e implementa um código de <em>Stable Difusion</em> no Keras. O texto analisa cada um dos principais componentes de um modelo de <em>Stable Difusion</em> e examina os códigos do Keras. Para finalizar, também discute um modelo de de texto-para-vídeo com a <em>Hugging Face</em> e um modelo de vídeo-para-texto com o <em><strong>TimeSformer</strong></em> da Meta.</p>
<h3>Capítulo 18</h3>
<p><strong>Hugging Face AutoTrain: Treinando modelos de visão sem codificação</strong> explora como treinar um transformer de visão usando o <strong>AutoTrain</strong> da Hugging Face. O autor explica o processo de treinamento automatizado e o autor comenta os problemas imprevisíveis que demonstram por que até o aprendizado de máquina automatizado requer expertise humana. Este capítulo também trás uma discussão e mostra como explorar os limites de um modelo de visão computacional, independentemente de quão sofisticado ele seja.</p>
<blockquote><p>Este desafio de re-treino automatizado está presente, inclusive, no Machine Learning tradicional. Não é algo exclusivo da IA Generativa</p></blockquote>
<h3>Capítulo 19</h3>
<p><strong>No caminho para a IA geral funcional com o HuggingGPT e seus pares</strong> demonstra como podemos usar modelos encadeados entre plataformas para resolver problemas complexos de classificação de imagens. O autor compara o <strong>HuggingGPT</strong> e o <strong>Google Cloud Vision</strong> no trabalho de identificação de imagens fáceis, difíceis e muito difíceis. Além disso, o capítulo comenta as abordagens clássicas e explora como encadear modelos.</p>
<h3>Capítulo 20</h3>
<p><strong>Além dos prompts projetados por humanos com ideação generativa</strong> explora a ideação generativa, uma abordagem que automatiza a produção de ideias para conteúdo de texto e imagem. A fase de desenvolvimento destas ideações requer especialistas qualificados em IA. Já para o usuário final, a abordagem é uma experiência simples de <em>point and click</em>. O autor discute e nos faz pensar em ideias generativas éticas para empresas sem recursos de marketing, mas não se limita apenas à essa área de atuação.</p>
<p>&nbsp;</p>
<h2>Minha opinião</h2>
<p>Na minha opinião é um material rico para conhecer e aplicar a arquitetura de transformers para texto e visão computacional, codificando com Python. O livro oferece uma visão ampla, porém prática e aplicada, de como a arquitetura funciona e vários detalhes sobre os modelo de linguagem e te visão. É uma leitura densa, e pra mim, vou ter que estudar mais porque achei o assunto complexo. Não é do meu cotidiano trabalhar com GenAI, e por isso quero estudar mais antes de sair falando besteira por ai. As referências e leituras adicionais ajudarão quando eu tiver tempo para aprofundar.</p>
<p>Em linhas gerais recomendo a leitura, principalmente para quem se interessa pelo assunto de Inteligência Artificial. <a href="https://amzn.to/4bh2tOw" target="_blank" rel="noopener">A versão digital está na Amazon por um pouco menos de 250 reais</a> enquanto escrevo esse texto.</p>
<p>&nbsp;</p>
<h2>Transformers para texto e visão computacional</h2>
<p>A atualização do <a href="https://github.com/Denis2054/Transformers-for-NLP-and-Computer-Vision-3rd-Edition" target="_blank" rel="noopener">Github contendo os códigos</a> é frequente, inclusive no momento que posto esse texto, a ultima atualização de código foi ontem 29/04/2024.</p>
<p>&nbsp;</p>
<p>Bons estudos!</p>
<p>O post <a href="https://diegonogare.net/2024/04/transformers-para-texto-e-visao-computacional/">Review do livro &#8220;Transformer for natural language processing and computer vision &#8211; 3rd Edition&#8221;</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">3872</post-id>	</item>
		<item>
		<title>Extrair valores de seus documentos</title>
		<link>https://diegonogare.net/2020/04/extrair-valores-de-seus-documentos/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 06 Apr 2020 12:00:08 +0000</pubDate>
				<category><![CDATA[Cloud Computing]]></category>
		<category><![CDATA[azure]]></category>
		<category><![CDATA[cloud computing]]></category>
		<category><![CDATA[interpretação de linguagem natural]]></category>
		<category><![CDATA[NLP]]></category>
		<category><![CDATA[Serviços Cognitivos]]></category>
		<category><![CDATA[Visão Computacional]]></category>
		<guid isPermaLink="false">http://diegonogare.net/?p=3197</guid>

					<description><![CDATA[<p>Como utilizar seus documentos físicos para ajudar na tomada de decisão Que os dados são os bens mais valiosos que as empresas possuem, não temos duvidas, mas como podemos extrair valores de seus documentos antigos da mesma forma que fazemos com os dados digitais que são utilizados nas tomadas de decisões? Com o uso de...</p>
<p>O post <a href="https://diegonogare.net/2020/04/extrair-valores-de-seus-documentos/">Extrair valores de seus documentos</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h1>Como utilizar seus documentos físicos</h1>
<h2>para ajudar na tomada de decisão</h2>
<p>Que os dados são os bens mais valiosos que as empresas possuem, não temos duvidas, mas como podemos extrair valores de seus documentos antigos da mesma forma que fazemos com os dados digitais que são utilizados nas tomadas de decisões? Com o uso de técnicas de Inteligência Artificial das áreas de <a href="https://diegonogare.net/2020/03/5-passos-da-visao-computacional/" target="_blank" rel="noopener noreferrer">Visão Computacional</a> e também de <a href="https://diegonogare.net/2020/03/projeto-com-interpretacao-de-linguagem-natural/" target="_blank" rel="noopener noreferrer">Interpratação de Linguagem Natural</a>, combinado com o poder da Computação em Nuvem, é possível trabalhar nesta frente dentro da sua empresa.</p>
<p>Imagine ter uma solução similar aos sofisticados sistemas de busca web, como o Google ou Bing, para sua empresa. Sim, é possível permitir busca de um termo e analisar o retorno no formato já conhecido de textos, como também os retornos em imagens, videos, etc. Qualquer coisa que contenha aquele termo de busca será retornado. Seja de escrita em formato digital ou manual. Como também em representação de imagem, será retornado para você. E não é necessário desenvolver do zero esta solução. Você pode utilizar serviços prontos, como por exemplo, a Busca Inteligente e a Mineração de Conhecimento que é oferecido como Serviço Cognitivo.</p>
<h2>Extrair valores de seus documentos</h2>
<p>A oferta de Busca Inteligente e Mineração de Conhecimento, contudo, encapsula diversas técnicas separadas dos Serviços Cognitivos. Como OCR que recebe um documento que foi digitalizado e transforma em texto, visão computacional para criar legendas automáticas em imagens. A busca fonética permite que se encontre termos, mesmo que digitados errados, mas que tenha uma similaridade em sua forma. Entre outras soluções nativas dos serviços cognitivos&#8230;</p>
<p>Um exemplo de uso destas técnicas pode ser encontrado no projeto <a href="https://jfk-demo.azurewebsites.net/#/" target="_blank" rel="noopener noreferrer">JFK Files</a>, onde a Microsoft indexou os documentos publicos do caso. O vídeo abaixo explica um pouco do uso destas técnicas, contudo apresentou uma visão macro, utilizadas na construção deste projeto sobre o assassinato do presidente americano.</p>
<p><iframe src="https://www.youtube.com/embed/JFdF-Z7ypQo" width="560" height="315" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>O post <a href="https://diegonogare.net/2020/04/extrair-valores-de-seus-documentos/">Extrair valores de seus documentos</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">3197</post-id>	</item>
		<item>
		<title>5 passos da Visão Computacional</title>
		<link>https://diegonogare.net/2020/03/5-passos-da-visao-computacional/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 30 Mar 2020 12:00:42 +0000</pubDate>
				<category><![CDATA[Cloud Computing]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Serviços Cognitivos]]></category>
		<category><![CDATA[Visão Computacional]]></category>
		<guid isPermaLink="false">http://diegonogare.net/?p=3191</guid>

					<description><![CDATA[<p>Permita que o computador enxergue transformando a imagem em um conjunto de numeros Com o crescimento do poder da computação nos dias de hoje, e o entendimento cada vez maior das possibilidades do uso da Inteligência Artificial nas empresas, listei os 5 passos para Visão Computacional, que é uma das áreas de maior percepção do...</p>
<p>O post <a href="https://diegonogare.net/2020/03/5-passos-da-visao-computacional/">5 passos da Visão Computacional</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h1>Permita que o computador enxergue</h1>
<h2>transformando a imagem em um conjunto de numeros</h2>
<p>Com o crescimento do poder da computação nos dias de hoje, e o entendimento cada vez maior das <a href="https://diegonogare.net/2020/01/uso-da-inteligencia-artificial-no-cotidiano/" target="_blank" rel="noopener noreferrer">possibilidades do uso da Inteligência Artificial</a> nas empresas, listei os 5 passos para Visão Computacional, que é uma das áreas de maior percepção do uso da IA. Não porque está em evidência, mas porque é próxima ao comportamento humano, assim como a questão de <a href="https://diegonogare.net/2020/03/projeto-com-interpretacao-de-linguagem-natural/" target="_blank" rel="noopener noreferrer">interpretação de linguagem natural</a>. Com isso, as pessoas conseguem ter uma percepção melhor da Inteligência Artificial na resolução de problemas.</p>
<p>As técnicas de Visão Computacional procuram simular a visão natural, seja de um humano ou de um outro animal. O mais comum é simular a visão humana, com aplicações em projetos de reconhecimento de objetos em cena, análise de sentimentos em faces, reconhecimento de faces, entre outros. A análise de vídeo também entra nesta categoria, pois os vídeos são uma sequência de várias fotos passadas uma após a outra em um conjunto muito pequeno de tempo.</p>
<p>Recomendo a leitura do livro <a href="https://www.amazon.com.br/gp/product/8550807885/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=8550807885&amp;linkCode=as2&amp;tag=diegonogare-20&amp;linkId=d3f00e1742c23ea91ef3f44279472f52" target="_blank" rel="noopener noreferrer">A Revolução do Aprendizado Profundo</a><img decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-br.amazon-adsystem.com/e/ir?t=diegonogare-20&amp;l=am2&amp;o=33&amp;a=8550807885" alt="" width="1" height="1" border="0" />, para ter uma ideia mais ampla do uso das soluções de Deep Learning, além da Visão Computacional.</p>
<p>&nbsp;</p>
<h2>5 passos da Visão Computacional</h2>
<h3>Amostras de imagens</h3>
<p>Como todo sistema de Machine Learning, o seu projeto de Visão Computacional deve saber o que procurar na imagem. Para isso, ele precisa ser ensinado! Existem muitas bases de dados de imagens que são possíveis de se utilizar para ensinar a máquina. Algumas são bastante famosas, como por exemplo a <a href="http://www.image-net.org/" target="_blank" rel="noopener noreferrer">Imagenet</a>. Outras mais específicas para um domínio de assunto, como o <a href="https://sdo.gsfc.nasa.gov/data/aiahmi/" target="_blank" rel="noopener noreferrer">SDO &#8211; Solar Dynamics Observatory.</a></p>
<p>É importante definir como você pretende ensinar a máquina, e apresentar os exemplos reais que quer buscar e também os contra-exemplos. Esta necessidade é justamente para ensinar a máquina a encontrar os padrões do que realmente quer encontrar e divergir do que é parecido mas não é o que precisa. Imagine que está ensinando a máquina a reconhecer ovelhas que estão prontas para ter a lã retirada. É importante ter uma grande quantidade (e esse numero diverge bastante na literatura, então é difícil dizer uma quantidade mínima de amostras) de ovelhas, mas também apresentar diversas imagens de nuvens no céu para que sirvam de contra-exemplos.</p>
<p>&nbsp;</p>
<h3>Redimensionar os tamanhos</h3>
<p>Para facilitar a aprendizagem de máquina, é interessante que todas as imagens trabalhadas sigam um padrão de tamanho. Isso porque quanto maior for a imagem, mais detalhes e informação ela pode conter. Pense em uma imagem como uma matriz de números, onde cada pixel da imagem é um conjunto combinado de cores. Em uma imagem de 500 pixels de largura por 500 pixels de altura, existe no total 250.000 pixels naquela matriz. É bastante coisa, não é?! Agora imagine que as imagens sejam de tamanhos variados, algumas contendo 2000 x 2000 pixels de tamanho. São 4 milhões de pontos, isso só em uma imagem.</p>
<p>Redimensionar as imagens, para manter um padrão de tamanho aceitável é importante. Assim pode-se diminuir o processamento, mas sem perder a qualidade da imagem.</p>
<p>&nbsp;</p>
<h3>Aplicar os filtros</h3>
<p>Lembra da imagem de 500&#215;500 que comentei acima, agora aprofunde esse número para que cada um destes 250 mil pontos sejam representados por uma combinação de três canais de cores. O R representa a cor vermelha (Red), o G representa a cor verde (Green) e o B representa a cor azul (Blue). Imagine o tanto de processamento que é necessário para trabalhar com uma imagem desta, em todos os seus pixels e cores RGB. Com o objetivo de salvar um pouco de processamento mas sem perder qualidade da resposta, alguns filtros podem ser aplicados.</p>
<p>Uma técnica bastante utilizada é de transformar tudo em tons de cinza. Com isso, ao invés de ter a profundidade de 3 camadas de cores do RGB, é só uma camada que varia entre o preto e o branco, com um intervalo de 255 possibilidades sendo o valor 0 o preto absoluto e o valor 255 o branco absoluto. Todo o intervalo é um degradê saindo do preto e chegando ao branco, passando por vários tons de cinza. Se seu problema não precisa de cores, essa técnica pode ajudar.</p>
<p>Outra técnica que pode estender esse processamento, é a binarização para valores de branco e preto. É possível definir um valor de corte, que seria o tom de cinza escolhido. Com isso, qualquer valor de cor do pixel é comparado com esse numero de corte. Se o valor do pixel for inferior ao corte, ele passará a ser preto, se o valor for superior ao de corte, ele passará a ser branco. Isso transforma a imagem exclusivamente em preto e branco.</p>
<p>Filtro de bordas podem ser utilizados para dar realce à áreas de interpolação de objetos, destacando os objetos de acordo com a variação dos pixels à sua volta.</p>
<p>&nbsp;</p>
<h3>Limpar os ruídos</h3>
<p>Mesmo após aplicar os filtros para deixar as imagens mais fáceis de se trabalhar, é possível aplicar mais alguns filtros que ajudarão a tirar algumas impurezas da imagem. Estas impurezas são chamadas de ruído e não trazem benefícios reais.</p>
<p>Talvez um dos mais comuns seja o processo de convolução de imagem. Que por padrão faz uma média aritmética dos valores dos pixels à sua volta, e substitui o valor daquele pixel caso ele esteja fora do valor da média com o acréscimo de um desvio padrão.</p>
<p>Para ilustrar, mas sem ficar muito complexo, imagine que foi definido um valor de 9 pixels para acontecer a convolução da imagem. Este processo faz uma segmentação em janela com 3&#215;3 pixels, totalizando os 9 definidos. É analisado o pixel central, comparado com o valor da média aritmética de todos os outros 8 pixels à sua volta, incluindo os diagonais. Então o valor do pixel é comparado com o resultado do calculo acrescido do desvio padrão definido. Se o valor estiver fora daquele intervalo, então o algoritmo fará a substituição do valor do pixel pelo novo valor. E andará a janela de 9 pixels para a próxima combinação de valores. Seguirá fazendo isso até o fim da imagem. Com todas as imagens.</p>
<p>&nbsp;</p>
<h3>Treinar o modelo</h3>
<p>Depois de padronizar e limpar todas as imagens, é necessário criar o modelo que fará o reconhecimento do objeto que você deseja. Existem muitas bibliotecas e frameworks disponíveis para você utilizar em seus projetos. Uma das bibliotecas mais famosas é o <a href="https://opencv.org/" target="_blank" rel="noopener noreferrer">OpenCV</a>, que é da Intel e tem distribuição gratuita. Um framework bastante utilizado para treinar a máquina a reconhecer objetos em tempo real é o <a href="https://arxiv.org/abs/1506.02640" target="_blank" rel="noopener noreferrer">Yolo &#8211; You Only Look Once</a>. Mas será que vale fazer meu modelo do zero ou usar um framework já pronto? Na minha visão, a resposta é depende. Isso porque cada caso é um caso, e se você precisa de algo muito rápido para testar, usar as ferramentas prontas que permitem ajuste é uma boa saída. Contudo, se você precisa de algo muito específico, ai provavelmente terá que fazer do zero.</p>
<p>&nbsp;</p>
<p>Acredito que com essa leitura você terá entendido os 5 passos da Visão Computacional, e poderá adicionar a habilidade humana de enxergar aos seus projetos. Agora é estudar as formas de fazer isso, e colocar a mão na massa!</p>
<p>O post <a href="https://diegonogare.net/2020/03/5-passos-da-visao-computacional/">5 passos da Visão Computacional</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">3191</post-id>	</item>
		<item>
		<title>Como adicionar Inteligência Artificial ao seu projeto</title>
		<link>https://diegonogare.net/2020/03/como-adicionar-inteligencia-artificial-ao-seu-projeto/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 09 Mar 2020 12:00:48 +0000</pubDate>
				<category><![CDATA[Cloud Computing]]></category>
		<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Extração de conhecimento]]></category>
		<category><![CDATA[Indexação de Documentos]]></category>
		<category><![CDATA[Linguagem Natural]]></category>
		<category><![CDATA[Serviço Cognitivo]]></category>
		<category><![CDATA[Visão Computacional]]></category>
		<guid isPermaLink="false">http://diegonogare.net/?p=3151</guid>

					<description><![CDATA[<p>Projetos envolvendo Inteligência Artificial estão na moda mas você sabe como adicionar IA ao seu projeto? Observando todo o hype gerado pelas tecnologias de IA nos últimos anos, a guerra de tomar a liderança entre Estados Unidos e China, e a forma como os gestores enxergam isso, você sabe como adicionar Inteligência Artificial ao seu...</p>
<p>O post <a href="https://diegonogare.net/2020/03/como-adicionar-inteligencia-artificial-ao-seu-projeto/">Como adicionar Inteligência Artificial ao seu projeto</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h1>Projetos envolvendo Inteligência Artificial estão na moda</h1>
<h2>mas você sabe como adicionar IA ao seu projeto?</h2>
<p>Observando todo o <em>hype</em> gerado pelas tecnologias de <a href="https://diegonogare.net/2020/01/uso-da-inteligencia-artificial-no-cotidiano/" target="_blank" rel="noopener noreferrer">IA nos últimos anos</a>, a guerra de tomar a liderança entre <a href="https://diegonogare.net/2020/02/guerra-inteligencia-artificial-entre-china-estados-unidos/" target="_blank" rel="noopener noreferrer">Estados Unidos e China</a>, e a forma como os gestores enxergam isso, você sabe como adicionar Inteligência Artificial ao seu projeto? Entenda como consumir serviços prontos de IA, que podem ajudar a resolver problemas do seu negócio. Estas ferramentas de IA são oferecidas por diversos fornecedores como <a href="https://azure.microsoft.com/pt-br/services/cognitive-services/" target="_blank" rel="noopener noreferrer">Microsoft</a>, <a href="https://cloud.google.com/vision?hl=pt-br" target="_blank" rel="noopener noreferrer">Google</a>, <a href="https://aws.amazon.com/pt/rekognition/" target="_blank" rel="noopener noreferrer">Amazon</a>, <a href="https://www.ibm.com/watson/br-pt/" target="_blank" rel="noopener noreferrer">IBM</a>&#8230; E são técnicas conhecidas como serviços cognitivos, ou suas variabilidades semânticas, cobrindo cinco pilares:</p>
<ol>
<li style="list-style-type: none;">
<ol>
<li>Visão Computacional;</li>
<li>Interpretação e/ou geração de fala;</li>
<li>Interpretação de linguagem natural;</li>
<li>Pesquisa e indexação de documentos;</li>
<li>Extração de conhecimento coletivo.</li>
</ol>
</li>
</ol>
<p>A grande vantagem de uso é que você consegue adicionar IA em seus projetos, contudo, não precisa saber a fundo o que são e como funcionam estes processos. Você consome estas ferramentas através de chamadas de APIs, uso de SDKs ou serviços na nuvem que permitem baixar o resultado treinado e acoplá-lo no seu ambiente. Apesar de não precisar, é sempre bom conhecer as técnicas e processos que está utilizando.</p>
<p>Se você não tem as habilidades necessárias em Inteligência Artificial ou Machine Learning, mas precisa desenvolver produtos que utilizam estas técnicas, é recomendado contratar alguém que conheça do assunto para lhe ajudar. Por outro lado, se sua necessidade é algo que os serviços cognitivos já resolvem, usá-lo é uma grande saída! Em primeiro lugar porque você não precisa se preocupar em construir do zero do seu modelo, você vai consumir o serviço do fornecedor e terá os resultados funcionando no seu projeto. Em segundo lugar, os dados e modelos dos serviços são atualizados com frequência pelos fornecedores, fazendo com que você sempre tenha um resultado mais completo.</p>
<h2>Visão Computacional</h2>
<p>As ferramentas de Visão Computacional simulam o comportamento da visão biológica, mais especificamente a visão humana, pelo computador. É possível trabalhar com elementos para reconhecimento de objetos em imagens ou vídeos. Reconhecer faces em imagens. Comparar rostos e ver se são as mesmas pessoas&#8230; Analisar sentimentos em rostos, como também estimar idade e gênero da pessoa.</p>
<h2>Interpretação e/ou geração de fala</h2>
<p>Alguns pesquisadores dizem que as interações desta geração serão feitas através de voz, e não exclusivamente com cliques do mouse ou toques na tela. E para isso, é importante que o sistema consiga interagir com o usuário desta nova forma. Quando você ativa algum assistente pessoal como a <em>Alexa, Google Home, Siri </em>ou<em> Cortana</em>, e dá um comando de voz. O assistente interpreta o que você pediu, sintetiza aquilo para texto e dispara o comando internamente nos diversos sistemas que integram esse ambiente. O comando é processado, e algum retorno é feito. Esse retorno é então sintetizado de texto para voz e é reproduzido pelo alto-falante do assistente.</p>
<h2>Interpretação de linguagem natural</h2>
<p>Quando um texto é enviado para uma análise, é importante conseguir entender o que ele significa e extrair a ação que se espera dali. Mas esse texto pode vir escrito de diversas formas diferentes, e como podemos interpretá-los e entender o que eles significam? É ai que entra o papel da interpretação de linguagem natural (ou processamento de linguagem natural). Esta prática avançada de Inteligência Artificial auxilia a entender as intenções de cada texto e extrair possíveis entidades. O resultado desta técnica permite que as ações sejam pedidas de diversas formas diferentes, contudo, conseguem responder da mesma forma.</p>
<h2>Pesquisa e indexação de documentos</h2>
<p>Você já se deu conta que sistemas de buscas, como o Google, possuem a característica de fazer as buscas em diversas formas? Se você faz uma busca de um termo qualquer são retornados resultados envolvendo textos, imagens, localizações, videos. Qualquer coisa que contenha aquele termo de busca, e que está indexado nos servidores do Google, são retornados para você. Imagine agora ter essa mesma capacidade em seus documentos! Sim, as pesquisas e indexações de documentos permitem que você faça isso sem expor seus dados publicamente.</p>
<h2>Extração de conhecimento coletivo</h2>
<p>Quando desenvolvemos modelos de Machine Learning para resolver um problema da nossa empresa, é comum este problema ser específico e condizer com a nossa forma de trabalhar. Contudo, alguns problemas são genéricos, como por exemplo reconhecer um rosto. Independente de ser um rosto das pessoas da nossa empresa, ou do nosso maior concorrente, continuam sendo rostos e seguem (na maioria das vezes) o mesmo padrão. Mas não é necessário criar um modelo de Inteligência Artificial exclusivo para a nossa empresa, para reconhecer um rosto. Podemos usar estes serviços de forma coletiva.</p>
<p>Conheço como funciona a Microsoft, e os serviços cognitivos que eles oferecem são processados com frequência e estão com conjuntos de dados atualizados. Esse conhecimento coletivo que é fornecido para nós, oferece um modelo cada vez mais assertivo e atualizado. E o melhor é que a gente não precisa processar nada para ter isso, somente chamar a API e pronto!</p>
<h2>E agora, como eu faço para adicionar Inteligência Artificial ao meu projeto?</h2>
<p>Continue acompanhando os textos que vou publicar mais detalhes, de formas específicas, sobre cada uma destas áreas de atuação com serviços cognitivos. Recentemente fiz o exame AI-100 da Microsoft e fui aprovado, este exame está na lista dos <a href="https://diegonogare.net/2020/01/top-5-certificacoes-para-inteligencia-artificial/" target="_blank" rel="noopener noreferrer">Top 5 certificações de IA</a>, e ele cobra bastante coisa sobre arquitetura e serviços cognitivos. Vou usar alguns assuntos exigidos para ser aprovado no exame, para explicar as funcionalidades para vocês!</p>
<p>O post <a href="https://diegonogare.net/2020/03/como-adicionar-inteligencia-artificial-ao-seu-projeto/">Como adicionar Inteligência Artificial ao seu projeto</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">3151</post-id>	</item>
	</channel>
</rss>
