<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Arquivos Processamento de Linguagem Natural - Diego Nogare</title>
	<atom:link href="https://diegonogare.net/tags/processamento-de-linguagem-natural/feed/" rel="self" type="application/rss+xml" />
	<link>https://diegonogare.net/tags/processamento-de-linguagem-natural/</link>
	<description>Consultor Executivo de IA &#38; ML</description>
	<lastBuildDate>Tue, 15 Apr 2025 13:44:27 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/06/cropped-cropped-DN-Black-300x300-1.png?fit=32%2C32&#038;ssl=1</url>
	<title>Arquivos Processamento de Linguagem Natural - Diego Nogare</title>
	<link>https://diegonogare.net/tags/processamento-de-linguagem-natural/</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">247556142</site>	<item>
		<title>Review do livro &#8220;Transformer for natural language processing and computer vision &#8211; 3rd Edition&#8221;</title>
		<link>https://diegonogare.net/2024/04/transformers-para-texto-e-visao-computacional/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 29 Apr 2024 20:00:07 +0000</pubDate>
				<category><![CDATA[Review de Livro]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[NLP]]></category>
		<category><![CDATA[Processamento de Linguagem Natural]]></category>
		<category><![CDATA[python]]></category>
		<category><![CDATA[Transformers]]></category>
		<category><![CDATA[Visão Computacional]]></category>
		<guid isPermaLink="false">https://diegonogare.net/?p=3872</guid>

					<description><![CDATA[<p>Fiz mais um review de livro, como já tinha feito recentemente de MLOps, Azure Data Factory e algoritmos, mas desta vez foi &#8220;Transformer for natural language processing and computer vision &#8211; 3rd Edition&#8220;. O livro foi escrito por Denis Rothman e publicado pela Packt Pub. Neste livro você irá aprender sobre transformers para texto e...</p>
<p>O post <a href="https://diegonogare.net/2024/04/transformers-para-texto-e-visao-computacional/">Review do livro &#8220;Transformer for natural language processing and computer vision &#8211; 3rd Edition&#8221;</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Fiz mais um review de livro, como já tinha feito recentemente de <a href="https://diegonogare.net/2024/01/review-do-livro-machine-learning-engineering-with-python-mlops-ciclo-vida-modelos/" target="_blank" rel="noopener">MLOps</a>, <a href="https://diegonogare.net/2024/04/review-do-livro-azure-data-factory-cookbook-2nd-edition/" target="_blank" rel="noopener">Azure Data Factory</a> e <a href="https://diegonogare.net/2024/03/50-algoritmos-que-deve-conhecer/" target="_blank" rel="noopener">algoritmos</a>, mas desta vez foi &#8220;<em>Transformer for natural language processing and computer vision &#8211; 3rd Edition</em>&#8220;. O livro foi escrito por Denis Rothman e publicado pela Packt Pub. Neste livro você irá aprender sobre transformers para texto e visão computacional.</p>
<h2>O livro e seus capítulos</h2>
<p>Quero compartilhar minhas impressões iniciais, mas já sei que vou ter que ler mais vezes para realmente entender. Para mim esse assunto é novo, e achei difícil, por mais direto e didático que o Denis foi no livro, ainda sinto que é complexo e terei que estudar muito até ter confiança de sair falando de IA Generativa. O livro é uma leitura ampla, explica a arquitetura de transformers para texto e visão computacional. Em suas quase 700 páginas o livro possui 20 capítulos e está separado em três grandes grupos, sendo: Os Fundamentos dos Transformers; A Ascensão da NLP Supra-humana; Visão computacional generativa: uma nova maneira de ver o mundo.</p>
<p>Ao final de cada capítulo, acima de tudo, é possível ver as referências utilizadas para gerar o texto, além de algumas recomendações de leituras futuras para completar o aprendizado. FAlando em aprendizado, contudo, no final de cada capítulo você irá encontrar questões de Verdadeiro ou Falso sobre o que estudou. No final do livro tem o gabarito com as respostas, e algumas delas até tem uma explicação rápida da resposta correta.</p>
<p>Desde a arquitetura básica até aplicações práticas, este livro abrange:</p>
<div class="content" tabindex="0" aria-description="" aria-label="Enviado por Copilot: [1]: https://link.springer.com/chapter/10.1007/978-3-031-24349-3_6 &quot;&quot; [2]: https://www.goodreads.com/book/show/60114857-natural-language-processing-with-transformers &quot;&quot; [3]: https://www.mdpi.com/2078-2489/14/4/242 &quot;&quot; **Review do livro &quot;Transformer for natural language processing and computer vision - 3rd edition&quot;** Os **Transformers** revolucionaram o campo de Processamento de Linguagem Natural (NLP) e Visão Computacional. Nesta terceira edição do livro &quot;Transformer for natural language processing and computer vision&quot;, você encontrará insights atualizados e técnicas avançadas para dominar esses modelos. Desde a arquitetura básica até aplicações práticas, este livro abrange: - **Representações de Linguagem**: Aprenda como os Transformers aprendem representações ricas para palavras e frases. - **Tradução Automática**: Explore como os Transformers são usados para traduzir entre idiomas. - **Visão Computacional**: Descubra como aplicar os mesmos princípios aos dados de imagem. **Leia este livro e mergulhe no mundo dos Transformers!** **Principais TAGs**: NLP, Visão Computacional, Processamento de Linguagem Natural, Transformers. **Frase-Chave**: &quot;Review Transformers 3rd edition&quot; **Metadescrição**: &quot;Leia o review do livro &quot;Transformer for natural language processing and computer vision - 3rd edition&quot; e domine os Transformers em NLP e Visão Computacional.&quot;">
<div class="ac-container ac-adaptiveCard">
<div class="ac-textBlock">
<ul>
<li><strong>Representações de Linguagem</strong>: Entenda como os transformers aprendem representações ricas para palavras e frases.</li>
<li><strong>Tradução Automática</strong>: Discute como os transformers são usados para tradução de idiomas.</li>
<li><strong>Visão Computacional</strong>: Descubra como aplicar os mesmos princípios aos dados de imagem.</li>
</ul>
</div>
</div>
</div>
<p>Bom, vamos aos capítulos&#8230;</p>
<h3>Capítulo 1</h3>
<p><strong>O que são transformer? </strong>O autor explica, de forma abrangente, o conceito de transformer e os modelos fundamentais. O texto trás a complexidade de tempo <strong>O(1)</strong> desses modelos, que, segundo o texto, revolucionou diversas áreas. Além disso, destaca como os transformers se tornaram dominantes e trouxeram avanços significativos em várias áreas de pesquisa. Transformers são importantes para texto e também para visão computacional.</p>
<h3>Capítulo 2</h3>
<p><strong>Iniciando com a arquitetura do modelo transformer</strong> explora o contexto do Processamento de Linguagem Natural (NLP) e compreende como as arquiteturas de Redes Neurais Recorrentes (RNNs), Long Short-Term Memory (LSTM) e Redes Neurais Convolucionais (CNNs) foram abandonadas e abriram caminho para a arquitetura transformer. Nesse capítulo, o autor explora a arquitetura original do transformer, publicada no artigo científico <strong><a href="https://research.google/pubs/attention-is-all-you-need/" target="_blank" rel="noopener">Attention Is All You Need</a></strong>, desenvolvida por pesquisadores do Google Research e Google Brain. Além disso, descreve a teoria dos transformers e explora, na prática, como funcionam as subcamadas de múltiplas atenções em Python.</p>
<h3>Capítulo 3</h3>
<p>Em <strong>Tarefas emergentes vs. tarefas downstream: As profundezas invisíveis dos transformers</strong>, o autor estabelece uma conexão entre a arquitetura funcional e matemática dos transformers por meio da introdução do conceito de <em>emergência</em>. Em seguida, o autor aborda como medir o desempenho dos transformers antes de explorar diversas tarefas downstream, como o <em>Standard Sentiment TreeBank</em> (SST-2), a aceitabilidade linguística e os esquemas de <em>Winograd</em>.</p>
<blockquote><p>Não sei como traduzir Downstream, então mantive com o nome original. Se você tiver uma tradução apropriada, me conte e eu atualizo o post <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f642.png" alt="🙂" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p></blockquote>
<h3>Capítulo 4</h3>
<p>Já em <strong>Avanços em traduções com Google Trax, Google Translate e Gemini</strong>, o texto explora a tradução automática em três etapas. Primeiro, define o que é a tradução automática. Em seguida, explica o pré-processamento de um conjunto de dados do <a href="https://www.statmt.org/wmt14/" target="_blank" rel="noopener">Workshop on</a><br />
Statistical Machine Translation (WMT) de 2014. Por fim, demonstra como implementar códigos para traduções automáticas em Python.</p>
<h3>Capítulo 5</h3>
<p><strong>Aprofundando no ajuste fino com BERT</strong> discute a arquitetura do transformer original. O <em>Bidirectional Encoder Representations from Transformers</em> (BERT) leva os transformers a uma nova e vasta maneira de perceber o mundo do NLP. Em vez de analisar uma sequência passada para prever uma sequência futura, o BERT analisa a toda a sequência! O autor explora as principais inovações da arquitetura do BERT e, em seguida, ajusta um modelo BERT passo a passo em um <a href="https://www.youtube.com/watch?v=hNCRlWgziNk" target="_blank" rel="noopener">notebook do Google Colab</a>.</p>
<h3>Capítulo 6</h3>
<p>No <strong>Pré-treinando um modelo RoBERTa do zero</strong>, o texto implementa um modelo de transformer RoBERTa a partir do zero usando PyTorch na Hugging Face. Primeiro, é treinado um tokenizador em um conjunto de dados personalizado. Em seguida, é feito um pré-treino de modelo de suporte ao cliente com IA generativa.</p>
<h3>Capítulo 7</h3>
<p>No capítulo de <strong>A revolução da IA Generativa com o ChatGPT</strong>, o autor explora as melhorias significativas e a disseminação dos modelos ChatGPT no cotidiano de desenvolvedores e usuários finais. Inicialmente, é apresentada a arquitetura dos modelos GPT da OpenAI. Em seguida, trabalha com a API do GPT-4 e seus hiper-parâmetros para implementar diversos exemplos de NLP em Python. Por fim, aprendemos como obter melhores resultados com <em>Retrieval Augmented Generation</em> (RAG). No capítulo é implementado um exemplo de RAG com o GPT-4.</p>
<h3>Capítulo 8</h3>
<p><strong>Ajuste fino de modelos OpenAI GPT</strong>, é explorada a técnica de ajuste fino para aprimorar os modelos GPT disponíveis por meio da API. Com o ajuste fino é possível obter resultados de maior qualidade do que apenas com prompts. Além disso, permite treinar o modelo com mais exemplos do que caberia em um prompt e economizar tokens devido a prompts mais curtos. Essa abordagem também reduz a latência das respostas nas solicitações. Os modelos da OpenAI já foram treinados em uma grande quantidade de texto, mas o fine tuning permite adaptá-los para tarefas em áreas de negócios específicas.</p>
<h3>Capítulo 9</h3>
<p><strong>Desvendando a caixa preta com ferramentas interpretáveis</strong>, o autor trás detalhes dos modelos de transformer, interpretando e visualizando suas tarefas. Apresenta o <em>BertViz</em> para visualizar as camadas de atenção, o <em>Language Interpretability Tool</em> (LIT) para rodar uma análise de componentes principais (PCA) e o <em>LIME</em> para visualizar os transformers por meio do aprendizado de dicionário. Além disso, os <strong>LLMs da OpenAI</strong> vão mais a fundo, permitindo visualizar a atividade de um neurônio em um transformer de forma interativa.</p>
<h3>Capítulo 10</h3>
<p>Em <strong>Investigando o papel dos Tokenizadores na formação de Modelos de transformadores</strong>, apresenta inicialmente as práticas recomendadas independentes de tokenizadores para avaliar a qualidade de um tokenizador. Descreve as diretrizes básicas para conjuntos de dados e tokenizadores sob a perspectiva da tokenização. O autor explora a abordagem de tokenizadores de palavras e subpalavras, e demonstra como um tokenizador pode moldar o treinamento e o desempenho de um modelo de transformers.</p>
<h3>Capítulo 11</h3>
<p>O capítulo com titulo <strong>Alavancando os incorporamentos de LLM como alternativa ao ajuste fino</strong>, explora por que a busca com incorporamento pode ser, às vezes, uma alternativa eficaz ao ajuste fino. São discutidas as vantagens e limitações dessa abordagem. Além disso, são explicados os fundamentos dos incorporamentos de texto. Para solidificar o aprendizado, implementa um código Python que lê um arquivo, o tokeniza e o incorpora com as bibliotecas <em>Gensim</em> e <em>Word2Vec</em>. Para concluir, você terá trabalhado desde o design de prompts até a engenharia avançada de prompts, utilizando incorporamentos para a RAG.</p>
<h3>Capítulo 12</h3>
<p><strong>Rumo à rotulagem de papéis semânticos sem sintaxe com o ChatGPT e o GPT-4</strong> explora os conceitos de modelos estocásticos sem sintaxe e não repetitivos. Utilizam o ChatGPT Plus com o GPT-4 para executar amostras de <em>Semantic Role Labeling</em> (SRL), com exemplos simples e complexos. Apresenta como um modelo de propósito geral reage às solicitações de SRL.</p>
<h3>Capítulo 13</h3>
<p>Em <strong>Sumarização com T5 e ChatGPT</strong>, o autor explica os conceitos e a arquitetura do modelo de transformer T5. Utiliza o T5 para resumir documentos com modelos da <em>Hugging Face</em>. Os exemplos neste capítulo estão relacionados a áreas jurídicas e médicas, buscando explorar a sumarização em domínios específicos do conhecimento. Também trás uma comparação das abordagens de sumarização entre o T5 e o ChatGPT.</p>
<h3>Capítulo 14</h3>
<p><strong>Explorando os LLMs de ponta com o Vertex AI e o PaLM 2</strong>. Apresenta o <em>Google PaLM 2</em>, um modelo com 540 bilhões de parâmetros. O PaLM 2 é um modelo autoregressivo, com ativação densa e decodificador. Explora como o PaLM 2 pode executar diversas tarefas como chat, classificação e geração de texto. O capítulo implementa a API do PaLM 2 dontro da Vertex AI, para várias tarefas de NLP, incluindo mas não se limitando, à perguntas e respostas e sumarização. FInaliza o capítulo, inclusive, com o processo de ajuste fino no Vertex AI.</p>
<h3>Capítulo 15</h3>
<p>Em <strong>Protegendo os gigantes: mitigando riscos em LLMs</strong>, exploram os riscos associados aos <em>Large Language Models</em> (LLMs) e estratégias para tentar mitigar os riscos. Estes são alguns riscos e abordagens de mitigação:</p>
<ol>
<li><strong>Alucinações</strong>: LLMs podem gerar respostas falsas ou incorretas, inegavelmente, levando à desinformação;</li>
<li><strong>Memorização</strong>: LLMs podem memorizar exemplos específicos de seus dados de treinamento, reproduzindo-os literalmente;</li>
<li><strong>Comportamento emergente arriscado</strong>: LLMs podem exibir comportamento inesperado ou prejudicial devido à sua complexidade;</li>
<li><strong>Desinformação</strong>: LLMs podem ocasionalmente gerar conteúdo que dissemina desinformação;</li>
<li><strong>Operações de influência</strong>: Atacantes maliciosos podem explorar LLMs para manipular a opinião pública ou enganar os usuários;</li>
<li><strong>Conteúdo prejudicial</strong>: LLMs podem produzir saídas sobretudo prejudiciais ou ofensivas, e até criminosas;</li>
<li><strong>Ataques adversários (“Jailbreaks”)</strong>: LLMs podem ser vulneráveis a manipulações intencional, comprometendo a integridade do conteúdo gerado.</li>
</ol>
<p>A fim de mitigar esses riscos, empregam técnicas avançadas de engenharia de prompts. Isso inclui a implementação de um modelo de moderação, a manutenção de uma base de conhecimento, a análise de palavras-chave, o uso de pilotos de prompts, a moderação pós-processamento e a alavancagem de incorporamentos, entre outras&#8230;</p>
<h3>Capítulo 16</h3>
<p>O texto <strong>Além do texto: transformers de visão no amanhecer da IA revolucionária</strong>, explora os modelos de transformers que respeitam a estrutura básica do transformer original, mas fazem algumas extensões significativas. Isso gerou poderosos transformers para visão, como o <strong>ViT</strong>, <strong>CLIP</strong>, <strong>DALL-E</strong> e <strong>GPT-4V</strong>. O autor implementa transformer de visão em Python, utilizando o GPT-4V, e expande as interações de texto-para-imagem do DALL-3. É importante destacar que os transformers vão além de texto e chegam até visão computacional.</p>
<h3>Capítulo 17</h3>
<p>Em <strong>Transcendendo a fronteira entre imagem e texto com a Stable Difusion</strong>, o autor explora os modelos de difusão, apresentando o <em>Stable Vision</em>, que, aliás, criou uma onda incrível de imagens realistas que está se espalhando pelo mercado. Explica os princípios, a matemática e implementa um código de <em>Stable Difusion</em> no Keras. O texto analisa cada um dos principais componentes de um modelo de <em>Stable Difusion</em> e examina os códigos do Keras. Para finalizar, também discute um modelo de de texto-para-vídeo com a <em>Hugging Face</em> e um modelo de vídeo-para-texto com o <em><strong>TimeSformer</strong></em> da Meta.</p>
<h3>Capítulo 18</h3>
<p><strong>Hugging Face AutoTrain: Treinando modelos de visão sem codificação</strong> explora como treinar um transformer de visão usando o <strong>AutoTrain</strong> da Hugging Face. O autor explica o processo de treinamento automatizado e o autor comenta os problemas imprevisíveis que demonstram por que até o aprendizado de máquina automatizado requer expertise humana. Este capítulo também trás uma discussão e mostra como explorar os limites de um modelo de visão computacional, independentemente de quão sofisticado ele seja.</p>
<blockquote><p>Este desafio de re-treino automatizado está presente, inclusive, no Machine Learning tradicional. Não é algo exclusivo da IA Generativa</p></blockquote>
<h3>Capítulo 19</h3>
<p><strong>No caminho para a IA geral funcional com o HuggingGPT e seus pares</strong> demonstra como podemos usar modelos encadeados entre plataformas para resolver problemas complexos de classificação de imagens. O autor compara o <strong>HuggingGPT</strong> e o <strong>Google Cloud Vision</strong> no trabalho de identificação de imagens fáceis, difíceis e muito difíceis. Além disso, o capítulo comenta as abordagens clássicas e explora como encadear modelos.</p>
<h3>Capítulo 20</h3>
<p><strong>Além dos prompts projetados por humanos com ideação generativa</strong> explora a ideação generativa, uma abordagem que automatiza a produção de ideias para conteúdo de texto e imagem. A fase de desenvolvimento destas ideações requer especialistas qualificados em IA. Já para o usuário final, a abordagem é uma experiência simples de <em>point and click</em>. O autor discute e nos faz pensar em ideias generativas éticas para empresas sem recursos de marketing, mas não se limita apenas à essa área de atuação.</p>
<p>&nbsp;</p>
<h2>Minha opinião</h2>
<p>Na minha opinião é um material rico para conhecer e aplicar a arquitetura de transformers para texto e visão computacional, codificando com Python. O livro oferece uma visão ampla, porém prática e aplicada, de como a arquitetura funciona e vários detalhes sobre os modelo de linguagem e te visão. É uma leitura densa, e pra mim, vou ter que estudar mais porque achei o assunto complexo. Não é do meu cotidiano trabalhar com GenAI, e por isso quero estudar mais antes de sair falando besteira por ai. As referências e leituras adicionais ajudarão quando eu tiver tempo para aprofundar.</p>
<p>Em linhas gerais recomendo a leitura, principalmente para quem se interessa pelo assunto de Inteligência Artificial. <a href="https://amzn.to/4bh2tOw" target="_blank" rel="noopener">A versão digital está na Amazon por um pouco menos de 250 reais</a> enquanto escrevo esse texto.</p>
<p>&nbsp;</p>
<h2>Transformers para texto e visão computacional</h2>
<p>A atualização do <a href="https://github.com/Denis2054/Transformers-for-NLP-and-Computer-Vision-3rd-Edition" target="_blank" rel="noopener">Github contendo os códigos</a> é frequente, inclusive no momento que posto esse texto, a ultima atualização de código foi ontem 29/04/2024.</p>
<p>&nbsp;</p>
<p>Bons estudos!</p>
<p>O post <a href="https://diegonogare.net/2024/04/transformers-para-texto-e-visao-computacional/">Review do livro &#8220;Transformer for natural language processing and computer vision &#8211; 3rd Edition&#8221;</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">3872</post-id>	</item>
		<item>
		<title>Projeto com interpretação de linguagem natural</title>
		<link>https://diegonogare.net/2020/03/projeto-com-interpretacao-de-linguagem-natural/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Mon, 16 Mar 2020 12:00:19 +0000</pubDate>
				<category><![CDATA[Cloud Computing]]></category>
		<category><![CDATA[inteligencia artificial]]></category>
		<category><![CDATA[Luis]]></category>
		<category><![CDATA[NLP]]></category>
		<category><![CDATA[Processamento de Linguagem Natural]]></category>
		<category><![CDATA[QnA]]></category>
		<category><![CDATA[Serviço Cognitivo]]></category>
		<guid isPermaLink="false">http://diegonogare.net/?p=3195</guid>

					<description><![CDATA[<p>Processamento de Linguagem natural oferecendo uma tela sem botões a seu cliente Hoje em dia é muito comum os usuário interagirem de formas diferentes com seus aplicativos, e cada vez mais, é solicitado que se crie projeto com interpretação de linguagem natural. Isso não acontece só porque nos dias de hoje existe poder computacional disponível...</p>
<p>O post <a href="https://diegonogare.net/2020/03/projeto-com-interpretacao-de-linguagem-natural/">Projeto com interpretação de linguagem natural</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h1>Processamento de Linguagem natural</h1>
<h2>oferecendo uma tela sem botões a seu cliente</h2>
<p>Hoje em dia é muito comum os usuário interagirem de formas diferentes com seus aplicativos, e cada vez mais, é solicitado que se crie projeto com interpretação de linguagem natural. Isso não acontece só porque nos dias de hoje existe poder computacional disponível para isso, mas também porque é mais rápido desenvolver utilizando os <a href="https://diegonogare.net/2020/03/como-adicionar-inteligencia-artificial-ao-seu-projeto/" target="_blank" rel="noopener noreferrer">serviços cognitivos</a>.</p>
<p>Estes serviços permitem o usuário digitar uma ação de texto corrido, ou então para ele dizer (utilizando voz) o que deseja, ou até para explorar documentos. Estas tarefas são possíveis, graças à técnicas de processamento de linguagem natural. Estas técnicas não são atuais, <a href="https://diegonogare.net/2020/01/historia-da-inteligencia-artificial/" target="_blank" rel="noopener noreferrer">já existem desde a década de 60</a>!</p>
<h2>Como funciona a interpretação de linguagem natural</h2>
<p>Existem diversas técnicas computacionais que permitem interpretar os textos de forma natural. Você pode procurar por elementos e como técnicas, como:</p>
<p><strong><span style="text-decoration: underline;"><em>Stemming</em> </span></strong> que destacam o radical da palavra e se refere a um processo heurístico bruto que corta o final das palavras na esperança de atingir o objetivo corretamente na maioria das vezes;</p>
<p><span style="text-decoration: underline;"><em><strong>Lemmatization</strong></em></span> que se refere a fazer as coisas corretamente com o uso de uma análise de vocabulário e morfologia das palavras, buscando remover as terminações flexionadas e retornar a forma básica ou de dicionário de uma palavra.</p>
<p><span style="text-decoration: underline;"><em><strong>Stop Words</strong></em></span> que são as palavras de ligação, artigos, preposições, e outras palavras que fazem com que os textos sejam entendidos para os humanos, mas que não trazem muito benefício para a máquina na hora de interpretar o que está escrito ali.</p>
<p><strong><em><span style="text-decoration: underline;">Token</span> </em></strong>é o termo usado para a palavra, ou conjunto de palavras, que está sendo tratada naquele contexto da interpretação. Contudo, o <em>token</em> depende do <em><strong><span style="text-decoration: underline;">Corpus</span></strong></em>, que é o conjunto de documentos utilizado para aquele domínio de assunto. Todos os documentos utilizado naquele domínio são denominado de <em>Corpus</em>.</p>
<h2>O que fazer</h2>
<p>Pense que, quando um texto é enviado para uma análise, é fundamental entender o que ele significa para então tomar uma ação. Contudo, esse texto pode ser passado de diversas formas diferentes. Mas se isso acontece, como podemos interpretá-lo e entender o que se espera de resultado? É exatamente neste momento que as técnicas em projetos de interpretação de linguagem natural são aplicadas.</p>
<p>Estas técnicas auxiliam o modelo de Inteligência Artificial a entender as intenções de cada texto e extrair possíveis entidades. O resultado esperado é que, ao usar estas técnicas, as ações sejam realizadas de várias formas diferentes, mas, devem responder da mesma forma. Como acontece em uma conversa natural entre pessoas.</p>
<p>Se for utilizar os serviços cognitivos da Microsoft, você pode combinar as técnicas de QnA e LUIS.</p>
<h2>QnA</h2>
<p>É o serviço de Perguntas e Respostas, que permite criar relacionamentos entre o que é perguntado e o que é respondido. Diversas perguntas podem ser direcionadas à uma resposta, isso aumenta a variação de formas que as perguntas são feitas, para que o sistema possa responder de forma correta.</p>
<p>Os três itens de destaque do QnA são</p>
<ol>
<li><strong>Perguntas</strong> &#8211; é o que você espera que um usuário faça. As perguntas serão combinadas com respostas;</li>
<li><strong>Respostas</strong> &#8211; a resposta que será retornada quando um usuário fizer uma pergunta. A resposta está emparelhada com uma pergunta na base de conhecimento;</li>
<li><strong>Metadados</strong> &#8211; são tags associadas ao par de perguntas e respostas. Internamente, eles são representadas como pares de chave-valor e filtram os pares de Pergunta/Resposta para corresponder a uma consulta do usuário.</li>
</ol>
<h2>LUIS</h2>
<p>É o acrônimo de <em>Language Understanding Intelligent Service</em>. Que é responsável por receber uma sentença, ou declaração, e é responsável por extrair a intensão e entidade daquele texto. Os principais elementos do Luis são:</p>
<ol>
<li><strong>Declarações</strong> &#8211; as declarações são inseridas pelo usuário, e enviadas ao aplicativo, que é responsável por interpretá-la;</li>
<li><strong>Intenção</strong> &#8211; uma intenção representa uma tarefa ou ação que o usuário deseja executar. É um propósito ou objetivo expresso na declaração de um usuário;</li>
<li><strong>Entidades</strong> &#8211; A entidade representa uma palavra ou frase dentro do texto, que você deseja extrair.</li>
</ol>
<h2>Dicas de criação</h2>
<p>Ao criar projetos de interpretação de linguagem natural, é esperado que você adicione elementos que permitem e facilitem as interações do usuário com seu sistema. Contudo separei alguns elementos importantes para criar seu projeto.</p>
<ol>
<li><strong>Intenções</strong> &#8211; verifique se elas são distintas. Não crie sobreposição com enunciados como &#8216;Reservar um voo&#8217; e &#8216;Reservar um hotel&#8217;. Você pode diferenciar qual aspecto da &#8216;reserva&#8217; você quer extrari, definindo <span style="text-decoration: underline;">voo</span> e <span style="text-decoration: underline;">hotel</span> como entidades;</li>
<li><strong>Construir iterativamente</strong> &#8211; mantenha um conjunto separado de sentenças que não são usados ​​como exemplo de declaração ou ponto final. Continue melhorando o aplicativo para seu conjunto de testes, contudo adicione as novas frases para ensinar o aplicativo com as interações dos usuários. Adapte o conjunto de testes para refletir as declarações reais do usuário. Usar este conjunto de teste para avaliar cada iteração ou versão do aplicativo.</li>
<li><strong>Use a intenção Nenhuma (<em>none</em>)</strong> &#8211; essa é a intenção de <em>fallback</em>, significa que o aplicativo não sabe o que é aquela sentença enviada pelo usuário. Adicione ao menos 1 exemplo de sentença à intenção Nenhuma, mas faça isso para cada 10 sentenças de exemplo do seu aplicativo.</li>
</ol>
<h2>Projeto com interpretação de linguagem natural</h2>
<p>Neste <a href="https://youtu.be/4GczYPeg3KQ" target="_blank" rel="noopener noreferrer">vídeo</a> é explicado como é fácil criar um Bot que interpreta textos para responder uma FAQ.</p>
<p><iframe src="https://www.youtube.com/embed/4GczYPeg3KQ" width="560" height="315" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>&nbsp;</p>
<p>O post <a href="https://diegonogare.net/2020/03/projeto-com-interpretacao-de-linguagem-natural/">Projeto com interpretação de linguagem natural</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">3195</post-id>	</item>
	</channel>
</rss>
