<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Arquivos Apriori - Diego Nogare</title>
	<atom:link href="https://diegonogare.net/tags/apriori/feed/" rel="self" type="application/rss+xml" />
	<link>https://diegonogare.net/tags/apriori/</link>
	<description>Consultor Executivo de IA &#38; ML</description>
	<lastBuildDate>Tue, 15 Apr 2025 13:41:37 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://i0.wp.com/diegonogare.net/wp-content/uploads/2025/06/cropped-cropped-DN-Black-300x300-1.png?fit=32%2C32&#038;ssl=1</url>
	<title>Arquivos Apriori - Diego Nogare</title>
	<link>https://diegonogare.net/tags/apriori/</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">247556142</site>	<item>
		<title>Algoritmo Apriori para sistemas de recomendação</title>
		<link>https://diegonogare.net/2020/05/algoritmo-apriori-para-sistemas-de-recomendacao/</link>
		
		<dc:creator><![CDATA[Diego Nogare]]></dc:creator>
		<pubDate>Wed, 06 May 2020 12:00:28 +0000</pubDate>
				<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Apriori]]></category>
		<category><![CDATA[association rules]]></category>
		<category><![CDATA[mineracao de dados]]></category>
		<category><![CDATA[Regras de Associação]]></category>
		<category><![CDATA[Sistemas de Recomendação]]></category>
		<guid isPermaLink="false">http://diegonogare.net/?p=3405</guid>

					<description><![CDATA[<p>Sistemas de recomendação para por em prática as regras de associação Arrisco dizer que o algoritmo Apriori para sistemas de recomendação é a forma mais efetiva para colocar em prática as regras de associação. Mas isso só ocorre porque, para criar regras de forma efetiva, é necessário evitar o trabalho de força bruta. O princípio...</p>
<p>O post <a href="https://diegonogare.net/2020/05/algoritmo-apriori-para-sistemas-de-recomendacao/">Algoritmo Apriori para sistemas de recomendação</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h1>Sistemas de recomendação</h1>
<h2>para por em prática as regras de associação</h2>
<p>Arrisco dizer que o algoritmo Apriori para sistemas de recomendação é a forma mais efetiva para colocar em prática as <a href="https://diegonogare.net/2020/05/explicando-o-algoritmo-de-regra-de-associacao/" target="_blank" rel="noopener noreferrer">regras de associação</a>. Mas isso só ocorre porque, para criar regras de forma efetiva, é necessário evitar o trabalho de força bruta.</p>
<p>O princípio do algoritmo Apriori diz que um <em><strong>𝑘−𝑖𝑡𝑒𝑚𝑠𝑒𝑡</strong></em> só será entendido como frequente se todos seus <em><strong>(𝑘−1)−𝑖𝑡𝑒𝑚𝑠𝑒𝑡</strong></em> forem frequentes. Ou seja, um conjunto de itens é frequente se seu suporte, que é a segmentação de registros criando um subconjunto de dados que contém os itens, está acima de um determinado limite mínimo (pode ser chamado de suporte mínimo). Ao se decompor este comportamento em duas fases distintas, pode-se encontrar o subconjunto de itens frequentes quando estes itens satisfazem o mínimo de suporte. E para gerar as regras de associação, a partir destes itens frequentes, deve satisfazer o mínimo da confiança (pode ser chamada de confiança mínima).</p>
<p>Um padrão encontrado nas transações pode ser considerado confiável se ele aparecer em uma alta porcentagem de casos aplicáveis. Contudo, para se trabalhar com regras de associação, também é entendido que o algoritmo é confiável se tiver um valor de confiança alto. A tarefa de encontrar os itens frequentes dentro do conjunto de dados é repetitiva, e se encerra quando a combinação de itens frequentes não for mais satisfatória.</p>
<h2>Aplicação do Algoritmo Apriori</h2>
<p>Na primeira iteração do processo, o algoritmo gera o<em><strong> 1−𝑖𝑡𝑒𝑚𝑠𝑒𝑡</strong></em>, onde a combinação destes elementos é superior ao suporte que foi definido. Os elementos que satisfazem o valor mínimo de suporte são então selecionados e combinados, gerando o <em><strong>2−𝑖𝑡𝑒𝑚𝑠𝑒𝑡</strong></em>, e mais uma vez o suporte para esse novo conjunto é calculado. Novamente há uma iteração do processo selecionando itens que satisfaçam o mínimo de suporte e combinada com o conjunto de itens anterior, criando o <em><strong>3−𝑖𝑡𝑒𝑚𝑠𝑒𝑡</strong></em>. E assim segue com as iterações até que o sub-conjunto de itens criado não satisfaça o valor mínimo de suporte, deixando de ser considerado um conjunto de item frequente.</p>
<p>Por exemplo, imagine que esta ilustração em forma de grafo é uma base de dados que será utilizada para criar as regras de associação.</p>
<p><img data-recalc-dims="1" fetchpriority="high" decoding="async" class="alignnone size-full wp-image-3408" src="https://i0.wp.com/diegonogare.net/wp-content/uploads/2020/05/base_apriori.jpg?resize=600%2C473&#038;ssl=1" alt="base apriori" width="600" height="473" srcset="https://i0.wp.com/diegonogare.net/wp-content/uploads/2020/05/base_apriori.jpg?w=600&amp;ssl=1 600w, https://i0.wp.com/diegonogare.net/wp-content/uploads/2020/05/base_apriori.jpg?resize=300%2C237&amp;ssl=1 300w" sizes="(max-width: 600px) 100vw, 600px" /></p>
<p>Lembre-se que, se um item é considerado frequente, então todos seus subitens também são considerados frequentes. Para entender essa afirmação, observe a ilustração abaixo (com as marcações em azul) no qual o item <strong>𝐶𝐷𝐸</strong> foi considerado frequente, e consequentemente todos os itens anteriores àquele elemento também são considerados frequentes. A cor azul destaca os nós que foram considerados frequentes dada essa afirmação<strong> 𝐶𝐷</strong>, <strong>𝐶𝐸</strong>,<strong> 𝐷𝐸</strong>,<strong> 𝐶</strong>,<strong> 𝐷</strong> e<strong> 𝐸</strong>, incluindo o conjunto vazio, NULL.</p>
<p><img data-recalc-dims="1" decoding="async" class="alignnone wp-image-3407 size-full" src="https://i0.wp.com/diegonogare.net/wp-content/uploads/2020/05/base_apriori_frequente.jpg?resize=600%2C473&#038;ssl=1" alt="Apriori frequente" width="600" height="473" srcset="https://i0.wp.com/diegonogare.net/wp-content/uploads/2020/05/base_apriori_frequente.jpg?w=600&amp;ssl=1 600w, https://i0.wp.com/diegonogare.net/wp-content/uploads/2020/05/base_apriori_frequente.jpg?resize=300%2C237&amp;ssl=1 300w" sizes="(max-width: 600px) 100vw, 600px" /></p>
<p>&nbsp;</p>
<p>Seguindo a mesma estratégia, porém com a lógica invertida, a imagem abaixo (com as marcações em rosa) apresenta o conjunto<strong> 𝐴𝐵</strong> que não foi considerado frequente, logo os itens derivados deste item <strong>𝐴𝐵</strong> também serão desconsiderados e não terão regras sendo criadas para os itens <strong>𝐴𝐵𝐶</strong>, <strong>𝐴𝐵𝐷</strong>, <strong>𝐴𝐵𝐸</strong>, <strong>𝐴𝐵𝐶𝐷</strong>, <strong>𝐴𝐵𝐶𝐸</strong>, <strong>𝐴𝐵𝐷𝐸</strong> e <strong>𝐴𝐵𝐶𝐷𝐸</strong>. Com destaque em rosa estão os nós dos itens que foram desconsiderados para a criação das regras.</p>
<p><img data-recalc-dims="1" decoding="async" class="alignnone wp-image-3409 size-full" src="https://i0.wp.com/diegonogare.net/wp-content/uploads/2020/05/base_apriori_nao_frequente.jpg?resize=600%2C473&#038;ssl=1" alt="apriori não frequente" width="600" height="473" srcset="https://i0.wp.com/diegonogare.net/wp-content/uploads/2020/05/base_apriori_nao_frequente.jpg?w=600&amp;ssl=1 600w, https://i0.wp.com/diegonogare.net/wp-content/uploads/2020/05/base_apriori_nao_frequente.jpg?resize=300%2C237&amp;ssl=1 300w" sizes="(max-width: 600px) 100vw, 600px" /></p>
<p>&nbsp;</p>
<h2>Métodos de avaliação do algoritmo</h2>
<p>Como métodos validados que permitem avaliar a criação das regras de associação, pode-se destacar:</p>
<ul>
<li>Medidas objetivas com base em probabilidade de <strong>suporte</strong> e <strong>confiança</strong>;</li>
<li>Medidas subjetivas que definem <strong>peculiaridade</strong> e <strong>surpresa</strong> dos dados.</li>
</ul>
<p>As métricas de <a href="https://diegonogare.net/2020/05/explicando-o-algoritmo-de-regra-de-associacao/" target="_blank" rel="noopener noreferrer"><strong>Suporte</strong> e <strong>Confiança</strong></a> já foram discutidas em outro texto.</p>
<p><strong>Peculiaridade</strong>: A medida pode ser considerada peculiar se estiver distante de outros padrões descobertos, se baseando em alguma medida de distância. Padrões peculiares são gerados com dados peculiares, que na estatística são conhecidos como <em>outliers</em>. Espera-se que tenha baixa representatividade absoluta na base de dados, e por causa disso, seja significativamente diferente do restante dos dados. Padrões peculiares geralmente são desconhecidos para os usuários, isso traz à tona uma característica interessante que pode passar despercebida pela área de negócio que solicitou o projeto.</p>
<p><strong>Surpresa</strong>: Para um padrão ser surpreendente, é esperado que ele contradiga o senso comum, ou expectativas, de um usuário ao analisar o resultado. Um padrão que é uma exceção à regra, ou seja, foge de um padrão geral que já foi descoberto, também podem ser considerados surpreendente. Em grande parte dos casos são descobertas interessantes, porque destacam divergência de conhecimento prévio e pode sugerir uma abordagem de que haja dados que precisam de mais estudos.</p>
<blockquote><p>Muitas vezes, resultados que apresentam peculiaridade e surpresa, incomodam os &#8220;<span style="text-decoration: underline;">donos de verdades absolutas</span>&#8220;. Isso porque estas pessoas não esperavam que o comportamento coletivo fosse diferente do que se era desejado/esperado, baseado em suas crenças.</p></blockquote>
<h2>Material de referência</h2>
<p>Como este texto é continuação do que escrevi sobre <a href="https://diegonogare.net/2020/05/explicando-o-algoritmo-de-regra-de-associacao/" target="_blank" rel="noopener noreferrer">Explicando o algoritmo de Regra de Associação</a>, as referências são as mesmas. Usei o livro <a href="https://www.amazon.com.br/gp/product/8573937610/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=8573937610&amp;linkCode=as2&amp;tag=diegonogare-20&amp;linkId=d88402b92d014505ad17511837e12933" target="_blank" rel="noopener noreferrer">Introdução ao Data Mining. Mineração de Dados</a><img loading="lazy" decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-br.amazon-adsystem.com/e/ir?t=diegonogare-20&amp;l=am2&amp;o=33&amp;a=8573937610" alt="" width="1" height="1" border="0" /> e também <a href="https://www.amazon.com.br/gp/product/853528446X/ref=as_li_tl?ie=UTF8&amp;camp=1789&amp;creative=9325&amp;creativeASIN=853528446X&amp;linkCode=as2&amp;tag=diegonogare-20&amp;linkId=4f2476b9910ea659000c3b1084352542" target="_blank" rel="noopener noreferrer">Introdução à mineração de dados: com Aplicações em R</a><img loading="lazy" decoding="async" style="border: none !important; margin: 0px !important;" src="//ir-br.amazon-adsystem.com/e/ir?t=diegonogare-20&amp;l=am2&amp;o=33&amp;a=853528446X" alt="" width="1" height="1" border="0" /> e o artigo <a href="https://dl.acm.org/doi/10.1145/1132960.1132963" target="_blank" rel="noopener noreferrer">Interestingness measures for data mining: A survey</a>.</p>
<p>O post <a href="https://diegonogare.net/2020/05/algoritmo-apriori-para-sistemas-de-recomendacao/">Algoritmo Apriori para sistemas de recomendação</a> apareceu primeiro em <a href="https://diegonogare.net">Diego Nogare</a>.</p>
]]></content:encoded>
					
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">3405</post-id>	</item>
	</channel>
</rss>
