No artigo Interpersonal Trust in the Era of Scientific Communication with Artificial Intelligence – An Essay, que publiquei com meu orientador original do doutorado, relatamos que a ciência enfrenta um dilema ético sem precedentes, onde a produção de conhecimento de alta qualidade exige tempo e recursos, mas esbarra na pressão por velocidade.
Bom, porque comentei do nosso ensaio? Principalmente porque este assunto ganhou novos contornos com o lançamento do Prism, o novo espaço de trabalho da OpenAI para cientistas, e o aumento exponencial de submissões em conferências como a ICLR 2026, que atingiu volumes recordes de artigos.
O cenário atual preocupa a comunidade acadêmica devido ao uso desenfreado de IA para gerar conteúdo e realizar a revisão por pares, uma etapa fundamental que garante a qualidade e veracidade das descobertas antes de chegarem à sociedade. Embora ferramentas como o Prism prometam otimizar a escrita, o nosso ensaio já alertava para o risco de erosão da confiança pública e a criação de um ecossistema de “artigos slop”. PRecisamos, enquanto sociedade, ficar de olho nisso! Temos que, de alguma forma, assegurar a manutenção da curadoria humana e da transparência no uso dessas tecnologias para evitar que o progresso científico seja sufocado por automações superficiais e enviesadas que só sabem encontrar a próxima palavra apropriada para o contexto que estão gerando.
O valor invisível da pesquisa rigorosa
Muitas pessoas utilizam tecnologias avançadas diariamente sem perceber que elas são frutos de décadas de rigor científico. O GPS do seu smartphone, por exemplo, só funciona devido a estudos complexos sobre a teoria da relatividade lá do Einstein. Da mesma forma, a tecnologia de telas OLED que você vai utilizar para ver a Copa do Mundo deste ano, resultaram de investimentos massivos em energia e intelecto humano. E veja, não estou fazendo juízo de valor se a pesquisa é originária da indústria ou de órgãos públicos, meu ponto é a pesquisa em si. Com isso, quando buscamos atalhos na produção científica, colocamos em xeque a qualidade desses produtos finais, que consequentemente, transformam a nossa vida em sociedade.
Não sei se é de conhecimento geral, mas a pesquisa científica não é apenas um exercício acadêmico. Ela consome recursos financeiros e mentais significativos. Por sua vez, o processo de revisão por pares atua como um filtro crítico contra o erro. São nestas duas etapas que a automação excessiva desse pode deixar passar falhas graves. Isso sem contar que a confiança interpessoal é um dos pilares do aprendizado. Se o público percebe que o conteúdo não nasce do conhecimento humano, surge um sentimento de decepção e traição. Ao invés de trazer o leitor para perto, vcoê o afasta.
O boom das publicações e o “Slop” científico
O volume de publicações científicas tem batido recordes anuais, mas a qualidade nem sempre acompanha a quantidade. Em um sub do Reddit, no r/MachineLearning, estudantes de doutorado discutem a dificuldade de navegar na “era dos artigos slop”. Este termo descreve textos gerados por IA que parecem técnicos, muito bem elaborados, mas carecem de profundidade ou originalidade. Infelizmente, essa tendência sobrecarrega os revisores humanos, que muitas vezes recorrem à própria IA para dar conta da demanda. Olha o problema que temos, a IA gera o conteúdo, a IA revisa o conteúdo, a IA usa esse conteúdo para aprender e depois gerar mais conteúdo com base no que aprendeu. É por isso que o termo Slop remete à esse desperdício. E inclusive o termo Slop foi escolhida como a palavra do ano pelo dicionário Merriam-Webster.
A transparência é a única saída para preservar a autoridade dos comunicadores de ciência. Por respeito e consciência limpa, os leitores devem ser informados quando a IA gera ou auxilia o conteúdo (repare que nos meus textos, no final do post, eu compartilho o prompt que uso para fazer a imagem de capa quando uso IA Generativa para isso). Além disso, grandes editoras como Elsevier e IEEE já estabeleceram que o autor humano é o único responsável final pelo conteúdo. Sem essa responsabilidade, o risco de perpetuar vieses e informações falsas aumenta drasticamente.
Prism: A promessa da OpenAI para aumentar a produtividade
Recentemente, a OpenAI lançou o Prism, uma plataforma desenhada especificamente para auxiliar pesquisadores na organização e redação de textos científicos. A ferramenta promete integrar busca bibliográfica e síntese de dados de forma fluida. Embora o potencial de otimização seja claro, a comunidade precisa se manter cética sobre como isso afetará a autenticidade das publicacões científicas futuras.
Mais uma vez volto ao ensaio, a IA deve agir como uma ferramenta de suporte, não como um substituto integral para o trabalho intelectual humano. A curadoria humana garante que a ética e a sensibilidade do pesquisador permaneçam no centro do trabalho. Afinal, a ciência é baseada na credibilidade dos resultados apresentados.
Veja, a importância de manter o rigor científico nas pesquisas é tanto econômica quanto social. Se a base do conhecimento for corrompida por processos de revisão superficiais, o desenvolvimento de novos remédios, materiais de uso primários e tecnologias será mais lento e perigoso. O Prism pode ser um ótimo aliado para eliminar tarefas burocráticas, mas apenas se for utilizado sob uma governança ética rigorosa. Lembre-se, as ferramentas de IA são ferramentas. Use-as como tal, não como substitutos.
É complicado!
A ciência brasileira e internacional precisa equilibrar a eficiência da IA com a profundidade da mente humana para garantir que a inovação continue servindo ao bem comum. O uso da tecnologia para mascarar a falta de esforço intelectual é um problema de negócio latente, pois decisões corporativas baseadas em pesquisas “automatizadas” e sem validação podem levar a investimentos desastrosos. Além, é claro, de encolhimento do mercado por desacreditarem nos resultados práticos aplicados.
Ainda não testei o Prism, afinal, ele foi lançado há poucos dias. Mas farei em breve para avaliar se ele realmente preserva o rigor esperado ou se apenas facilita o “slop”. Publicarei os resultados e minha impressão sobre a ferramenta aqui no blog!
Bons estudos!
Imagem de capa gerada com o Nano Banana 3, com esse prompt: Ilustração digital de um cientista humano caricato, revisando uma pilha de manuscritos, contrastando com hologramas da OpenAI Prism gerando fluxos digitais de “AI slop”. A cena deve simbolizar a pressão por produtividade e a crise de integridade na ciência, destacando o papel vital da curadoria humana e da transparência.

