A avaliação da pesquisa vem, de forma crescente nas últimas décadas, sendo conduzida por meio de indicadores e grandezas numéricos, os quais vêm progressivamente substituindo a avaliação feita pelos pares.

Um dos primeiros índices de impacto para ranquear periódicos foi o Fator de Impacto (FI) criado por Eugene Garfield, fundador do Institute for Scientific Information (ISI) em 1975. Foi criado originalmente para auxiliar na seleção de periódicos a serem indexados no Science Citation Index, com o intuito de fazer que periódicos menores, porém que fossem altamente citados, pudessem ser selecionados. O índice de impacto, até os anos 2000, restrito a análise por especialistas, foi incorporado pela agencia internacional Thomson Reuters e a partir de então o FI e a base de dados do indicador, o Journal Citation Reports (external link) (JCR), tornam-se parte da Web of Knowledge.

O FI permanece sem concorrentes até 2004, com a criação da base Scopus da Elsevier e do Google Scholar (versão beta). A seguir, proliferam ferramentas web para análise de produtividade e impacto como InCites e SciVal, utilizando as plataformas da Web of Knowledge e Scopus, respectivamente. No ano seguinte, o físico Jorge Hirsch propôs o índice-h um modelo elegante de avaliação do desempenho individual de pesquisadores com base em dados de citação. 1 Em 2007 foi lançado o popular Publish or Perish (external link), software para analisar o perfil de citações com base na plataforma Google Scholar.

As ferramentas inicialmente desenvolvidas para ranquear periódicos foram sendo cada vez mais empregadas para avaliar pesquisadores com vistas a projeção na carreira, contratações e concessão de financiamento para pesquisa. 2-4 Seu uso indiscriminado levou a ações como a Declaração de São Francisco sobre Avaliação da Pesquisa (external link) de Dezembro de 2012, e a inúmeros artigos que analisam as limitações de índices de impacto baseados em citações e seu uso indiscriminado na avaliação do desempenho acadêmico. A “obsessão pelo FI” 5 e a pressão sem precedentes por publicar em periódicos de alto impacto no meio acadêmico gera distorções como o aumento do número de autores por artigo e comportamentos antiéticos tais como fabricação de resultados, plágio e inclusive pareceres forjados. 6-8

Nas últimas duas décadas, com o advento da Internet e de redes sociais, proliferaram métricas baseadas em medidas de uso e download, e também resultantes do compartilhamento de opiniões e informação sobre artigos científicos em mídias sociais. Medidas alternativas de impacto tais como Altmetrics, e métricas baseadas em compartilhamentos em Twitter, Mendeley, ResearchGate, Facebook e muitas outras estão ancoradas em uma abordagem inovadora, com foco no artigo individualmente e não mais no periódico. Estudos recentes apontam que as métricas baseadas em redes sociais apresentam correlação com métricas tradicionais de impacto e podem, de fato, ser usadas para complementá-las. 9

Estudiosos reunidos na 19° Conferência Internacional de Indicadores em Ciência e Tecnologia (STI 2014 (external link)) realizada em setembro de 2014, em Leiden, Holanda, elaboraram um conjunto de recomendações para orientar sobre o uso de métricas em avaliação da pesquisa. Muitas delas já são conhecidas dos pareceristas, porém são negligenciadas no momento da avaliação, que acabam privilegiando os indicadores.
Conheça as dez diretrizes do Manifesto de Leiden na versão em espanhol (external link) ou inglês (external link).

Referências

1 HIRSCH, JE. An index to quantify an individual’s scientific research output. PNAS. 2005, vol. 102, nº 46, pp. 16569–16572. Available from: http://www.pnas.org/content/102/46/16569.full (external link)
2 Ioannidis, JPA. Concentration of the most-cited papers in the scientific literature: Analysis of journal ecosystems. PLoS One. 2006, DOI: 10.1371/journal.pone.0000005. http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0000005 (external link)
3 Van Noorden, R., Maher, BNR. The top 100 papers. Nature. 2014, vol. 514, nº 7524, pp. 550-553. DOI: 10.1038/514550a http://www.nature.com/news/the-top-100-papers-1.16224 (external link)
4 Hazelhorn, E. rankings and the Reshaping of Higher Education: the battle for World-Class Excellence. London: MacMillan Publishers Ltd., 2011
5 Hicks D, Wouters P, Waltman L, de Rijcke S, Rafols I. Bibliometrics: The Leiden Manifesto for research metrics. Nature 520, 429–431 doi:10.1038/520429a. http://www.nature.com/news/bibliometrics-the-leiden-manifesto-for-research-metrics-1.17351 (external link)
6 Did you know…“Publish or perish” has been worrying researchers for 60 years? Research Trends. 2010, nº 16. http://www.researchtrends.com/category/issue16-march-2010/ (external link)
7 Bohannon, J. Study of massive preprint archive hints at the geography of plagiarism. ScienceInsider. http://news.sciencemag.org/scientific-community/2014/12/study-massive-preprint-archive-hints-geography-plagiarism (external link)
8 Filion, G. A flurry of copycats on PubMed. The Grand Locus. http://blog.thegrandlocus.com/2014/10/a-flurry-of-copycats-on-pubmed (external link)
9 Hoffmann, C.P., Lutz, C., Meckel, M. Impact Factor 2.0: Applying Social Network Analysis to Scientific Impact Assessment. In: 47th Hawaii International Conference on System Science, Hilton Waikoloa Village, 2014. DOI: 10.1109/HICSS.2014.202