¿Es el índice h un índice adecuado para evaluar la productividad y el impacto de citas de un científico?

Absolutamente, inequívocamente no. Es una métrica “objetiva” que se puede jugar al infierno y viceversa que se usa para absolverse de la carga de evaluar realmente el trabajo de un científico. Sí, toma mucho trabajo entender y evaluar lo que hace un científico, pero si está a punto de apoyar su capacidad para hacerlo, probablemente debería entender por qué. Puedo entender cómo las personas (especialmente los temidos administradores ) pueden ser seducidas por la simplicidad de un solo número “objetivo”, pero la simplicidad es exactamente la razón por la cual no es significativa o incluso útil. Los científicos son mucho, mucho más que los documentos en los que aparece su nombre: entrenan, colaboran, tienen discusiones informales, hacen una gran cantidad de contribuciones inéditas a la comunidad en su conjunto, pero el índice h ignora todo de eso. Pone un énfasis extremadamente inapropiado en las publicaciones y conduce a todo tipo de comportamiento que perjudica a la comunidad científica, incluido el fraude académico .

Por tentador que sea crear métricas simples y objetivas para todo, no puedo imaginar una sola situación en la que sea apropiado esquivar la responsabilidad personal asociada con la toma de una decisión subjetiva sobre un científico.

Hay mucho trabajo sobre esta cuestión en la comunidad bibliométrica. El recuento de citas depende del repositorio. ISI SCI era el “estándar de oro”, pero recientemente cambió sus criterios para que sean potencialmente menos útiles para la mayoría de las determinaciones rápidas. h variará según el repositorio que se use, fácilmente 2x. Por supuesto, cualquier métrica individual es potencialmente engañosa, pero el índice h podría ser mejor que contar documentos, o peor, contar cantidades de dólares de financiamiento externo. Obviamente, los jóvenes académicos deben ser evaluados de manera diferente, así como los académicos muy viejos, dependiendo de cuánto se preocupe la gente por las contribuciones más antiguas versus las más recientes. La gente sobreestima el impacto de la autocitación y el conteo de pdf en scholar.google. Si realmente quieren obtener mejores recuentos, deben buscar citas que no sean de camarilla, recuentos de citas de artículos citados, eliminación de libros de texto citados gratuitamente, normalización por extensión de la bibliografía, lugares de citas de calidad, etc. La gente a menudo dice que deberíamos normalizar por autor también cuentan, pero nuestro estudio muestra que, al menos en la parte superior, no es necesaria una normalización muy costosa y variada. En cualquier caso, no solo miraría el total, el mejor, el h y el g, sino que desearía conocer al mejor como primer autor y al mejor solo, posiblemente el i10, i100 y el a-normalizado-10 ° mejor. Y cuáles son los recuentos totales de citas en los últimos tres años. No aceptaría una métrica, pero me sentiría seguro si uno citara uno de los primeros cuatro y varios de los últimos cuatro. Para los jóvenes académicos, miraría la forma de la tendencia por año del total de citas, incluso la tendencia por año de los principales trabajos hasta ahora.

El índice g es menos discutido pero generalmente es un índice mejor. Curiosamente, nuestro estudio de recientes ganadores del Premio Nobel en Econ, Física y Química, y ganadores del Premio Turing muestra que h es menos variable que g entre personas muy importantes de CS, aunque h parece ser más adecuado para los científicos: resultados preliminares, por lo que las conclusiones podrían estar calificado Del mismo modo, la normalización del autor produce más variación, no menos. Se puede argumentar si la variabilidad de un índice entre las personas más importantes es una buena manera de juzgar el valor del índice, pero se dirige directamente a la cuestión de la inferencia y la confianza de la inferencia.

También proponemos una transformación de registro antes de hacer otro análisis, o al menos sqrt. Por lo tanto, proponemos sqg, la k más alta, de modo que la suma de las primeras krt (citas) de k papers es mayor que k-cuadrado. Esta es solo la g después de aplicar una transformación de aplanamiento para reducir los malos efectos de la curva Zipf que vemos con los recuentos de citas. Alguien podría hacer una buena retroalimentación y un documento del proceso de llegada para explicar el Zipf, estoy seguro.

Resulta que hay incluso mejores medidas rápidas de impacto que h y g, pero las personas tendrán que publicar nuestro artículo si quieren saber qué pensamos al respecto.

Es importante darse cuenta de que el recuento de citas no es suficiente ni necesario para reclamar el impacto. Pero ciertamente están altamente correlacionados.

Cuando comencé a obsesionarme con el recuento de citas a principios y mediados de los 90, SCI todavía estaba en CD ROM. Ahora es mucho mejor aunque scholar.google no permita consultas automáticas. Nuestro decano, CI Byrnes, solía decir “Juega tenis; deja de llevar puntaje”, a lo que yo respondía “A veces no puedes estar seguro de que el anotador mantiene el puntaje correcto”. La ironía es que no había pensado en los recuentos de citas como una medida de impacto académico hasta que el bibliotecario me llamó por un caso de tenencia diciendo que Dean Byrnes había pedido el recuento. El CD ROM fue doloroso, y en realidad fue más rápido cuando las citas se imprimieron en grandes volúmenes y en letra pequeña. Sí, en realidad miramos citas impresas alguna vez, para encontrar trabajo relacionado, no solo para fascinarnos con la carrera de caballos.

No. Tiene una gran desventaja: está limitado por la cantidad de publicaciones que tiene. Incluso si su publicación tiene 1000 citas, lo cual es mucho, pero es su única publicación, tendrá un índice h igual a uno. ¡Qué lástima! Para corregir esto, y para algunas otras cosas, recientemente propuse un índice novedoso para la evaluación de investigadores individuales que no depende del número de publicaciones, explica las diferentes contribuciones de los coautores y la edad de las publicaciones, y escalas de 0.0 a 9.9. Además, se puede calcular con la ayuda de software disponible gratuitamente. Por favor, comparte tus pensamientos al respecto. ¿Lo usaría junto con el índice h, o tal vez incluso en lugar de él, para evaluar a sus pares, posibles colaboradores o solicitantes de empleo? Si lo ha probado con las personas que conoce, ¿encuentra los resultados justos?

Un índice logarítmico normalizado según la cita, el autor y la edad para la evaluación de investigadores individuales independientemente de los recuentos de publicaciones

No. El índice H es como el voto positivo de quora.
Las siguientes son algunas razones por las que falla.

1. No tiene en cuenta las contribuciones de los autores individualmente. Generalmente el primer autor hace una contribución significativa, pero otros autores obtienen el mismo mérito a través de este sistema. Y luego no tiene en cuenta el número de autores.

2. Tiene que ser normalizado para la comunidad de investigación. Por ejemplo, si está publicando en cáncer, entonces su trabajo sería citado por muchas personas, ya que hay muchas personas trabajando en esa área.

3. Se basa en citas. Pero no considera por qué se cita el artículo. Podría citar el papel de un pez gordo solo para complacerlo. Podría citar el papel de mi amigo para ayudarlo a aumentar sus métricas. Citaría un artículo solo para dar un trasfondo. Cito un artículo cuando lo critico. Vea la ironía aquí, estoy citando un artículo para decir que sus resultados son erróneos, pero esta cita se cuenta como una métrica positiva para el artículo.

4. Considere dos profesores, uno con un laboratorio muy grande y otro con un laboratorio pequeño. El profesor que ejecuta un laboratorio grande tendría muchas personas y publicaría más que el que tiene un laboratorio pequeño y tiene la posibilidad de tener una métrica más alta.

El índice h tiene algún mérito, pero debe considerarse junto con una variedad de otros factores. Si compara dos investigadores en campos similares, y uno tiene un índice h sustancialmente más alto que el otro, digamos 40 en comparación con 10, puede estar bastante seguro de que el primero está teniendo un mayor impacto que el segundo. Sin embargo, la profundidad y el significado del trabajo no se abordan de manera muy útil de esta manera. Si los dos investigadores tienen índices h de 22 y 17, no creo que se pueda hacer una comparación significativa.

Para la productividad, definitivamente no: los documentos no citados no son necesariamente malos.
Para el impacto de la cita, definitivamente sí: el índice h de N significa que un investigador tiene N documentos que se citan N veces. Tan definitivamente relacionado.

En general, los buenos investigadores tienden a ser más citados que los malos. La administración necesita alguna herramienta para evaluar a los candidatos y no es totalmente absurdo tener ese criterio. El problema es cuando se abusa de las herramientas y las personas se obsesionan con el factor de impacto de esta y aquella revista, el número de citas, etc.