h-Index – Wikipedia

h-Index eines Autors mit 14 Veröffentlichungen: Die Veröffentlichungen sind absteigend nach Anzahl ihrer Zitationen angeordnet. Eingezeichnet ist das größte Quadrat (mit linker unterer Ecke im Koordinatenursprung), das unter diese Datenpunkte passt – der h-Index ist die Seitenlänge dieses Quadrats.
Bei Zitathäufigkeiten 10, 9, 8, 7, 6, 5, 4, 3, 2, 1 ist der Hirschfaktor 5, weil fünf Veröffentlichungen ≥ fünfmal, die restlichen ≤ fünfmal zitiert wurden. Die sechste Veröffentlichung wurde ebenfalls fünfmal zitiert, sie kann aber nicht mitgezählt werden, weil der Hirschfaktor damit auf 6 steigen würde, und fünf Zitierungen somit nicht mehr ausreichen würden.
Bei Zitathäufigkeiten 100, 100, 2, 2, 2, 2, 2, 2, 2, 2 ist der Hirschfaktor 2, weil zwei Veröffentlichungen ≥ zweimal, die restlichen ≤ zweimal zitiert wurden.
Bei Zitathäufigkeiten 100, 100, 9, 8, 3, 2, 2, 1, 1, 0 ist der Hirschfaktor 4, weil vier Veröffentlichungen ≥ viermal, die restlichen ≤ viermal zitiert wurden.

Der h-Index ist eine Kennzahl für die weltweite Wahrnehmung eines Wissenschaftlers in Fachkreisen. Die Kennzahl basiert auf bibliometrischen Analysen von Zitationen der Publikationen des Wissenschaftlers. Ein hoher h-Index ergibt sich, wenn eine erhebliche Anzahl von Publikationen des Wissenschaftlers häufig in anderen Veröffentlichungen zitiert wird. Der 2005 von dem Physiker Jorge E. Hirsch vorgeschlagene Bewertungsindex wird gelegentlich auch als Hirsch-Index, Hirschfaktor, Hirsch-Koeffizient oder h-number bezeichnet.

Der h-Index eines Wissenschaftlers kann im Laufe der Zeit nicht sinken; andererseits kann er auch nicht allein über die Anzahl seiner Veröffentlichungen steigen.

Der h-Index kann auch posthum steigen. Nach oben begrenzt ist er mit der Anzahl der Publikationen eines Autors.

Der h-Index eines Wissenschaftlers wurde definiert als die größte Zahl , für die gilt:  Publikationen dieses Wissenschaftlers wurden mindestens -mal zitiert.[1]

Äquivalent dazu ist die folgende Definition: Ein Wissenschaftler hat einen Hirsch-Index , wenn von seinen insgesamt Publikationen mindestens -mal und die restlichen Publikationen höchstens -mal zitiert wurden.

Zur Ermittlung kann man alle Veröffentlichungen des Autors nach Zitierhäufigkeiten absteigend aufreihen und so weit durchzählen, bis die -te Veröffentlichung weniger als Zitierungen hat; dann ist .

Laut Hirsch ist ein h-Index von 20 nach 20 Jahren Forschungsaktivität das Zeichen eines erfolgreichen Wissenschaftlers. Ein h-Index von 40 nach 20 Jahren Forschungsaktivität zeige den außergewöhnlichen Wissenschaftler an, der wahrscheinlich nur in Top-Universitäten und großen Forschungslabors gefunden werden könne. Einen h-Index von 60 und höher nach 20 Jahren Forschungsaktivität weisen laut Hirsch nur einzigartige Persönlichkeiten auf.[1]

Beispiele zur Berechnung

[Bearbeiten | Quelltext bearbeiten]

Einige Beispiele von Autoren mit jeweils 10 Veröffentlichungen:

  • Bei Zitathäufigkeiten 10, 9, 8, 7, 6, 5, 4, 3, 2, 1 ist der Hirschfaktor 5, weil fünf Veröffentlichungen mindestens fünfmal, die restlichen höchstens fünfmal zitiert wurden. Die sechste Veröffentlichung wurde ebenfalls fünfmal zitiert, sie kann aber nicht mitgezählt werden, weil der Hirschfaktor damit auf 6 steigen würde, und fünf Zitierungen somit nicht mehr ausreichen würden.
  • Bei Zitathäufigkeiten 100, 100, 2, 2, 2, 2, 2, 2, 2, 2 ist der Hirschfaktor 2, weil zwei Veröffentlichungen mindestens zweimal, die restlichen höchstens zweimal zitiert wurden.
  • Bei Zitathäufigkeiten 100, 100, 9, 8, 3, 2, 2, 1, 1, 0 ist der Hirschfaktor 4, weil vier Veröffentlichungen mindestens viermal, die restlichen höchstens viermal zitiert wurden.

Beispiel mit zeitlichem Verlauf

[Bearbeiten | Quelltext bearbeiten]

Der h-Index zur Bewertung wissenschaftlicher Leistungen wurde 2005 von dem argentinischen Physiker Jorge E. Hirsch in den Proceedings of the National Academy of Sciences vorgeschlagen.[1]

Als Datengrundlage zur Berechnung des bibliometrischen Indikators sind diverse Datenquellen denkbar, die Zitierungen nachweisen. Hirsch selbst schlug vor, maßgeblich die Daten des Web of Science zu benutzen, da diese seinerzeit die verlässlichste und umfassendste Datengrundlage darstellten.

Inzwischen kann der h-Index in vielen Zitationsdatenbanken ermittelt werden, z. B. in Google Scholar, wenn der Autor ein Profil hat.

Beispiel mit unterschiedlichen Datenbasen

[Bearbeiten | Quelltext bearbeiten]

Am Beispiel des theoretischen Physikers Stephen W. Hawking (1942–2018) lässt sich der Einfluss der für die Ermittlung des h-Indexes verwendeten Datenbasis gut veranschaulichen. Die Erhebung der Daten erfolgte am 15. Juni 2017:

Datenbank Zahl der erfassten
Veröffentlichungen
Gesamtzahl
der Zitierungen
h-Index
Google Scholar 908 121.425 118
Scopus 148 029.985 066
Web of Science CC 179 037.484 078

Der h-Index wird nicht nur als Kennzahl für Autoren verwendet, sondern auch für Institutionen, Arbeitsgruppen, Länder oder Zeitschriften. Für bestimmte Zwecke werden auch Varianten genutzt (s. u.).

Der h-Index hat einige Vorteile gegenüber anderen Kennzahlen (wie zum Beispiel der Gesamtanzahl von Zitationen eines Autors oder dem Impact-Faktor), da die Zitationen einer einzigen, viel-zitierten Veröffentlichung keinen großen Einfluss auf den Index haben. Dies kann aber auch als Nachteil interpretiert werden, da eventuell bahnbrechende Artikel nicht entsprechend gewürdigt werden (es kommt quasi zu einer harmonischen Angleichung der Bewertung der Zitate). Außerdem wird weder die Zahl der Koautoren noch die Tatsache berücksichtigt, ob die zitierte Publikation eine Originalarbeit oder ein Übersichtsartikel ist. Generell ist zu beachten, dass durch Zitationen die (unterschiedlich begründete) „Popularität“ und nicht notwendigerweise die wissenschaftliche Relevanz einer Publikation gemessen wird; so hätte der früh verstorbene Évariste Galois trotz seiner grundlegenden Arbeiten für die Mathematik nur einen h-index von 2, und Albert Einstein hätte nach dem Annus Mirabilis einen h-index von 4 gehabt.

Grundsätzlich haben junge Forscher niedrigere h-Indizes als ältere im gleichen Fach, da sie noch weniger publiziert haben. In Fächern, in denen weniger publiziert und zitiert wird, sind die h-Indizes niedriger als in Fächern mit hohem Output. Obwohl eine hohe Produktivität nicht zwangsläufig mit einem höheren Index belohnt wird, so kann der h-Index maximal so hoch wie die Anzahl an Veröffentlichungen sein.

Probleme und Kritik

[Bearbeiten | Quelltext bearbeiten]

Die Erhebung der Grunddaten stellt eine große Schwierigkeit dar. Mit der von Hirsch vorgeschlagenen Datengrundlage (Web of Science von Clarivate) werden unter anderem Buchpublikationen schlecht erfasst, was die Ergebnisse der Erhebung stark beeinflusst. Insbesondere in den Sozial- und Geisteswissenschaften können weitere Veröffentlichungen wie z. B. Buchrezensionen bedeutend sein, ohne dass diese häufig zitiert und damit im h-Index berücksichtigt werden. Wird die Erhebung hingegen auf eine nicht kontrollierte, größere Datengrundlage wissenschaftlicher Veröffentlichungen erweitert (z. B. Google Scholar), so kann der h-Index durch viele Selbstreferenzierungen gezielt manipuliert und leicht in die Höhe getrieben werden, wie 2011 an der Universität Grenoble demonstriert wurde.[2] Deshalb sind h-Indizes immer mit der zugrundeliegenden Datenbank und dem Erhebungsdatum anzugeben. Ferner ist die Abgrenzung von Autoren mit gleichen Namen ein Problem.[3] Durch Verwendung von Identifikatoren wie ORCID wird eine korrekte Zuordnung erreicht.

Die Bedeutung, die der h-Index und vergleichbare bibliometrische Maße für die Karriere von Wissenschaftlern haben, führt zu Optimierungsstrategien, die sich negativ auf die wissenschaftliche Kultur auswirken. So kann es etwa zielführend sein, eine Veröffentlichung in mehrere Teile zu zerlegen und einzeln zu publizieren, eigennutzenorientiert mit Selbstzitaten. Eine weitere mögliche Strategie besteht darin, Gruppen („Denkschulen“) von 10 bis 15 Wissenschaftlern zu bilden, die eine eigene Zeitschrift oder ein ähnliches Publikationsorgan gründen und sich darin gegenseitig häufig zitieren. Ebenso sind Zitationszirkel (auch als Zitierkartelle bezeichnet) eine Möglichkeit, um den persönlichen Faktor besserzustellen. Dabei schließen sich Gruppen von Wissenschaftlern zusammen, die sich gegenseitig bei Veröffentlichung zitieren oder die Gruppenmitglieder bei (absehbar zitierfähigen) Veröffentlichungen als Co-Autoren berücksichtigen. Diese Praktiken können die Seriosität der Wissenschaft untergraben.[4] Entsprechend gibt es Stimmen, den h-Index aufzulösen[5] oder die zahlreichen Defizite des h-Index durch Änderungen zu beheben.[6][7][8][9][10][11]

Ein weiterer Kritikpunkt trifft die Tatsache, dass der h-Index keinerlei Aussagekraft über die Bedeutung der Forschung für die Anwendung hat. Die nachfolgenden Kritikpunkte sind besonders valide für Disziplinen mit (ursprünglich) starkem Anwendungsbezug wie beispielsweise Klimaschutz, Naturschutz oder Forst- und Landwirtschaft. Wissenschaftliche Erkenntnisse finden möglicherweise nicht den Weg in die Praxis und der Informationsbedarf der Praktiker wird von den Wissenschaftlern oft möglicherweise nicht angemessen berücksichtigt. Ein möglicher Grund dafür könnte sein, dass die heutigen Bewertungssysteme der Wissenschaft unter anderem Indices wie den h-Index verwenden, die sich vornehmlich auf die Wahrnehmung der Forschungsarbeit in Wissenschaftskreisen und nicht auf den Outcome in der Praxis fokussieren. Einschränkend ist zu erwähnen, dass aktuell keine Indices zur quantitativen oder qualitativen Bewertung des sog. „Praktischen Outcomes“ existieren. Forschende haben ein Eigeninteresse an einem hohen h-Index, während der Outcome in der Praxis für die Karriere eines Wissenschaftlers möglicherweise weniger relevant ist. Einschränkend muss hier erwähnt werden, dass die Anmeldung von Patenten, finanzielle Entlohnung durch Produktentwicklung und direkte Förderung durch Unternehmen durchaus besonders solcherlei Wissenschaft entlohnen, die anwendbar ist. In der Anwendung bzw. Praxis (Naturschutz, Landwirtschaft, Wasserwirtschaft etc.) werden fremdsprachige Forschungsergebnisse allerdings möglicherweise weniger gelesen. Veröffentlichungen in der Landessprache und in frei zugänglichen Druckwerken könnten dazu beitragen, eine von manchen gesehene Lücke zwischen Forschung und Praxis zu verkleinern. Veröffentlichungen in der Landessprache erreichen in manchen Fachkreisen jedoch möglicherweise weniger Wissenschaftler und werden daher unter Umständen weniger zitiert, abhängig vom jeweiligen Einzelfall. Fragen zum Management spezifischer regionaler Lebensräume sind beispielsweise für den Wissenschaftszirkel global uninteressant und daher weniger zitierfähig. Aufgrund des Zitationsfokusses des h-Index finden regionale Fragestellungen deshalb wesentlich weniger Beachtung in globalen Fachzeitschriften, sondern werden eher in regionalen Fachzeitschriften erörtert.

Ein weiterer Kritikpunkt ist, dass Forschende in Disziplinen, in denen weniger Wissenschaftler arbeiten, unter Umständen schwerer auf eine hohe Anzahl von Zitationen kommen können und daher im Mittel einen geringeren h-index haben als Forschende, die in Disziplinenen arbeiten, in denen sehr viele andere Wissenschaftler tätig sind (z. B. Physik, Biologie). Da diese Indices in Relation zu anderen Wissenschaftlern im Feld beachtet werden, erlaubt der Index dennoch eine kontextualisierte Einordnung durch andere Wissenschaftler. Über die Qualität der Arbeit sagt der h-index nichts aus, nur über die Popularität (s. o.). Im seltenen Extremfall können sogar Forschungsarbeiten mit offensichtlichen methodischen Fehlern viele Zitationen aufweisen und den h-Index anheben, weil andere Wissenschaftler in Kommentaren oder Artikeln auf ebendiese methodischen Schwächen hinweisen und den Artikel somit zitieren.[12]

Wissenschaftler mit hohen h-Indizes

[Bearbeiten | Quelltext bearbeiten]

Wissenschaftler mit den höchsten h-Indizes nach Hirsch

[Bearbeiten | Quelltext bearbeiten]

Zur Zeit der Publikation des Hirsch-Indexes hatte Edward Witten mit 120 den höchsten h-Index unter Physikern. Andere bekannte Physiker erreichten einen h-Index von 62 bis 107. Für Forscher in Biologie und Biomedizin errechnete Hirsch anhand der Zitierungen in den Jahren von 1983 bis 2002 ebenfalls einen h-Index. Den höchsten h-Index dieser Fachgruppe aus dieser Zeit besaß Solomon H. Snyder mit 191, die folgenden 9 Forscher der Rangfolge hatten h-Indizes von 160 bis 120.[1]

Beispiele für h-Indizes 2021

[Bearbeiten | Quelltext bearbeiten]

Die folgenden Beispiele geben den Stand am 7. Mai 2021 laut der Datenbank Scopus wieder.

Beispiele für Wissenschaftler, Veröffentlichungszahlen und h-Indizes 2021
Name Fachgebiet Veröffent-
lichungen
Summe der
Zitierungen
h-Index Quelle
Albert Einstein Physik 0102 025.984 041 [13]
Stephen Hawking Physik 0161 044.981 075 [14]
Didier Queloz Physik 0494 029.739 088 [15]
Christian Drosten Virologie 0437 042.835 088 [16]
John B. Goodenough Chemie 0987 130.937 164
(27.06.2023)
[17]
Edward Witten Physik 0303 111.651 145 [18]
Anthony Fauci Immunologie 1180 118.166 178 [19]
David Baltimore Virologie 0742 125.839 179 [20]
Ronald M. Evans Molekular­biologie 0562 136.032 180 [21]
Carlo Maria Croce Krebsforschung 1298 172.299 194 [22]
Matthias Mann Physik 0786 168.025 204 [23]
Solomon H. Snyder Neuro­wissenschaften 1278 180.055 218 [24]
George Whitesides Chemie 1370 241.022 228 [25]
Robert Langer Chemie­ingenieurwesen 1761 217.459 229 [26]
Bert Vogelstein Krebsforschung 0625 296.736 238 [27]
Michael Grätzel Chemie 1651 333.566 259 [28]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b c d J. E. Hirsch: An index to quantify an individual’s scientific research output. In: Proceedings of the National Academy of Sciences. Band 102, Nummer 46, November 2005, ISSN 0027-8424, S. 16569–16572, doi:10.1073/pnas.0507655102, PMID 16275915, PMC 1283832 (freier Volltext), arxiv:physics/0508025.
  2. Falsche Forscheridentität – Kennen Sie Ike Antkare? taz.de, 3. März 2011.
  3. Der Hirsch-Index (Memento vom 23. September 2015 im Internet Archive) (PDF-Datei; 23 kB).
  4. Interview mit Prof. Dr. Ludwig Winnacker: Für einen Artikel in Science tut man alles. Archiviert vom Original am 9. Januar 2019; abgerufen am 6. Januar 2019.
  5. Rowlands I: Is it time to bury the h-index? 28. März 2018, abgerufen am 9. Januar 2019.
  6. Batista P. D., Mônica G. Campiteli, Osame Kinouchi: Is it possible to compare researchers with different scientific interests? In: Scientometrics. 68. Jahrgang, Nr. 1, 2006, S. 179–189, doi:10.1007/s11192-006-0090-4.
  7. Antonis Sidiropoulos, Katsaros, Dimitrios and Manolopoulos, Yannis: Generalized Hirsch h-index for disclosing latent facts in citation networks. In: Scientometrics. 72. Jahrgang, Nr. 2, 2007, S. 253–280, doi:10.1007/s11192-007-1722-z.
  8. Jayant S. Vaidya: V-index: A fairer index to quantify an individual's research output capacity. In: BMJ. 331. Jahrgang, Nr. 7528, Dezember 2005, S. 1339–c–1340–c, doi:10.1136/bmj.331.7528.1339-c (bmj.com).
  9. D. Katsaros, A. Sidiropoulos, Y. Manolopous: Age Decaying H-Index for Social Network of Citations. In: Proceedings of Workshop on Social Aspects of the Web Poznan, Poland, April 27, 2007. 2007.
  10. T.R. Anderson, R.K.S Hankin, P.D. Killworth,: Beyond the Durfee square: Enhancing the h-index to score total publication output. In: Scientometrics. 76. Jahrgang, Nr. 3, 2008, S. 577–588, doi:10.1007/s11192-007-2071-2.
  11. C. Baldock, Colin G. Orton, Ma, R.M.S and Orton, C.G.: The h index is the best measure of a scientist's research productivity. In: Medical Physics. 36. Jahrgang, Nr. 4, 2009, S. 1043–1045, doi:10.1118/1.3089421, PMID 19472608, bibcode:2009MedPh..36.1043B.
  12. Nina Farwig, Christian Ammer, Peter Annighöfer, Bruno Baur, David Behringer: Bridging science and practice in conservation: Deficits and challenges from a research perspective. In: Basic and Applied Ecology. Band 24, November 2017, S. 1–8, doi:10.1016/j.baae.2017.08.007 (elsevier.com [abgerufen am 20. April 2022]).
  13. Einstein, Albert. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  14. Hawking, Stephen. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  15. Queloz, Didier. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 22. Mai 2021 (englisch).
  16. Drosten, Christian. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  17. Goodenough, John B. In: Scopus – Author details. Elsevier B.V., abgerufen am 27. Juni 2023 (englisch).
  18. Witten, Edward. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  19. Faucì, Anthony S. In: scopus.com. Scopus, abgerufen am 7. Mai 2021 (englisch).
  20. Baltimore, David. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  21. Evans, Ronald M. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  22. Croce, Carlo Maria. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  23. Mann, Matthias. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  24. Snyder, Solomon H. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  25. Whitesides, G. M. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  26. Langer, Robert Samuel M. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  27. Vogelstein, Bert. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).
  28. Grätzel, M. In: Scopus preview – Scopus – Author details. Elsevier B.V., abgerufen am 7. Mai 2021 (englisch).