Наукометрических показателей для оценки труда ученых и организаций существует огромное множество, и многие из них очень соблазняют простотой подсчета. Однако полезным использование таких индикаторов может быть лишь при соблюдении ряда принципиальных условий. С них и начнем.
1. Необходимо учитывать ограничения баз данных, по которым ведется подсчет.Это прежде всего географический, языковой и тематический охват, строгость отбора, учет различных типов источников, качество индексации (наличие задвоений, пропусков и т.д.).
2. Необходимо учитывать различия в практиках публикации и цитирования, характерных для тех наук, представителей которых вы собираетесь сравнивать.
И средняя длина списка литературы, и средний возраст позиций в нем в статьях по математике кардинально отличаются от тех же в молекулярной биологии. Пушкинисты публикуются на русском языке просто потому, что именно на нем говорит большинство профессионалов в этой области. В Computer Science основной канал распространения нового знания и получения признания коллег – доклады на международных конференциях, а не статьи в журналах. В области права ценятся комментарии к законам. И этот перечень особенностей можно продолжать очень долго.
3. Нельзя оценивать по одному «волшебному» индикатору.
Попросту говоря, наука – слишком сложная штука. У нас в распоряжении множество разных «кривых зеркал», которые гораздо лучше использовать в комплексе. Новые хиршеподобные индикаторы появляются в среднем раз в две недели, но внимания на них уже никто из профессионалов не обращает.
4. Наукометрия всегда хуже полноценной экспертизы, проведенной ведущими специалистами по оцениваемой тематике.
Специалисты должны быть не только ведущими, но и лишенными конфликта интересов. Часто говорят, что в России такое невозможно, иностранцев привлекать слишком сложно и т.д. Наш опыт взаимодействия с представителями ведущих мировых научных центров это опровергает. К тому же гуру research evaluation хором учат нас: везде, где только хватает сил и средств, используйте живых экспертов, дополняя, а не подменяя их оценки разнообразными релевантными наукометрическими индикаторами.
5. Нужно заранее тщательно оценивать эффекты от встраивания наукометрии в управление.
Например, если вы усиленно считаете и стимулируете публикации в средних журналах, не удивляйтесь, что доля статей в топовых у вас уменьшится. Проверено Австралией в середине 1990-х. Там тогда действовала примитивная система, когда вузу, по сути, платили за каждую статью в Web of Science вне зависимости от уровня журнала. Число статей выросло, но средний уровень журналов ощутимо упал (http://dx.doi.org/10.1016/S0048-7333(02)00007-0). Есть шанс, что лет через пять это усвоят и в России.
Пример с Австралией взят из Лейденского манифеста об индикаторах науки, опубликованного в этом году в Nature (http://www.nature.com/news/bibliometrics-the-leiden-manifesto-for-research-metrics-1.17351). Этот манифест (набор принципов наподобие изложенных выше) я горячо рекомендую всем и с радостью сделал бы обязательным чтением для всех научных менеджеров, начиная с уровня замдекана по науке и заканчивая президентом. Манифест составлен ключевыми мировыми экспертами по research evaluation и признан всем наукометрическим сообществом.
Теперь о самих показателях.
Число публикаций: обычный и долевой подсчет
Конечно, проще всего оценить результативность научной деятельности ученого или организации по количеству опубликованных работ. Но все не так просто, как кажется, ведь у статьи может быть много авторов, а у каждого автора много аффилиаций. Проще всего использовать так называемый обычный подсчет (whole, или total counting). Написал автор статью в одиночку или в соавторстве с двадцатью коллегами – это все равно одна публикация в его статистике. То же самое верно для организаций и стран: если организация (страна) хотя бы раз указана в списке мест работы авторов статьи, эта публикация считается целиком принадлежащей ей и всем остальным организациям/странам соавторов, все получат за нее по одному очку. Такой подсчет легко приводит к перекосам. Скажем, в статье девять соавторов с экономфака, а десятый работает на экономфаке и факультете компьютерных наук. Оба факультета получат по 1 очку, что, очевидно, не вполне отражает их относительный вклад.
Решение состоит в использовании долевого подсчета (fractional counting). При таком подсчете вся статья «стоит» 1 очко, которое делится поровну между соавторами, а если у соавтора несколько аффилиаций, то его доля делится поровну между ними. В приведенном выше примере экономфак получит 19/20, а ФКН – 1/20. Долевой подсчет применяется как для самих публикаций, так и для полученных ими цитирований, где расхождения с обычным подсчетом могут быть еще более драматическими. Наш отдел считает публикации мегафакультетов и кампусов Вышки обоими способами.
Сейчас к fractional counting под давлением прогрессивной общественности присматриваются коммерческие рейтинги THE и QS, а единственный уважаемый наукометристами Лейденский рейтинг уже вовсю применяет его. Свой вариант долевого подсчета разработало и внедряет Минобрнауки РФ. Правда, вышло очень неоднозначно: очки за публикацию будут делиться только между российскими аффилиациями, а иностранные учитываться не будут. Поэтому статья, где два автора – из МГУ и ВШЭ, принесет этим вузам по 0,5 очка, а статья, где девять авторов из Гарварда, а десятый работает в Гарварде, Стэнфорде и МГУ, принесет нашему вузу полноценное очко. Как результат, вузы и НИИ уже сейчас думают над мерами по сокращению числа внешних российских соавторов в своих статьях. Системные последствия будут очень серьезными.
Обычный подсчет хорошо работает в социально-гуманитарных дисциплинах и математике, где велика доля статей, написанных одним автором, а при работе с публикациями по естественнонаучным дисциплинам лучше применять долевой подсчет, потому что здесь большое количество статей написано в соавторстве. Очевидно, что внутри каждой дисциплины также имеются различия. Например, в физике наибольшее количество соавторов у экспериментаторов в области высоких энергий и частиц. Корректный библиометрический анализ должен учитывать эти особенности. Есть варианты fractional counting, учитывающие роль автора в списке соавторов (corresponding, первый, последний).
Число цитирований
Оценка деятельности ученых на основании одного лишь суммарного числа публикаций способна нанести большой вред науке, особенно если используется как ключевой KPI. Из того, что сильные ученые публикуют много работ, совершенно не следует, что любой автор, опубликовавший много работ, внес серьезный вклад в науку. Одна статья в Nature может стоить тысячи статей в журнале условного третьего квартиля по Scopus, но иногда и на статьи в Nature никто не ссылается. Поэтому при оценке научной деятельности принято опираться на показатели, основанные на суммарном количестве ссылок (цитирований) на публикации данного ученого, подразделения или организации. При этом обычно жестко фиксируют два временных периода: окно публикации (интервал, в течение которого вышли оцениваемые статьи) и окно цитирования (интервал, в течение которого вышли те статьи, ссылки на которые будут учитываться). Чаще всего используют публикационное окно в пять лет и совпадающее с ним окно цитирования. Для бурно развивающихся областей, где знание быстро устаревает (нанотехнологии, биомедицина), временной интервал может быть и меньше пяти лет, а в тех областях, где старение знания происходит сравнительно долго (чистая математика, антиковедение или ботаника), оба окна могут быть увеличены.
Всегда полезно смотреть на число цитирований с исключенным самоцитированием, благо и Scopus, и Web of Science, и РИНЦ предоставляют такую возможность. Вес ссылок тоже имеет значение. Когда на вашу статью в «Экономическом журнале ВШЭ» сослался нобелевский лауреат в American Economic Review, это не совсем то, что ссылка из журнала «Экономист».
Для сравнения ученых из разных областей необходимо использовать нормализованную цитируемость (field-weighted citation impact), учитывающую среднюю цитируемость публикаций данного года выхода данного типа (обзоры цитируются чаще статей) в данной тематике.
Пожалуй, даже более корректный и робастный подход для сравнения представителей различных наук заключается в использовании top10% индикаторов – числа и доли публикаций, попадающих в верхние 10% самых цитируемых в своей области за данный год.
Оценка по уровню журналов
Методики, основанные на цитируемости, имеют серьезный недостаток: надо ждать хотя бы несколько лет, пока эти цитирования успеют накопиться. Для менеджеров это неприемлемо, поэтому все большее распространение получает оценка по уровню журнала, в котором опубликована статья, то есть, по сути, оценка ожидаемой цитируемости. Тут тоже правильнее использовать относительные метрики, прежде всего факт попадания журнала в топ-10% самых цитируемых в своей области по импакт-фактору или SNIP (см. первую часть статьи: http://okna.hse.ru/news/160270181.html). Есть статья в журнале, входящем в топ-10% по импакт-фактору WoS. Значит, она наверняка прошла строгое рецензирование и будет широко читаться. А вот квартили Scopus стоит использовать крайне осторожно (см. Mañana-Rodríguez, J. A critical review of SCImago Journal & Country Rank. Research Evaluation. 2014. http://doi.org/10.1093/reseval/rvu008).
Нельзя не упомянуть, что Сан-францисская декларация по оценке исследований, DORA (http://www.ascb.org/dora/), гласит: не используйте уровень журнала для оценки конкретной публикации и ее автора. Ее подписали 592 организации – от редакций Science и PNAS, Института Говарда Хьюза и ведущих американских и европейских научных обществ до Харьковского педагогического университета. Мы не подписали.
Популярная ныне оценка по совокупному импакт-фактору (сумме значений ИФ отдельных статей, равных ИФ опубликовавших их журналов) для сравнения представителей разных дисциплин не годится: слишком велики различия в средней цитируемости. С оговорками ее допустимо использовать разве что для оценки очень схожих по тематике исследований организаций одинаковых размеров.
H-индекс, g-индекс, m-индекс
Ну вот мы и подошли к волшебной цифре, дарящей иллюзию понимания тысячам научных управленцев. H-индекс был предложен физиком-теоретиком из Калифорнийского университета в Сан-Диего Хорхе Хиршем. Этот показатель призван дать комплексную оценку одновременно числу публикаций и их цитируемости (т.е. количеству и качеству). Кроме того, методика подсчета индекса Хирша намеренно уходит от определения средних величин, средней цитируемости статей.
Индекс Хирша массива публикаций (ученого, организации, страны) равен h, если есть h статей из этого массива, каждая из которых получила не менее h цитирований. Поэтому для высокого индекса нужно иметь много статей, каждая из которых цитировалась много раз. Очень важно учитывать, что h-индекс в интерфейсе WoS включает самоцитирования.
Для ученых часто рассчитывают «пожизненный» индекс Хирша за всю научную карьеру, как это было сделано Х. Хиршем в исходной статье, однако это приводит к очевидному неравенству пожилых и молодых специалистов. Дело в том, что такой показатель не может уменьшаться с течением времени, может только расти или оставаться неизменным. Поэтому для получения сравнимого показателя следует, как и для других библиометрических индикаторов, задать публикационное окно и окно цитирования.
Еще ряд недостатков h-индекса:
· h-индекс не предполагает поправки на дисциплинарную область: сравнение абсолютных значений индекса у ученых, работающих в разных областях науки, невозможно; это не нормализованный по областям науки показатель;
· в индексе не учитывается реальное число ссылок, полученное статьями выше и ниже точки h: важно только местонахождение этой точки. В науке крайне важны высокоцитируемые работы, для их учета гораздо лучше подойдут показатели топ-10% и топ-1%;
· h-индекс не учитывает количество и статус соавторов. Например, у специалистов по физике высоких энергий, публикующих десятки статей в год с сотнями и тысячами соавторов, он может достичь 30-40 уже в молодом возрасте.
m-индекс
Также предложенный Хиршем, этот индекс дает возможность учесть длительность карьеры и рассчитывается как h-index, деленный на число лет с момента первой публикации.
g-индекс
Как говорилось выше, с момента открытия Хирша ученые наплодили сотни вариаций его индекса. Из них сколько-нибудь прижился, пожалуй, только разработанный известным наукометристом Лео Эгге g-индекс. G-индекс набора публикаций равен такому максимальному g, что g наиболее цитируемых статей из этого набора получили в сумме не менее g в квадрате ссылок. На практике g-индекс всегда больше или равен h-индексу.
Другое определение: g-индекс ученого равен такому максимальному g, что у ученого есть g статей со средней цитируемостью на одну статью не менее g.
G-индекс лишен ключевого недостатка, отмеченного для индекса Хирша: он учитывает вклад самых высокоцитируемых работ. Эгге предложил h- и g-индекс с использованием fractional counting, но это уже для мазохистов (http://onlinelibrary.wiley.com/doi/10.1002/asi.20845/abstract).
Чудесно, очень познавательно и совсем не скучно, скажете вы. Но где посмотреть на все эти индексы и нормализованные цитирования по живым людям и организациям? Вышка купила доступ к аналитической надстройке SciVal, где каждый желающий может в пару кликов вывести h-, g- и m-индекс, посчитать нормализованную цитируемость, число и долю публикаций, попавших в топ-10% самых цитируемых в своей области, число и долю публикаций в топ-10% журналов и многое другое. Заходите с компьютеров внутри Вышки на scival.com, регистрируйтесь (это быстро, просто и уже оплачено для всех сотрудников) и чувствуйте себя заправскими наукометристами. Только учтите, что продавать картинки и таблицы из SciVal или массово размещать их в открытом доступе запрещено.
Этот выпуск «Академической среды» целиком, а также все предыдущие выпуски, читайте по этой ссылке в формате PDF