Содержание

Индекс научного цитирования

Индекс цитирования — принятый в научном мире показатель «значимости» трудов какого-либо ученого и представляет собой число ссылок на публикации ученого в реферируемых научных периодических изданиях. Наличие в научно-образовательных организациях ученых, обладающих высоким индексом, говорит о высокой эффективности и результативности деятельности организации в целом.

Индекс Хирша — наукометрический показатель, предложенный в 2005 г. американским физиком Хорхе Хиршем из университета Сан-Диего, Калифорния в качестве альтернативы классическому «индексу цитируемости» — суммарному числу ссылок на работы учёного. Критерий основан на учёте числа публикаций исследователя и числа цитирований этих публикаций. Т.е. учёный имеет индекс h, если h из его N статей цитируются как минимум h раз каждая.

Например, h-индекс равный 10, означает, что учёным было опубликовано не менее 10 работ, каждая из которых была процитирована 10 и более раз. При этом количество работ, процитированных меньшее число раз, может быть любым. В научном мире принято считать, что состоявшийся учёный в области физики обладает h-индексом более 10. У нобелевских лауреатов h-индекс составляет порядка 60 и выше. При этом, даже у самых успешных зарубежных ученых, работающих в области машиностроения, h-индекс не превышает 15.

На сегодняшний день существует большое количество международных систем цитирования (библиографических баз): Web of Science, Scopus, Web of Knowledge, Astrophysics, PubMed, Mathematics, Chemical Abstracts, Springer, Agris, GeoRef. Самыми авторитетными из существующих международных систем цитирования, чьи индексы признаются во всем мире, являются: «Web of Science» и его конкурент — сравнительно молодая система «Scopus». Журналы, входящие в эти системы, официально признаются Высшей аттестационной комиссией (ВАК).

Нерепрезентативное представление российской научной периодики в зарубежных системах цитирования, отсутствие доступной и объективной системы для количественной оценки научных результатов в России, потребность наших ученых в доступных информационно-поисковых системах, локальная обособленность некоторых отечественных направлений науки и другие причины, вызвали необходимость создания Российского индекса научного цитирования (РИНЦ).

Российский индекс научного цитирования (РИНЦ) — это национальная информационно-аналитическая система, аккумулирующая более 2 миллионов публикаций российских авторов, а также информацию о цитировании этих публикаций из более 2000 российских журналов. Она предназначена не только для оперативного обеспечения научных исследований актуальной справочно-библиографической информацией, но является также и мощным инструментом, позволяющим осуществлять оценку результативности и эффективности деятельности научно-исследовательских организаций, ученых, уровень научных журналов и т.д. elibrary.ru

Система «Web of Science» (прежнее название — Institute for Scientific Information, ISI) покрывает более 9000 изданий на английском и отчасти на немецком языках (с 1980 г.) и включает в себя три базы — Science Citation Index Expanded (по естественным наукам), Social Sciences Citation Index (по социальным наукам), Arts and Humanities Citation Index (по искусству и гуманитарным наукам). Процентное соотношение между представленными в ресурсе Web of Science дисциплинами следующее: 25-27% — технические и прикладные науки, 30% — это социогуманитарные науки, 43-45% — блок естественных наук (в т.ч. 15-18% — науки о земле, биология и медицина). www.isiwebofknowledge.com

Система «Scopus» представляет собой крупнейшую в мире единую мультидисциплинарную реферативную базу данных (с 1995 г.), которая обновляется ежедневно. «Scopus» — самая обширная база данных научных публикаций без полных текстов. Одной из основных функций является встроенная в поисковую систему информация о цитировании. Scopus охватывает свыше 15 тыс. научных журналов от 4 тыс. научных издательств мира, включая порядка 200 российских журналов, 13 млн патентов США, Европы и Японии, материалы научных конференций. Scopus в отличие от Web of Science не включает издания по гуманитарным дисциплинам и искусству, содержит небольшую долю журналов по социальным наукам — не более 17%, и в процентном отношении гораздо шире отражает естественные науки и технику — 83%. www.scopus.com

Научная электронная библиотека elibrary.ru — Руководство пользователя 

www.ruc.su

Опубликована база учёных, которые активно цитируют сами себя. Украина и Россия в лидерах

Российские и украинские лидеры в рейтинге самоцитирования

Авторитет в научном сообществе определяется количеством ссылок в научных статьях (индекс цитирования). Самые цитируемые в мире — небольшая группа учёных, в которую входят нобелевские лауреаты и выдающиеся исследователи. Однако к ним примыкает ряд менее известных персонажей. Например, Сундарапандиан Вайдьянатан из Индии.

Этот исследователь в области теории хаоса, декан R&D частного технологического института Vel Tech в Ченнае — соавтор сотен научных работ и абсолютный мировой рекордсмен по саморекламе: 94% (!) ссылок на его научные статьи поставлены им самим или соавторами, пишет Nature.

Он не одинок. Недавно в журнале PLOS Biology опубликован набор данных по 100 тыс. учёным со всего мира. Как показал анализ, у более чем 250 человек доля цитат от себя и соавторов превышает 50%. Средний уровень самоцитирования составляет 12,7%.

Исследование поможет выявить тех, кто злоупотребляет цитированием для повышения рейтинга, а также потенциальные «цитатные фермы», в которых кластеры учёных массово цитируют друг друга, говорят исследователи: «Я думаю, что фермы самоцитирования гораздо более распространены, чем мы полагаем, —считает Джон Иоаннидис (John Ioannidis) из Стэнфордского университета, ведущий автор научной работы. — Те, у кого самоцитирование превышает 25%, не обязательно участвуют в неэтичном поведении, но может потребоваться более тщательное их изучение».

На сегодняшний день это самая большая коллекция показателей самоцитирования из когда-либо опубликованных. И она опубликована как раз вовремя, потому что сейчас финансирующие агентства и научные журналы уделяют больше внимания потенциальным проблемам из-за чрезмерного самоцитирования. В июле Комитет по этике научных публикаций (Committee on Publication Ethics, COPE), консультативный орган для научных издательств, назвал экстремальное самоцитирование одной из основных форм манипуляций.

Хороший показатель цитирования помогает учёному привлечь финансирование и помогает в карьерном росте. Но слишком большое внимание к этой метрике представляет собой проблему, потому что такое отношение стимулирует самоцитирование.

В прошлом году министр образования Индии вручил Вайдьянатану премию в размере 20 000 рупий (280 долларов США) как одному из лучших исследователей страны по показателям производительности и цитируемости. Сам учёный, декан научно-исследовательского центра Vel Tech, в комментариях на Quora отрицал факт умышленной накрутки метрик для себя и своего института.

Многие учёные согласны, что чрезмерное самоцитирование является проблемой, но нет единого мнения, что с этим делать. И вообще, какой показатель самоцитирования считать нормальным. У исследователей действительно много законных оснований ссылаться на собственные работы и работы соавторов. Иоаннидис предупреждает, что его исследование не призвано очернить конкретных исследователей, потому что показатели самоцитирования сильно варьируются между разными научными дисциплинами и этапами карьеры: «Оно просто даёт полную, прозрачную информацию. На его основании нельзя выносить вердикт, кто плохой учёный», — говорит он.

Рейтинг самоцитирования — лишь часть исследования, которое провели Иоаннидис с соавторами. Оно включает в себя множество стандартизированных показателей для 100 000 наиболее цитируемых исследователей за 1996−2017 годы в 176 научных областях. Данные получены из базы Scopus издательского дома Elsevier.

Но метрики самоцитирования — самая интересная часть работы. В принципе, количество ссылок на собственные работы учёного и так можно посмотреть в специализированных базах, таких как Scopus и Web of Science. Но данное исследование позволяет провести более глубокий анализ, сравнивая учёных и выявляя неочевидные схемы, похожие на умышленные манипуляции.


В 2011 году четыре бразильских научных журнала опубликовали семь научных статей с сотнями ссылок на предыдущие исследования (2009-2010 гг) друг у друга. Это повысило рейтинг каждого журнала. Описание «бразильский схемы» см. здесь

Кроме декана индийского частного института, в топ по самоцитированию вошли:

  • Теодор Симос (Theodore Simos), математик, на сайте которого указана работа в Университете Короля Сауда (Эр-Рияд, Саудовская Аравия), Уральском федеральном университете (Екатеринбург) и Университете Фракии им. Демокрита (Комотини, Греция) — 76% самоцитат;
  • Клаудиу Супуран (Claudiu Supuran), медицинский химик из Университета Флоренции, Италия, который тоже указал принадлежность к Университету Короля Сауда — 62% самоцитат.

Оба учёных в прошлом году вошли в список 6000 «исследователей мирового класса, отобранных за выдающуюся исследовательскую работу»: список составлен американской аналитической компанией Clarivate Analytics, которая ведёт базу Web of Science. Сейчас компания заявила, что знает о проблеме и собирается скорректировать методологию для расчёта.

Проблема самоцитирования изучается давно. В последние годы проведён ряд исследований. Например, в 2016 году выяснилось, что мужчины цитируют собственные статьи, в среднем, на 56% больше, чем женщины. Хотя последующий анализ позволяет предположить, что это может быть следствием более высокого самоцитирования среди продуктивных авторов любого пола, у которых больше прошлых работ для цитирования.

В 2017 году исследование показало, что итальянские учёные стали более активно ссылаться друг на друга после введения в 2010 году спорных правил, которые требуют от учёных соответствовать пороговым показателям производительности, чтобы иметь право на повышение научного звания.

А в прошлом году министерство исследований Индонезии, которое использует формулу на основе цитирования для выделения средств на исследования и стипендии, заявило, что некоторые учёные манипулируют метриками, используя неэтичные методы, включая чрезмерное самоцитирование и цитирование друг друга. Министерство заявило, что прекратило финансирование 15 исследователей и планирует исключить из формулы ссылки на собственные статьи (источники Nature говорят, что этого ещё не произошло).

В 2017 году Джастин Флатт из Цюрихского университета предлагал публиковать индекс самоцитирования учёных (s-индекс), по аналогии со стандартным показателем производительности (h-индекс). Формула такая же: индекс 20 означает, что исследователь опубликовал 20 работ с не менее чем 20 цитатами. Смысл в том, чтобы публиковать эти индексы параллельно для более объективной оценки.

Важно отметить, что в нынешнем исследовании учитываются ссылки не только на собственные работы учёного, но и на работы соавторов, чтобы более эффективно выявлять «цитатные фермы», хотя такой подход и раздувает оценку. Например, в физике элементарных частиц и астрономии часто встречаются статьи с сотнями или даже тысячами соавторов, что сильно повышает средний показатель самоцитирования в конкретной научной дисциплине.

Некоторые перекосы можно объяснить, сравнивая исследователей со средним показателем по стране, по этапу карьеры и дисциплине. Например, на раннем этапе карьеры у исследователей часто повышенный процент самоцитирования: их работы ещё не успели достаточно распространиться, чтобы их заметили коллеги (см. диаграмму ниже).

Так, директор по аналитике издательского дома Elsevier Йерун Баас (Jeroen Baas) провёл похожее исследование (ещё не опубликовано) для 7 млн авторов, то есть для всех, кто опубликовал более пяти работ. Оказалось, что у них показатели самоцитирования выше: 15,5%, а у 7% авторов — более 40%, потому что у многих из этих 7 миллионов исследователей всего только несколько цитат в целом или они находятся в начале своей карьеры.

Йерун Баас отметил, что высокими медианными показателями самоцитирования отличаются Россия и Украина (1 и 2 место в мире). На иллюстрации ниже видно, что в этих странах индекс гораздо выше среднего.

По индексу сильно выделяются некоторые научные дисциплины, такие как ядерная физика, физика элементарных частиц, астрономия и астрофизика, благодаря большому количеству соавторов.

Джон Иоаннидис считает, что его работа полезна и вообще необходимо часто проводить такие исследования: «Люди в любом случае сильно полагаются на индивидуальные метрики, — говорит он. — Вопрос в том, как сделать их максимально точными и тщательно, систематически собирать информацию. Показатели цитирования не могут и не должны исчезать. Следует наилучшим образом использовать их, полностью признав многочисленные ограничения».

База данных в формате .xlsx (34,2 МБ) опубликована 6 июля 2019 года в онлайновой версии журнала PLoS Biology (doi:10.17632/btchxktzyw.1).

habr.com

Индекс научного цитирования (проверить цитируемость по РИНЦ, Scopus)

Молодые ученые часто не видят разницы между терминами индекс научного цитирования и индекс Хирша. Но становление исследователя невозможно без взаимодействия с экспертным сообществом, и некомпетентность в этих вопросах определяет его авторитет.

Наукометрия – это наука, которая знает, что индекс цитирования – это библиотека будущего. Она появилась благодаря созданию баз цитирования, которые были построены на основе крупнейших библиотек. Существование этих систем позволяет определить и сравнить показатели ученых и их работ, то есть заниматься наукометрией.

О том, что такое индекс цитирования и о других важных понятиях Вы узнаете в этой статье.

Индекс цитирования научных статей

Индекс цитирования (citation index) – тот объем данных, который имеется в распоряжении научно-поисковой системы. В его пределах происходит анализ материала для выдачи результата по запросу. Для включения в эту базу издательства проходят экспертную процедуру аттестации. Внимание в равной мере уделяется качеству материала и пристатейному списку литературы (библиографии). Аккредитованная информация становится индексированной.

Каждая платформа использует собственные данные, но никто не мешает источнику пройти индексацию сразу в нескольких местах.

Виды информационных баз

Базы информации подразделяются на международные и национальные.


 Среди мировых научных систем две — наиболее авторитетные: Web of Science и Scopus. Обе они платные. Япония, Китай и другие страны поддерживают собственные национальные базы, выполняющие важные функции на уровне государства. В России это РИНЦ. Поисковые компании, анализирующие сеть интернет, так же используют возможность создать свое подобие научной базы данных. У Google это Академия гугл (Google scholar).

Важно: На WoS существует общенациональная бесплатная подписка.

WoS – самая влиятельная платформа и первый индекс цитирования в истории. В ее классификаторе около 250 разделов и более 12 тысяч журналов (в том числе 600 российских, которые автоматически признаны ВАК). Ее рецензирующие органы крайне консервативны. Издания полагают, что этот индекс цитирования — их главная цель.


База SCOPUS обширнее, но менее глубокая в ретроспективном плане. За счет лояльности аттестационных комиссий количество индексированных изданий быстро увеличивается и уже превышает 17 000 по 300 разделам. Войти в список рецензентов здесь проще. Много изданий отсюда рецензированы ВАК.

Российским индексом научного цитирования (РИНЦ) был создан единый суверенный библиографический реестр. В него обязаны попадать только российские издания, но все без исключения. Это негативно отражается на качестве информации, которая подвергается минимальному контролю. Здесь собраны материалы 4,5 тысяч российских журналов (включая рецензируемые ВАК), конференций, монографий, патентов и т.д.

Google scholar – информационная система, хранилищем информации которой являются все данные, загруженные в интернет. Имеет невысокий рейтинг. Удобна для русского пользователя тем, что бесплатна и русифицирована. Как и другие платформы, предлагает аналогичные наукометрические средства. Система не может проверить качество материалов, выдаваемых на запрос, и роль экспертов берут на себя сами ученые.

Важно: Статистические показатели между РИНЦ, WoS, Scopus и Google scholar разнятся.

Индекс цитируемости автора

ИЦ – своеобразное отражение статуса и признания заслуг научным сообществом. Общемировая практика использования методов наукометрии, чтобы определить эффективность (целесообразность финансирования) учреждений, привела к тому, что погоня за высоким индексом стала неизбежной участью каждого исследователя. Группа, в которой трудится большее количество людей с высокими показателями цитирования — более успешна и чаще получает гранты. У такого ученого выше шансы быть опубликованным в престижном издании, ведь уже понятно, что на его статьи часто ссылаются, а это повысит импакт-фактор журнала (эффект Матфея).

ИЦ исследователя равен числу ссылок на все его труды за все время, независимо от того выступает он автором или соавтором. Это означает, что такой индикатор цитируемости даже умершего человека продолжает расти. Вычисляется для определенной реферативной базы отдельно и у одного человека в разных местах может отличаться на порядок. В связи с тем, что простое число ссылок на работы плохо характеризует качество деятельности, используются и другие методы оценки «полезности».

Импакт-фактор журнала

Импакт-фактор (ИФ, IF или JIF) – интеллектуальная собственность WoS и его можно узнать только в пределах этой системы. В 1960-x годах Юджин Гарфилд предложил его, как инструмент определения влияния журналов на эволюцию ученой мысли. С тех пор IF сохранил значение и остался важным обстоятельством в определении рейтинга журнала. Он определяется ежегодно Институтом научной информации (ISI).

Виды импакт-фактора

Классический ИФ – двухлетний. Равен отношению числа ссылок за этот год ко всем публикациям в журнале, выполненным двумя годами ранее. Иными словами, отвечает на вопрос: «сколько раз в этом году ссылались на публикации прошлого и позапрошлого года?».

Полученное частное ограничено периодом времени и позволяет определить интенсивность распространения новости в среде экспертов, что доказывает актуальность.

Важно: Явно плохие или даже лженаучные статьи также имеют высокий ИФ, так как упоминаются, подвергаясь критике.

По аналогии с классическим, был введен пятилетний ИФ, так как практика цитирования во всех ветвях науки различается, и в некоторых (социальных и гуманитарных) двухлетний отклик на статью невозможен.

По этой же причине определение ИФ непригодно для сопоставления журналов из разных областей знаний.

Подобные инструменты в Scopus

Альтернатива IF у Scopus — IPP (Impact per Publication). Отличие в том, что в IPP нужно проверить статьи за три года.


Однако, чаще Scopus применяет собственные зарегистрированные коэффициенты – SJR и SNIP.

SJR (Scimago Journal Rank) – разработан университетом Гранады для проверки количества и качество ссылок. Это означает, что ссылка авторитетного источника обладает большим значением (весом), чем неизвестного.

SNIP (Source Normalized Impact Per Paper) — детище профессора Х. Ф. Моэда из Лейденского университета. Дополняет SJR. Призван учесть традиции цитирования (его потенциал) в отраслях науки. С его помощью можно сравнивать значения цитируемости экспертов разных областей.

Другие наукометрические показатели

  1.  Eigenfactor – аналог и предшественник SJR у Scopus. Используется только с пятилетним ИФ. Корректирует его расчеты, не позволяя включить в цитируемость самоцитирование.
  2.  Индекс оперативности (Immediacy index) – используется, чтобы проверить скорость охвата ученого мира информацией, опубликованной в конкретном журнале. Можно сказать, что для читателя это — индикатор актуальности исследований. Показатель рассчитывается за 1 календарный год и равен отношению числа ссылок, сделанных на все статьи журнала за этот период, к общему числу напечатанных в этом журнале за этот же год статей.
  3.  Индекс Хирша (h-index, ИХ) – наукометрический показатель, изобретенный в 2005 году. Характеризует одновременно и количество научных публикаций и их цитируемость в пределах одной научной платформы. Как и другие показатели, узнается системой автоматически.

Важно: Для каждого комплекса научного цитирования h-index рассчитывается отдельно. Для наглядного примера можно сказать, что если ИХ человека равен 10, значит как минимум 10 его работ цитированы не менее 10 раз каждая.

Этот коэффициент может увеличиваться после прекращения автором научной деятельности, но никогда не сможет превысить число его публикаций.

Возможна индексация одновременно для группы ученых или публикаций. Уместен только для сравнения рейтинга представителей одной научной направленности.

H-index имеет недостатки: скрывает наличие статей с очень высоким цитированием, а так же не учитывает количество соавторов. Для решения этой проблемы используют:

  1.  Индекс Эгга (g-index) – отражает наличие «прорывных» работ с частым цитированием. G-index 6 указывает, что автор имеет 6 общепризнанных трудов, суммарная цитируемость которых превышает 36.
  2.  Личный h-index – это отношение индекса Хирша группы статей к численности их авторов. Актуален для отраслей науки, в которых традиционно упоминание большого числа соавторов.
  3.  I-index (индекс Хирша коллектива) – означает, что в составе группы ученых с коэффициентом 7 работает не менее 7 сотрудников с ИХ 7.

Заключение

Осилившему объем статьи читателю ясно, что индексы цитирования — это сосредоточение алгоритмов научной статистики. Как и все инструменты, они имеют сильные и слабые стороны. Узнать их и уметь использовать – признак ученого наших дней. При кажущейся несущественности и ненужности, знание законов наукометрии является залогом успешной карьеры.

disszakaz.ru

Индекс цитирования научных статей — это… Что такое Индекс цитирования научных статей?

Индекс цитирования научных статей (ИЦ) — реферативная база данных научных публикаций, индексирующая ссылки, указанные в пристатейных списках этих публикаций и предоставляющая количественные показатели этих ссылок (такие как суммарный объём цитирования, индекс Хирша и др.)

Первый индекс цитирования был связан с юридическими ссылками и датируется 1873 г. (Shepard’s Citations). В 1960 году Институт научной информации (ISI), основанный Юджином Гарфилдом, ввёл первый индекс цитирования для статей, опубликованных в научных журналах, положив начало такому ИЦ, как «Science Citation Index (SCI)», и затем включив в него индексы цитирования по общественным наукам («Social Sciences Citation Index», SSCI) и искусствам («Arts and Humanities Citation Index», AHCI). Начиная с 2006 г. появились и другие источники подобных данных, например Google Scholar. Данный ИЦ выпускается в ограниченном варианте на CD, а полностью представлен в онлайн-проекте Web of Science.

С 2005 г. в Научной электронной библиотеке (НЭБ, eLIBRARY.RU) создаётся «Российский индекс научного цитирования» (РИНЦ)[1]. Цель проекта заключается в создании отечественной библиографической базы данных по научной периодике.

Индекс цитирования является одним из самых распространенных наукометрических показателей и применяется (для формальной оценки) в научных и бюрократических кругах многих стран. Альтернативами индексу цитирования являются экспертная оценка и оценка по импакт-фактору научных журналов.

Индекс цитирования подвергается критике как показатель, статистически недостоверный, зависящий от области знаний (у биологов и медиков больше, чем у физиков, а у физиков, соответственно, больше, чем у математиков), от суммарного количества специалистов по тому или иному разделу науки, от текущей популярности исследования (в «горячих» областях работы цитируются лучше, чем пионерские или выходящие за рамки текущей ситуации в науке), от географии журнальных публикаций, возраста исследователя, от возможной «накрутки», как «обезличенный» показатель и т. д.[2][3][4].

В русском языке распространена особая интерпретация понятия «Индекс цитирования», подразумевающая под ним показатель, указывающий на значимость данной статьи и вычисляющийся на основе последующих публикаций, ссылающихся на данную работу.

Методы анализа цитирования относят к более общей группе методов анализа документопотока[5].

Примечания

Ссылки

См. также

biograf.academic.ru

5 способов повысить свой индекс Хирша

Принцип оценки успехов научных сотрудников по результатам публикационной активности был разработан Хорхе Хиршем, американским ученым-физиком из Калифорнийского университета, г. Сан-Диего, США. Широкую известность получила оригинальная работа исследователя «An index to quantify an individual’s scientific research output», изданная в 2005 г., в ней изложены принципы оценки деятельности ученых, исходя из количества опубликованных трудов и цитируемости текстов.

Расчет h-индекса, или индекса Хирша, ведется по простой формуле: ученый имеет индекс h, если h из его Np статей цитируются как минимум h раз каждая, в то время как оставшиеся (Np – h) статьи цитируются не более, чем h раз каждая. Таким образом, ученый, опубликовавший 1000 статей, каждая из которых была процитирована 1 раз, будет иметь индекс, равный 1. Обладателем такого же индекса (1) станет исследователь, чей единственный труд стал популярным и набрал 1000 цитирований. Успешным с точки зрения парадигмы Хирша будет ученый, который часто публикуется и «получает» в ответ много упоминаний своих работ в профильных журналах, т. е. создает актуальный продукт: «ценные» тексты, способные заинтересовать ученый мир и продвинуть науку вперед.

Высокие показатели цитируемости сегодня символизируют успех не только исследователей, но и научных школ. Вузы и исследовательские институты, стремящиеся покорить мировые образовательные рейтинги, предлагают магистрантам и аспирантам системы поощрения за публикации, индексируемые наукометрическими базами, такими как РИНЦ, Scopus, Web of Science. «Большой Хирш» может оказаться решающим фактором при приеме в магистратуру и аспирантуру. Поощрения действуют и для университетских преподавателей, многие из которых по условиям трудовых договоров (эффективных контрактов) обязаны ежегодно предъявлять научному сообществу результаты своих исследований, участвовать в грантовых проектах, а значит, писать работы сверх договорной нормы.

Совокупный индекс цитирования публикаций вузов и НИИ влияет на значимость организаций в рейтингах качества образования. Неудивительно, что этот показатель нужен как воздух всем без исключения сотрудникам научных организаций развивающихся стран, в том числе и российским ученым. В нашей стране приняты базовые рекомендуемые оценки научной активности разных категорий ученых в высших учебных заведениях:

· молодой ученый, аспирант — 0–2;
· кандидат наук — 3–6;
· доктор наук — 7–10;
· член диссертационного совета — 10–15;
· ученый с мировым именем, председатели диссертационного совета — 16 и выше.

Для оценки деятельности сотрудников в приведенном перечне применяется показатель совокупного индекса Хирша, поскольку механизм подсчета далек от совершенства и основан на информации библиографических баз данных, ни одна из которых не обладает полным объемом существующих научных публикаций. Совокупный h-индекс ученого — это сумма показателей цитируемости разных библиографических баз, поделенная на количество баз.

lala.lanbook.com

Радость взаимного цитирования — Троицкий вариант — Наука

Мария ГулёваМария Гулёва

В середине августа, в самый разгар отпуска на почту преподавателей Гуманитарного института Санкт-Петербургского политехнического университета Петра Великого пришло письмо с двумя приложениями. В одном были рекомендации по подготовке и публикации научных статей, а в другом — по цитированию источников. Аналогичные документы оказалось возможным найти и на сайте Политеха: общее содержание первого приложения1 и точный аналог второго2. В целом это не то, чтобы плохо и странно: время отпусков — редкая пора, когда преподаватели могут спокойно позаниматься подготовкой статей по своим темам, ведь в семестре времени на это почти не остается. Да и смена деятельности — лучший отдых. Конечно, несколько удивляет желание университетского руководства просветить своих сотрудников, людей в большинстве своем с немалым опытом публикаций, относительно того, как надо и не надо писать статьи и цитировать источники, но по-настоящему плохо и странно другое: в рекомендациях содержатся глупые, несмешные, вредные советы. Там среди прочего говорится следующее (орфография и пунктуация оригинала):

  • Мария Гулёва«Рекомендуется использовать только надежные источники информации: рецензируемую научную литературу, научные статьи, монографии и др., включенные в один из ведущих индексов цитирования (SCOPUS, WOS, РИНЦ и пр.)».
  • «Следует избегать ссылок на непредставительные источники литературы: учебные, учебно-методические пособия, нерецензируемую литературу и минимизировать ссылки на нормативные документы, статистические сборники, архивные материалы».
  • «Рекомендуется в каждой публикации делать ссылки на коллег-работников университета, имеющих статьи в схожей области исследования».
  • Мария Гулёва«Рекомендуется иметь ссылки на статьи, опубликованные авторами вузов — стратегических партнеров нашего университета, а также вузов, занявших первые 500 мест по QS World University Rankings».
  • «Цитирование публикаций сотрудников СПбПУ увеличивает показатели университета в рейтингах, что является одной из ключевых стратегических задач по развитию университета».
  • И, наконец, следует «внести географическое разнообразие в состав соавторов, привлекая к работе над статьей Ваших партнеров из других стран. Это должно повысить широту и качество обзорной части статьи. Кроме того публикации в соавторстве с зарубежными исследователями положительно влияют на академическую репутацию университета. Цитируемость таких публикаций по в 3 раза выше»3.

Издалека может показаться, что это вполне здравые рекомендации: ссылаться на надежные источники, избегать ссылок на непроверенные данные, писать статьи в соавторстве с коллегами. Дьявол, как всегда, в деталях.

Во-первых, слово «качество» в рекомендациях почти не упоминается. Речь идет не о проведении серьезного, вдумчивого, фундированного исследования и не о написании статьи по его ­результатам, а о публикации некоего текста, ­который процитирует новые, не старше пяти лет, работы, желательно «полезных» авторов: коллег и сотрудников вузов-партнеров (список услужливо прилагается), причем публиковать получившееся нечто надо в журналах с высокими опять же в количественном смысле показателями.

Во-вторых, привязка «надежности» к включению того или иного журнала в индексы цитирования — практика не только порочная, но и продемонстрировавшая свои огромные недостатки: расплодилось нездоровое количество вовсе не научных сборников, которые просачиваются в индексы, предлагают опубликовать текст любого качества в любые сроки за деньги и в принципе убивают идею серьезной науки.

В-третьих, рекомендация не обращаться к «источникам литературы» старше пяти лет бессмысленна и нелепа. Для начала возникает вопрос, что такое «источники литературы» — строго говоря, с точки зрения многих отраслей науки это оксюморон: под источниками понимаются первичные материалы, а под литературой — их осмысление исследователем. Впрочем, даже если оставить в стороне терминологические придирки, совет по-прежнему глуп. В любых отраслях знания есть огромный пласт литературы старше пяти лет и настолько фундаментальной, что на нее нельзя не ссылаться; а об источниках и говорить нечего. Как можно проследить динамику изменений в обществе без учета соцопросов десяти- или двадцатилетней давности? Как можно изучать процессы ста или тысячи лет назад, если не обращаться к археологическим и архивным источникам? Предложение «минимизировать ссылки на нормативные документы» тем более вызывает вопросы — на что ссылаться юристам, как не на нормативно-правовые акты? Да и в технических специальностях обращение к ГОСТам и иным спецификациям необходимо. С какой целью минимизировать обращения к ним? Ответ на этот вопрос, конечно, прост: цитирование документов не повышает индексы и рейтинги соседей по кабинетам, а, судя по рекомендациям, Политех основной целью ставит именно взаимное цитирование, практику порочную и бессмысленную в долгосрочной перспективе. Эта практика уже имеет место: предложения процитировать коллег, начальство и прочих «представительных» персонажей фигурируют в замечаниях к статьям, подаваемым в университетские сборники и журналы, наравне с замечаниями, что в статье слишком много «источников старше пяти лет». Порой эти замечания приобретают обязательный характер: авторам статей присылают списки того, на что нужно ­сослаться, а если ­ссылок оказывается мало с точки зрения редакторов, их добавляют постфактум, ставя автора перед свершившимся фактом. Воистину, о, радость! О, радость взаимного цитирования! При этом ясно, что цитирование ученых, занимающихся смежной проблематикой, — важный элемент науки. Всё ее здание может расти только при условии, что пришедшие позже знают, что сделано до них и что делается одновременно с ними. Однако ссылаться надо не по принципу учрежденческой близости, а по соображениям логической, содержательной связи. С этой точки зрения не должно быть ни критериев «не старше пяти лет», ни затей с «цитированием коллег по вузу».

Наконец, рекомендация привлекать в соавторы коллег из-за рубежа (к слову, не уникальная для Политеха идея — ту же мысль высказывают и в других вузах России) сама по себе неплоха. Проводить исследование совместно со специалистом в той же или смежной области полезно, это позволяет шире и точнее оценивать рассматриваемые проблемы и применять к ним новые подходы и методы. Однако и здесь возникает пара вопросов. Почему в рекомендациях говорится, что это повысит «широту и качество обзорной части статьи»? До остальных частей иностранных партнеров допускать не предполагается или безымянные авторы рекомендаций считают, что, кроме обзора литературы, иностранцы ни на что не сгодятся? В конце-то концов, почему критерием для выбора соавтора должно становиться его гражданство или место работы? Тут вспоминается история из «Соло на ундервуде» Сергея Довлатова:

— Конечно, — говорю, — я против антисемитизма. Но ключевые позиции в российском государстве имеют право занимать русские люди.
Это и есть антисемитизм, — сказала Панова.
?
То, что вы говорите, — это и есть антисемитизм. Ключевые должности в российском государстве имеют право занимать ДОСТОЙНЫЕ люди4.

Трудно не заметить, что всяческие индексы в разосланных преподавателям рекомендациях выглядят как самоцель, а развитие университета фактически поставлено в прямую зависимость не от качества преподавания, уровня знаний студентов и выпускников или научных достижений сотрудников, а от включения вуза в разнообразные рейтинги. Расследования «Диссернета» неоднократно демонстрировали, что практика «взаимных цитат» является признаком фальсификаторов, а не ученых; сами исследователи часто и громко твердят, что количественными показателями науку не измерить. Тем более тревожно, что именно такими коллективными ссылками и гонкой за красивыми цифрами предлагает заниматься руководство крупного университета, адресуя то нелепо-наивные, то откровенно вредные советы своим сотрудникам. Остается только пересматривать в тысячный раз прекрасную песню «Индекс Хирша глазами гуманитария»5 и горько смеяться.

Мария Гулёва,
канд. ист. наук, доцент кафедры «Международные отношения»
Гуманитарного института Санкт-Петербургского политехнического университета Петра Великого


1 research.spbstu.ru/userfiles/files/ITOGOVAYa_versia_kratkikh_rekomendatsiy.pdf

2 research.spbstu.ru/userfiles/files/Doc_Grants/rekomendatsii_po_tsitirovaniyu_1(1).pdf

3 Так в презентации.

4 Довлатов С. Д. Соло на ундервуде. Соло на IBM. СПб.: ИД «Азбука-Классика», 2008. С. 45.

5 ok.ru/video/2455703887

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Связанные статьи

trv-science.ru

Рейтинг цитирования политических экспертов Украины: Итоги февраля 2018 года

Украинский институт анализа и менеджмента политики подготовил Итоговый Обзор (рейтинг) цитирования 145 украинских политологов и политических экспертов за февраль 2018 год в сети Интернет (включая аудио- и видеоцитирования).

В обзоре представлены количественный и качественный анализ:

1. Количественный обзор

Количественный анализ выполняется по результатам мониторинга более 1,4 млн. сообщений новостного формата в аналитической системе «Медиатека»: публикаций новостных агентств, интернет и печатных СМИ, сообщений на телевидении, радио и сообщений в Facebook путем простой калькуляции количества упоминаний того или иного политического эксперта.

Количественный обзор позволяет четко и объективно отслеживать информационные тренды. Вместе с тем, в нем отсутствуют фильтры для информационного спама.

Наиболее цитируемым (количественно) в средствах массовой информации политическим экспертом в феврале 2018 года стал директор Украинского института анализа и менеджмента политики Руслан Бортник (854). Второй – Алексей Голобуцкий (612), третий – Александр Палий (597), четвёртый – Дмитрий Корнейчук (472), пятый – Владимир Фесенко (410). В топ-10 также вошли Петр Олещук (390), Андрей Золотарёв (389), Ярослав Юрчишин (376), Алексей Якубин (365), Виктор Небоженко (364).

По сравнению с январём 2018 года топ-25 экспертов обновился. В верхнюю часть списка вернулись или вошли – Сергей Гайдай, Алексей Арестович, Виталий Бала, Олег Соскин; оставили – Олег Волошин, Михаил Погребинский, Николай Спиридонов, Ирина Бекешкина.

Наиболее прогрессирующим экспертом августа стали: Сергей Гайдай (+40), Алексей Арестович (+12), Виталий Бала (+10)

 

 

 

Диаграмма — по месяцам первые 25 Количественный обзор

Таблица Количественный обзор

 

 

2. Аналитический обзор

В аналитическом обзоре учитываются только эксклюзивные цитирования политических экспертов. При этом не берутся во внимание упоминания на личных сайтах и блогах, форумах и объявлениях, поскольку они не являются маркером заинтересованности СМИ в том или ином эксперте, и могут быть использованы участниками рейтинга для субъективного завышения результатов («накручивания»). Этим и обусловлена разница в цифровых показателях между количественным и качественным обзором.

Наиболее цитируемым в средствах массовой информации политическим экспертом января 2017 года стал директор политолог Алексей Якубин (105). В десятку также вошли Руслан Бортник (86), Михаил Погребинский (80), Андрей Золотарев (77), Вадим Карасёв (76), Олег Волошин (63), Тарас Чорновил (58), Алексей Голобуцкий (56), Ярослав Юрчишин (56), Дмитрий Корнейчук (54).

 

 

 

Диаграмма — по месяцам первые 25 Аналитический обзор

Таблица Аналитический обзор

 

В рейтинге проанализированы цифровые показатели цитирования, подготовлены небольшие аннотации к каждому из политологов и указано его наиболее цитируемое высказывание месяца (по нашему мнению), анализируется анализ языка публикаций. При этом если публикация вышла на нескольких языках, то в рейтинг попадала только одна ссылка и на языке, публикацию на котором Google выдает выше (чаще всего на русском языке). Упоминания на личных сайтах и блогах, форумах и объявлениях не учитываются.

Рейтинг не претендует на окончательную истинность, или придание оценки политологам или политическим экспертам – каждый из них уникальный профессионал, результаты деятельности которого нельзя измерить только индексом цитирования в СМИ.

Будем благодарны за предложения и замечания на электронный адрес – [email protected]

uiamp.org.ua