Cookies помогают нам улучшить наш веб-сайт и подбирать информацию, подходящую конкретно вам.
Используя этот веб-сайт, вы соглашаетесь с тем, что мы используем coockies. Если вы не согласны - покиньте этот веб-сайт

Подробнее о cookies можно прочитать здесь

 

Гринёв А.В. Некоторые размышления университетского историка о проблемах наукометрии

В советское время и в первые два десятилетия постсоветского периода наука в вузах традиционно занимала третье по значимости место после учебной и учебно-методической работы. О научной деятельности вспоминали в основном лишь в отчетный период, когда подводились итоги учебного или календарного года, а также при поступлении на работу или при проведении конкурса на замещение должности. Однако с начала 2010-х гг. ситуация постепенно стала меняться, и внимание вузовской администрации всё чаще начинают привлекать показатели НИР, которые становятся важным критерием при аттестации того или иного университета, определении его места в рейтинге вузов и общей оценке его престижности. Неудивительно, что параллельно возрастает значение такой дисциплины, как наукометрия, которая превращается в один из главных инструментов для всесторонней оценки научной деятельности как отдельного преподавателя, так и ППС вуза в целом.

Наукометрия — дисциплина, изучающая развитие науки через разнообразные измерения и статистическую обработку научной информации в основном библиографического порядка (количество опубликованных научных статей, цитируемость автора и т. д.). Сам термин «наукометрия» был введен еще в 1969 г. В. В. Налимовым и З. М. Мульченко, хотя попытки «обсчитать» результаты научной деятельности предпринимались и ранее, прежде всего на Западе, когда Дирек Прайс (Derek J. Price) и особенно Юджин Гарфильд (Eugene Garfield) стали широко применять количественные методы для изучения эволюции науки. Последний организовал в Калифорнии Институт научной информации и в 1961 г. приступил к подготовке «Индекса научных ссылок» (Science Citation Index, сокращенно SCI), который оказался весьма эффективным инструментом исследования в науковедении [Налимов, Мульченко, 1969: 5].

С той поры наукометрия продвинулась далеко вперед, составляя вместе с библиометрией и вебометрикой (от англ. webometrics — дисциплина, исследующая количественные аспекты информационных ресурсов интернета) [Almind, Ingwersen, 1997; Thelvall, 2012 и др.] важную интегральную часть инфометрии. Наряду с простым подсчетом количества научных работ и индексом цитирования (который учитывает число ссылок на работы конкретного ученого) появились новые инструменты наукометрического анализа, в частности широко известный ныне «индекс Хирша» (ИХ, критерий Хирша, h-индекс). Он был разработан в 2005 г. аргентино-американским физиком Хорхе Хиршем (Jorge E. Hirsch) из университета Сан-Диего (Калифорния) [Hirsch, 2005]. Согласно индексу Хирша, ученый имеет индекс h, если h из его N статей цитируются как минимум h раз каждая: например, h-индекс, равный 3, означает, что ученым было издано не менее 3 работ, каждая из которых была процитирована 3 и более раз. При этом количество работ, процитированных меньшее число раз, может быть любым. Специфика индекса Хирша состоит в том, что он будет одинаково низким как для автора одной очень популярной статьи, так и для автора множества работ, процитированных не более одного-двух раз. Этот показатель будет высоким лишь для тех, у кого немало публикаций, и все они (или по крайней мере многие из них) достаточно востребованы, т. е. регулярно цитируются другими исследователями. При этом значение h-индекс существенно зависит от области науки и возраста исследователя (чем он старше, тем показатели выше из-за накопления цитирований). Как правило, высокий h-индекс имеют специалисты-медики и биологи, заметно меньший — физики и совсем небольшой — историки, так как они чаще ссылаются на документы и другие письменные источники, а не на работы своих коллег [Тихонов, 2013: 95]. Неудивительно, что из-за определенных недостатков индекс Хирша вызывает у части ученых полное неприятие и вполне обоснованную критику [Бедный, Сорокин, 2012: 26–27; Полянин, 2014: 141; Bornmann, Mutz, Daniel, 2010: 407–408 и др.].

Кроме индекса Хирша с 2006 г. используется, хотя в неизмеримо меньших масштабах, так называемый g-индекс, предложенный бельгийским ученым Лео Эггэ (Leo Egghe) для измерения научной продуктивности на основе библиометрических показателей [Egghe, 2006]. Этот индекс также рассчитывается на основе распределения цитирований публикаций ученого.

Наряду с количественным анализом научной эффективности отдельных ученых в библио- и наукометрии подобные расчеты ведутся также в отношении научных журналов, воплощаясь в так называемом «импакт-факторе» (ИФ). Он представляет собой формальный численный показатель важности научного журнала и демонстрирует, сколько раз в среднем цитируется каждая изданная в журнале статья в течение двух последующих лет после ее выхода. При этом ИФ журналов динамичны и отличаются в разы для разных дисциплин. Например, специализированный журнал по биологии будет иметь импакт-фактор примерно в 6 раз выше, чем исторический. Естественно, что чиновники от науки и университетское начальство дружно рекомендуют публиковаться в научной периодике с высоким ИФ. Вместе с тем не стоит излишне фетишизировать ИФ, поскольку, как отмечали после его анализа зарубежные специалисты-математики, «использовать только импакт-фактор в оценке журнала — это всё равно что при оценке здоровья человека учитывать только его вес» [Адлер, Эвинг, Тейлор, 2011: 7]. И еще один немаловажный момент: импакт-фактор является индикатором эффективности работы журнала, а не исследователя, напечатавшего в нем свою работу.

Однако не только публикационная активность ученых и научных журналов служит объектом наукометрии, но и аналогичная деятельность целых научных коллективов. Для этого применяется специальный i-индекс, который рассчитывается на основе подсчета индекса Хирша ученых данного научного учреждения. Соответственно, конкретная научная организация имеет индекс i, если не менее i ученых из этой организации имеют h-индекс не менее i. Поэтому чем выше h-индекс ученых данного коллектива, тем больше суммарный i-индекс и тем выше «научный вес» организации.

Здесь следует оговориться, что сам по себе подсчет всех этих индексов и показателей невозможен без специальных библиографических баз. В них аккумулируются данные о наиболее важных научных работах, прежде всего статьях, опубликованных в солидных научных журналах, а также ведется постоянный мониторинг цитирований этих статей. История создания баз (или указателей) научного цитирования начинается с 70-х гг. XIX в., когда в США появляются индекс юридических документов Shepard's Citations в 1873 г. и индекс научных публикаций по медицине Index Medicus в 1879 г. На сегодняшний день существует большое количество международных систем цитирования (библиографических баз): ISI Web of Science, Scopus, Springer, Agris, Google Scholar (GS) и др. К самым авторитетным из них относится американская Web of Science (WoS) — аналитическая и цитатная база данных статей из научных и профессиональных периодических изданий, формируемая Институтом научной информации США (Institute of Scientific Information, владелец — компания Thomson Reuters). Другой не менее авторитетной базой выступает главный конкурент WoS — сравнительно молодая система Scopus, базирующаяся в Нидерландах (владелец — издательская корпорация Elsevier). Обе базы являются коммерческими проектами, и доступ к их данным стоит немалых денег. Журналы, входящие эти базы, официально признаются ВАК РФ. Правда, социогуманитарная тематика и периодика представлены в WoS и Scopus достаточно скромно. Помимо прочего, WoS фиксирует главным образом научные статьи, оставляя «за бортом» монографии, а ведь именно они наиболее высоко ценятся среди гуманитариев, особенно у историков. Во многом монопольное положение WoS, как отмечает в частности Н. В. Мотрошилова, по сути искажает картину развития науки, поскольку данные сильно «американизированы», чем закладывается представление о превосходстве американской науки и имеет место неравенство (дискриминация) возможностей для ученых других стран [Мотрошилова, 2011: 138, 140, 144]. Это проявляется еще и в том, что ссылки, сделанные на кириллице, WoS вообще не учитывает, и в итоге достижения российских историков почти не принимаются в расчет [Тихонов, 2013: 90].

В этом плане более привлекательным выглядит крупнейшая в мире международная реферативная база данных научной информации Scopus, которая содержит относительно более широкую номенклатуру научных журналов, включая некоторые русскоязычные периодические издания исторического профиля [Международная база данных… 2012]. Среди последних можно назвать следующие: «Российская история» (учитывается также в базе WoS), «Былые годы. Российский исторический журнал», «Археология, этнография и антропология Евразии», «Вопросы истории естествознания и техники», «Этнографическое обозрение» (еще один известный исторический журнал — «Вопросы истории» — учитывается в базе WoS). В настоящее время идет подготовка к включению в базу Scopus петербургского исторического журнала «Клио».

Относительно небольшое представительство отечественных журналов в зарубежных базах предопределяется тем, что их аккредитация возможна только при условии выполнения редакцией журнала достаточно жестких требований. Так, для Scopus это обязательное дублирование названия публикуемых статей, аннотаций, ключевых слов и ссылок на английском языке; строгие сроки выхода очередного номера журнала; публикация его содержания в интернете и т. д. [Кириллова, 2013] Если журнал перестает соблюдать эти требования, он автоматически исключается из базы Scopus, приобретая статус Inactive. При этом надо иметь в виду, что кроме статей и обзоров из научных журналов — основных источников информации — Scopus учитывает материалы конференций, диссертации, рефераты, патенты, а с 2014 г. также монографии, вышедшие в академических или университетских зарубежных издательствах, в первую очередь европейских и американских. Всё это дает Scopus дополнительную фору по сравнению с Web of Science, которая постепенно теряет популярность у нас в стране из-за антиамериканских настроений и политики российских властей в связи с обострением отношений с США в 2014 г. после присоединения Крыма.

Внимание к данным зарубежных библиографических баз резко возросло в России после обнародования указа Президента РФ от 7 мая 2012 г. за № 599 «О мерах по реализации государственной политики в области образования и науки». Появление указа было вызвано постоянным снижением доли российских научных публикаций, признаваемых в мире, что отрицательно сказывалось на международном престиже страны. Впрочем, учитывая финансирование и организацию науки в России в сопоставлении с ситуацией в ведущих зарубежных странах, ничего удивительного в этой тенденции нет. Сам же президентский указ предусматривал увеличение к 2015 г. доли публикаций российских исследователей в общем количестве публикаций в мировых научных журналах, индексируемых в базе данных Web of Science, до 2,44 %. Очевидно, что поставленная задача так и не была выполнена, иначе об этом раструбили бы основные государственные СМИ. Тем не менее в ряде вузов публикациям в журналах, входящих в реферативные базы WoS и Scopus, стали отдавать приоритет, а в некоторых университетах даже ввели за них значительные денежные надбавки, премии или гранты [Ефимова, 2012: 105–106; Усачев, 2013: 71]. На этой почве появились фирмы, которые в интернете предлагают всем желающим опубликовать за немалые деньги статью в журнале из списка Scopus (подобные услуги предоставляет, например, издательство «Аналитика Родис» — см. его официальный сайт в интернете: http://publishing-vak.ru/form.htm).

Вместе с тем не следует, на мой взгляд, слепо преклоняться перед зарубежными библиографическими базами и их показателями, поскольку в них (помимо далеко не полного перечня работ российских историков) порой содержатся упущения и ошибки. Сошлюсь на собственный опыт. Так, например, сотрудники WoS и Scopus при регистрации статьи, вышедшей в США в 2010 г. (A Brief Survey of the Russian Historiography of Russian America of Recent Years // Pacific Historical Review, 2010. Vol. 79. N 2. Р. 265–278), в качестве моего соавтора упомянули переводчика Р. Л. Блэнда (R. L. Bland). Он очень хороший переводчик, но не автор, и несмотря на мои неоднократные просьбы исправить недоразумение необходимые поправки так и не были внесены. А вот и совсем свежий пример: лишь после многонедельной переписки весной 2015 г. сотрудники Scopus наконец указали мою правильную аффилиацию (Санкт-Петербургский политехнический университет Петра Великого) в пристатейной информации к недавно вышедшей в Великобритании работе. Один мой коллега из США, профессор А. А. Знаменский, фигурирует в Scopus разом на двух авторских профилях с разным набором публикаций и разным h-индексом, как будто это не один человек, а два разных. И подобные примеры можно продолжать перечислять.

Общим серьезным недостатком Scopus, WoS и других библиографических баз является, с моей точки зрения, то, что они лишь однократно учитывают ссылку на конкретный научный труд, игнорируя тот факт, что подобных ссылок может быть несколько. Другими словами, для WoS или Scopus безразлично, сколько ссылок (сносок) сделано на вашу работу — одна или десять. Будет учтена только одна, что зачастую очень сильно искажает исходные наукометрические показатели того или иного автора и резко снижает объективность наукометрического подхода при использовании данных этих баз. Это происходит из-за того, что в библиометрии в целом под ссылкой понимается только пункт в списке литературы, а не сама ссылка и их количество в тексте, тем более что в различных странах и науках система ссылок/сносок может быть совершенно различна. Кроме того, некоторым оправданием может служить также стремление уменьшить возможность злоупотреблений в случае комплиментарного цитирования («цитатный обмен», по выражению П. А. Лоуренса [Лоуренс, 2011: 42]).

Если теперь посмотреть на зарубежные базы с точки зрения российского историка, то в целом наблюдается довольно безрадостная картина, поскольку отечественные специалисты по истории и их работы представлены в них весьма скромно. Причин для этого несколько: малое число российских журналов исторической направленности, индексируемых WoS и Scopus; незначительное количество российских ученых, публикующихся в зарубежных периодических изданиях, входящих в эти базы; слабое знание многими английского языка; невысокий научный уровень и культура цитирования значительной части публикаций[1] и т. д.

Выходом из ситуации могло бы стать обращение к отечественному аналогу зарубежных библиографических баз — Российскому индексу научного цитирования (РИНЦ). Этот проект разрабатывался с 2005 г. компанией «Научная электронная библиотека» (eLibrary.ru) и первоначально спонсировался государством, но уже через несколько лет бюджетное финансирование было прекращено, и РИНЦ ныне выступает как негосударственная коммерческая организация, которая существует на деньги, которые она может заработать самостоятельно. Следует отметить, что подобное положение не лучшим образом сказывается на деятельности нашей крупнейшей библиографической базы, о чем речь пойдет ниже. Тем не менее ряд исследователей отмечает, что на сегодняшний день система РИНЦ выступает как главный источник информации для характеристики научной эффективности отечественных ученых и организаций, а также популярности научных изданий и альтернативы этой системе у нас в стране не существует, особенно для публикаций по общественным наукам [Бедный, Сорокин, 2012: 22, 27; Ефимова, 2012: 103 и др.]. С другой стороны, находится немало критиков РИНЦ, и упреки в его адрес регулярно появляются на страницах научной периодики и в интернете. Некоторые авторы лишь мягко журят РИНЦ, ссылаясь на его относительную «молодость» [Мотрошилова, 2012: 3; Тихонов, 2013: 90, 99 и др.], в то время как другие выступают с резкими обвинениями в искажении и даже намеренной фальсификации библиометрических данных [Каленов, Селюцкая, 2010; Кузнецов, 2014 и др.].

Мне самому довелось совершенно случайно натолкнуться в интернете на РИНЦ еще пять лет назад. Естественно, решил проверить свои показатели. Выглядели они, мягко говоря, довольно бледно: в авторском профиле тогда находилось всего-навсего 6 научных статей. Подобные результаты могли вызвать лишь снисходительную ухмылку: к лету 2010 г. только в академическом журнале «Советская этнография» / «Этнографическое обозрение» вышло 12 моих статей, не считая еще нескольких десятков в иных отечественных (включая журналы списка ВАК) и зарубежных изданиях. Мысленно посетовав на халтурный сайт, закрыл его и забыл. Как оказалось, напрасно. Через пару лет он напомнил о себе самым непосредственным образом. Дело в том, что в конце весеннего семестра 2012 г. администрация вуза потребовала в приказном порядке немедленно зарегистрироваться в РИНЦ всем преподавателям и срочно предоставить данные о своей научной работе, которые отражены в нем с учетом индекса Хирша. Вероятно, тогдашний аврал с РИНЦ был связан с президентским указом от 7 мая 2012 г. за № 599. Как бы то ни было, но на тот момент у меня всё так же числилось в РИНЦ менее десятка статей, а h-индекс составлял что-то около нуля. Глядя на эти цифры, зав. кафедрой посетовала на мои низкие показатели: мол, вроде бы вы много публикуетесь, а в РИНЦ не на что смотреть. Учитывая начальственную критику, тем более что теперь низкие данные в РИНЦ отражались и на показателях кафедры, решил связаться непосредственно с людьми в Москве, курирующими первую общероссийскую научную библиометрическую базу. С большим трудом и упорными двухнедельными препирательствами, в РИНЦ зарегистрировали часть посланных по электронной почте библиографических данных опубликованных в разные годы статей и увеличили h-индекс до 3. При этом зарубежные публикации в РИНЦ тогда отказались принимать в принципе, хотя среди них находилось несколько работ, упомянутых в Web of Science и Scopus.

Дело в том, что первоначально РИНЦ ориентировался только на статьи, напечатанные в отечественных реферируемых журналах (в основном из списка ВАК). Однако с 2013 г. у РИНЦ появилось немаловажное преимущество — возможность регистрировать не только научные статьи, но и монографии, словари, диссертации, авторефераты и другие разновидности научной печатной продукции и ссылки на них. К сожалению, РИНЦ на этом не остановился и стал учитывать в авторских профилях вузовские учебники, учебные пособия, методички и даже школьные учебники для 7–8-го класса (!). Здесь сам собой возникает недоуменный вопрос: какое отношение к науке имеют подобные творения? Ведь сам РИНЦ расшифровывается как Российский индекс НАУЧНОГО цитирования. Совершенно очевидно, что учебники (хоть вузовские, хоть школьные) не являются и не могут быть научными произведениями, так как в них происходит не публикация принципиально новой авторской научной информации, а лишь та или иная интерпретация уже известного и хорошо изученного материала.

С какой целью РИНЦ начал учитывать учебники и пособия, остается только гадать. Вероятно, эту идею пролоббировала вузовская общественность, администрация или представители Российской академии образования, заинтересованные в регистрации учебных трудов и увеличении в связи с этим своего h-индекса и общих показателей публикационной активности. А представители РИНЦ с удовольствием пошли навстречу, получая немалые средства за регистрацию учебной литературы в своей базе данных. Однако можно повторить, что в отличие от монографий, статей и других собственно научных публикаций (их перечень представлен в официальных ГОСТах), учебные и учебно-методические работы, как правило, не содержат никаких новых достижений и результатов авторских научных открытий, а сам текст представляет собой обычно компиляцию уже достаточно хорошо известных фактов и теорий [Котляров, 2009: 44]. Тем не менее фиксация учебников не только исказила данные о научной работе людей, чьи учебные разработки оказались включены в базу РИНЦ, но и породила волну новых компилятивных учебных пособий, которые тем не менее будут засчитаны РИНЦ в качестве научных публикаций после соответствующей оплаты. Если всё же следовать строгим критериям научного подхода, то необходимо исключить все учебные и учебно-методические работы из перечня РИНЦ или составить для них отдельный каталог.

Но учебных и учебно-методических трудов сотрудникам РИНЦ, видимо, показалось мало, и они начали упоминать в авторских профилях статьи из популярных журналов, например «Вокруг света» (правда, не регистрируя сам журнал на официальной основе у себя в базе), а также заметки и труды низкокачественных периодических изданий ряда вузов и их филиалов. Подобная тенденция привлекла внимание научной общественности, выступившей с резким осуждением подобной практики. Так, доктор биологических наук, ведущий научный сотрудник Института экологии растений и животных УрО РАН Рашит Хантемиров в своей статье указал на высокую долю журналов низкого научного уровня в базе РИНЦ, которую он без обиняков сравнил с «огромной помойкой». Более того, по его словам, администрация РИНЦ поддерживает различные виды мошенничества с показателями цитируемости отдельных «ученых» и импакт-фактором низкосортных журналов своей пассивной позицией, чем дискредитирует не только использование наукометрических показателей, но и саму научную деятельность в России [Хантемиров, 2014]. Выходом из ситуации Р. М. Хантемиров считает замену РИНЦ другой информационно-аналитической системой, разработанной в 2012–2013 гг. — «Картой науки». Однако вряд ли стоит уповать на нее, так как это оказался мертворожденный проект, в чем может легко убедиться каждый, зайдя на соответствующий сайт в интернете. Достаточно сказать, что «Карта науки» охватывает только статьи российских ученых лишь в интервале с 2007 по 2012 г., хотя многие из них имеют публикации вне этого временного отрезка.

Фиксируя за плату в своих базах и авторских профилях всё подряд, РИНЦ тем не менее зачастую не регистрирует некоторые вполне сложившиеся научные издания, в частности выходящий с 2001 г. в городе на Неве журнал «История Петербурга», статьи в котором публикуются с полноценным справочным научным аппаратом, а в редколлегию входят преимущественно специалисты с докторскими степенями. С другой стороны, даже публикация статьи в журнале из списка ВАК не является гарантией попадания в РИНЦ. Так, лишь спустя несколько лет после выхода моей статьи в центральном историческом журнале «Вопросы истории» [Гринёв, 2009] она была включена в авторский профиль после настоятельного напоминания сотрудникам РИНЦ. Опять же, одну статью, опубликованную мной в журнале «Советская этнография» (№ 5) за 1986 г. РИНЦ учел, а другую в том же журнале и за тот же год — нет. Спрашивается, почему?

К сожалению, одной неполнотой библиографии дело не ограничивается. Бывают и обратные казусы. Поскольку в СПбПУ вместе со мной работал полный тёзка Андрей Гринёв (отчества, правда, у нас разные), в РИНЦ по ошибке мне приписали 5 его статей по проблемам топливно-энергетических ресурсов. И только после неоднократных просьб РИНЦ убрал эти работы из авторского профиля. С подобным, очевидно, уже приходилось сталкиваться другим авторам, особенно имеющим наиболее распространенные фамилии, имена и отчества.

Порой в РИНЦ встречается вариант, описанный в известном ироничном стихотворении Владимира Маяковского о бюрократе, который раздвоился, чтобы присутствовать сразу на двух заседаниях. Так и РИНЦ «размножил» некоторых ученых, дважды зарегистрировав их у себя в базах. Подобное произошло, например, с одним знакомым профессором на кафедре истории СПбПУ, который долгое время присутствовал в Российском индексе научного цитирования сразу в двух ипостасях, причем его авторские профили разительно отличались между собой. Сходное явление «раздвоения личности» уже было отмечено другими коллегами, писавшими, что наряду с дублированием РИНЦ не всегда указывает заслуженных ученых [Тихонов, 2013: 100].

Пару слов на эту тему. В 2014 г. помимо публикации различных библиографических и наукометрических сведений РИНЦ выдал «Топ-100 самых цитируемых российских ученых по данным РИНЦ: История. Исторические науки»[2]. Это нечто. Достаточно сказать, что в перечне числились покойные советские академики Е. В. Тарле, Б. А. Рыбаков, Ю. В. Бромлей, Б. Д. Греков и другие видные деятели советской науки. Здесь невольно начинаешь подозревать РИНЦ в симпатии к советскому режиму, так как в списке почему-то отсутствуют еще более известные историки-академики, правда, Императорской АН — Н. М. Карамзин, С. М. Соловьёв, В. О. Ключевский. Вместо них в список попали люди, вообще не имеющие никакого отношения к истории и историческим наукам, например, А. В. Вебер, представляющий ОАО «Центр технологии судостроения и судоремонта» в Санкт-Петербурге (№ 77) или Я. В. Кузьмин из Института геологии и минералогии им. В. С. Соболева СО РАН (№ 11). Последнего, однако, опередил на одну позицию, как вы думаете, кто? Наш президент В. В. Путин! Составители списка явно поскромничали, не поставив его на первое место среди российских историков. Правда, в 2015 г. список топ-100 был обновлен и некоторые ныне покойные деятели исторической науки были из него удалены, но добавились новые, например, известный археолог академик А. П. Окладников (всего фамилии покойных составляют минимум 20 % от всего перечня). Кроме того, РИНЦ сохранил «добрую» традицию включать в список наиболее цитируемых представителей исторической науки ученых, стяжавших славу в совсем иных сферах научной мысли, например, Л. Я. Боркина (№ 44) из Зоологического института РАН. Сохранился в списке и В. В. Путин, демократично передвинутый составителями на 24-е место[3].

И еще. При просмотре списка топ-100 бросается в глаза явный перекос в пользу археологов, востоковедов и этнографов, что, безусловно, связано со спецификой соответствующих дисциплин и особенностями цитирования в оных[4]. Неудивительно, что 1-е место и по числу цитирований (почти 12 000) и по h-индексу (49) занимает директор Института этнологии и антропологии РАН им. Н. Н. Миклухо-Маклая академик В. А. Тишков. В связи с этим РИНЦ следовало бы ради большей объективности разделить свой список по отраслевому принципу: отдельно историки, отдельно археологи, отдельно этнографы/этнологи. Однако есть то, что есть. Хотя РИНЦ всё же не мешало наладить более жесткий контроль за своими материалами и избегать совершенно очевидных «ляпов» хотя бы при составлении подобных перечней.

Это касается и ссылок на обычные научные публикации, которые зачастую оформлены в РИНЦ с явными нарушениями элементарных библиографических правил. Могу судить на основании собственной практики: из 71 работы, числящейся в моем авторском профиле на июль 2015 г., примерно в 40 случаях (т. е. более половины) указаны либо неполные, либо ошибочные данные. Чаще всего РИНЦ «забывает» дать целиком страницы произведений, ограничившись почему-то лишь первой цифрой, или выдает заведомо неверные данные о томе или номере публикации (например № 88–100). Бывают и более серьезные упущения: вместо названия на русском языке, как в оригинале, работа и фамилия автора даны латинскими буквами, как будто речь идет об иностранном издании. Три статьи для чего-то продублированы дважды (причем частью на латинице с разными страницами). И, наконец, по какой-то непонятной логике (или милости?) в мой авторский профиль под № 38 была включена статья Д. Эдгара «Великобритания в современном мире», изданная в Санкт-Петербургском университете профсоюзов в 2006 г.[5]

Публикуя в авторском профиле заведомую чепуху, РИНЦ в то же время последовательно игнорирует присылаемые правильные и полные библиографические материалы, неизменно ссылаясь на то, что их регистрация осуществляется в основном через научные или учебные организации. Правда, за весьма приличную плату. Абонирование осуществляется на год, а стоимость зависит от количества авторов (сотрудников вуза): в случае с университетом, где я тружусь последние 8 лет, ежегодная плата составит около 600 тыс. руб. Поскольку администрация не торопится расстаться с указанной суммой, в моем авторском профиле до сих пор не зафиксировано более половины всех научных работ, остальные нередко даны с ошибками, а h-индекс занижен примерно вдвое. С ним одно время вообще происходили довольно странные вещи, когда РИНЦ произвольно уменьшал его, чего происходить в принципе не должно, поскольку h-индекс либо остается стабильным, либо растет по мере увеличения числа публикаций и их цитирования в научной литературе. Тем не менее в 2013–2014 гг. дважды по неизвестным причинам мой h-индекс в РИНЦ был сокращен на единицу. На недоуменный запрос, как же такое могло случиться, сотрудники РИНЦ отвечали, что h-индекс у них вычисляется автоматически. Однако вскоре после соответствующих протестов h-индекс «автоматически» был возвращен к прежнему значению. К сожалению, нет никаких гарантий, что в будущем «автоматика» РИНЦ будет работать исправно.

Всё это было бы забавно, если бы «наукометрические» данные РИНЦ не использовались официальными государственными структурами и администрацией вузов для оценки научного вклада ученых или результатов НИР целых коллективов, при выделении грантов, при проведении экспертизы заявок на финансирование в рамках федеральных целевых программ и т. п. Как говориться, всё это было бы смешно, когда бы не было так грустно. При этом воздействовать на РИНЦ достаточно сложно, поскольку это частная коммерческая организация.

Выводы напрашиваются сами собой. Теоретически РИНЦ мог бы стать очень полезным и важным инструментом отечественной наукометрии. У него много полезных функций и даже сейчас он может иногда помочь в поиске публикаций тех или иных авторов, указать на их аффилиацию и т. д. Однако пока не будут решены перечисленные выше проблемы, о его подлинной объективности вряд ли может идти речь, а потому к приводимой РИНЦ библиографической и наукометрической статистике надо относиться с большой долей скепсиса. Одной из мер, призванных улучшить ситуацию, могло бы стать возвращение государственного руководства и финансирования, увеличение штата сотрудников для более полного и внимательного учета всё возрастающего объема библиографической информации и ужесточение контроля над предоставляемыми и публикуемыми материалами. Пока же приходится констатировать, что для превращения в полноценную наукометрическую базу РИНЦ предстоит проделать еще достаточно долгий путь.

Не является панацеей и упование на зарубежные библиометрические базы, о чём уже говорилось выше. Насколько различны наукометрические показатели российских ученых, зарегистрированные у нас в РИНЦ и в иностранных библиографических базах, наглядно демонстрирует пример академика В. А. Тишкова, который является несомненным лидером в плане цитирования среди отечественных представителей исторических дисциплин. Согласно данным РИНЦ, на лето 2015 г. его h-индекс в авторском профиле составляет внушительную цифру 49, в то время как в Scopus его h-индекс всего лишь 4 балла, т. е. на порядок меньше.

Подводя общий итог, следует сказать следующее. Наукометрия в нашей стране имеет большой и пока не реализованный потенциал, она нуждается в дальнейшем развитии и совершенствовании своего инструментария. Пока же ее данные и инструменты используются далеко не лучшим образом, очень часто приводя не к выявлению объективной информации, а к искажению истины, манипулированию и нарушению элементарной справедливости. В этой связи приходится с сожалением констатировать, что один из основных центров развития отечественной библио- и наукометрии — РИНЦ, в его нынешнем состоянии в принципе неспособен выполнять возложенные на него общественные и научные функции и нуждается в кардинальном реформировании.

References

Adler R., Ewing Dzh., Taylor P. Statistiki citirovanija // Igra v tsifir', ili Kak teper' ocenivajut trud uchenogo (sbornik statej o bibliometrike). M., 2011. S. 6–38.

Almind T. C., Ingwersen P. Informetric analyses on the World Wide Web: Methodological approaches to «Webometrics» // Journal of Documentation. 1997. Vol. 53. N 4. P. 404–426.

Avrus A. I. Ob eticheskikh normakh v nauchnykh publikaciyakh i dissertaciyakh // Klio. 2015. № 1. S. 196–200.

Bednyi B. I., Sorokin Ju. M. O pokazatelyakh nauchnogo tsitirovanija i ikh primenenii // Vysshee obrazovanie v Rossii. 2012. № 3. S. 17–28.

Bornmann L., Mutz R., Daniel H.-D. The h index research output measurement: Two approaches to enhance its accuracy // Journal of Informetrics. 2010. No. 4. P. 407–414.

Efimova G. Z. Analiz effektivnosti naukometricheskikh pokazatelei pri otsenke nauchnoi deyatel'nosti // Vestnik Tyumenskogo gosudarstvennogo universiteta. 2012. № 8. S. 101–108.

Egghe L. Theory and practise of the g-index // Scientometrics. 2006. Vol. 69. N 1. P. 131–152.

Grinёv A. V. Geopoliticheskie interesy Rossii v Amerike i na Tikhookeanskom severe. XVIII — pervaya polovina XIX v. // Voprosy istorii. 2009. № 3. S. 48–65.

Grinёv A. V. Problemy tsitirovanija v otechestvennoi istoriografii (na primere nauchnykh rabot po istorii Russkoj Ameriki) // Klio. 2014. № 10. S. 136–141.

Hirsch J. E. An index to quantify an individual’s scientific research output // Proceedings of the National Academy of Sciences. 2005. Vol. 102. No. 46. P. 16569–16572.

Kalenov N. E., Seljuckaja O. V. Nekotorye ocenki kachestva Rossijskogo indeksa nauchnogo citirovanija na primere zhurnala «Informacionnye resursy Rossii» // Informacionnye resursy Rossii. 2010. № 6. S. 2–13.

Khantemirov R. M. RINC: ot primitivnogo moshennichestva do rastlenija maloletnih // Troickii variant. 2014. № 163 ot 23 sentyabrya. S. 6.

Kirillova O. V. Redaktsionnaya podgotovka nauchnykh zhurnalov po mezhdunarodnym standartam. Rekomendatsii eksperta BD Scopus. Ch. 1. M., 2013.

Kotlyarov I. D. Upravlenie produktivnost'yu nauchnoi raboty professorsko-prepodavatel'skogo sostava // Universitetskoe upravlenie: praktika i analiz. 2009. № 5. S. 41–48.

Kuznetsov A. V. Dlya nachala nado navesti poryadok v sushchestvuyushhei sisteme RINC // Vestnik Rossiiskoi Akademii nauk. 2014. T. 84. № 3. S. 268–369.

Lawrence P. A. Poteryannoe pri publikacii: kak izmerenie vredit nauke // Igra v tsifir', ili Kak teper' ocenivajut trud uchenogo (sbornik statej o bibliometrike). M., 2011. S. 39–45.

Mezhdunarodnaya baza dannykh SciVerse Scopus: osnovnye vozmozhnosti dlya nauchnogo poiska i kontaktov: Metod. rekomendatsii / Sost.: P. S. Volegov, M. A. Tashkinov, O. D. Tsvetova. Perm', 2012.

Motroshilova N. V. Nedobrokachestvennye segmenty naukometrii // Vestnik Rossiiskoi Akademii nauk. 2011. T. 81. № 2. S. 138–144.

Motroshilova N.V. Sistema RINC primenitel'no k filosofskim naukam // Vysshee obrazovanie v Rossii. 2012. № 3. S. 3–16.

Nalimov V. V., Mul'chenko Z. V. Naukometriya. Izuchenie razvitiya nauki kak informatsionnogo protsessa. M.: Nauka, 1969.

Polyanin A. D. Nedostatki indeksov tsitiruemosti i Hirsha. Indeksy maksimal'noi tsitiruemosti // Matematicheskoe modelirovanie i chislitel'nye metody. 2014. № 1. S. 131–144.

Thelvall M. A history of Webometrics // Bulletin of the American Society for Information Science and Technology. 2012. Vol. 38. No. 6. P. 18–23.

Tikhonov V. V. Rossiiskaya istoricheskaya nauka i indeksy nauchnogo tsitirovaniya // Novyi istoricheskii vestnik. 2013. № 2. S. 89–106.

Usachev A. S. Rossiiskie istoriki i zarubezhnye zhurnaly: nekotorye razmyshleniya specialista po istorii Rossii // Novyi istoricheskii vestnik. 2013. № 1. S. 69–83.

 

Библиографический список

Аврус А.И. Об этических нормах в научных публикациях и диссертациях // Клио. 2015. № 1. С. 196–200.

Адлер Р., Эвинг Дж., Тейлор П. Статистики цитирования // Игра в цифирь, или Как теперь оценивают труд ученого (сборник статей о библиометрике). М., 2011. С. 6–38.

Бедный Б. И., Сорокин Ю. М. О показателях научного цитирования и их применении // Высшее образование в России. 2012. № 3. С. 17–28.

Гринёв А. В. Геополитические интересы России в Америке и на Тихоокеанском севере. XVIII — первая половина XIX в. // Вопросы истории. 2009. № 3. С. 48–65.

Гринёв А. В. Проблемы цитирования в отечественной историографии (на примере научных работ по истории Русской Америки) // Клио. 2014. № 10. С. 136–141.

Ефимова Г. З. Анализ эффективности наукометрических показателей при оценке научной деятельности // Вестник Тюменского государственного университета. 2012. № 8. С. 101–108.

Каленов Н. Е., Селюцкая О. В. Некоторые оценки качества Российского индекса научного цитирования на примере журнала «Информационные ресурсы России» // Информационные ресурсы России. 2010. № 6. С. 2–13.

Кириллова О. В. Редакционная подготовка научных журналов по международным стандартам. Рекомендации эксперта БД Scopus. Ч. 1. М., 2013.

Котляров И. Д. Управление продуктивностью научной работы профессорско-преподавательского состава // Университетское управление: практика и анализ. 2009. № 5. С. 41–48.

Кузнецов А. В. Для начала надо навести порядок в существующей системе РИНЦ // Вестник Российской Академии наук. 2014. Т. 84. № 3. С. 268–369.

Лоуренс П. А. Потерянное при публикации: как измерение вредит науке // Игра в цифирь, или Как теперь оценивают труд ученого (сборник статей о библиометрике). М., 2011. С. 39–45.

Международная база данных SciVerse Scopus: основные возможности для научного поиска и контактов: Метод. рекомендации / Сост.: П. С. Волегов, М. А. Ташкинов, О. Д. Цветова. Пермь, 2012.

Мотрошилова Н. В. Недоброкачественные сегменты наукометрии // Вестник Российской Академии наук. 2011. Т. 81. № 2. С. 138–144.

Мотрошилова Н.В. Система РИНЦ применительно к философским наукам // Высшее образование в России. 2012. № 3. С. 3–16.

Налимов В. В., Мульченко З. В. Наукометрия. Изучение развития науки как информационного процесса. М.: Наука, 1969.

Полянин А. Д. Недостатки индексов цитируемости и Хирша. Индексы максимальной цитируемости // Математическое моделирование и числительные методы. 2014. № 1. С. 131–144.

Тихонов В. В. Российская историческая наука и индексы научного цитирования // Новый исторический вестник. 2013. № 2. С. 89–106.

Усачев А. С. Российские историки и зарубежные журналы: некоторые размышления специалиста по истории России // Новый исторический вестник. 2013. № 1. С. 69–83.

Хантемиров Р.М. РИНЦ: от примитивного мошенничества до растления малолетних // Троицкий вариант. 2014. № 163 от 23 сентября. С. 6.

Almind T. C., Ingwersen P. Informetric analyses on the World Wide Web: Methodological approaches to «Webometrics» // Journal of Documentation. 1997. Vol. 53. N 4. P. 404–426.

Bornmann L., Mutz R., Daniel H.-D. The h index research output measurement: Two approaches to enhance its accuracy // Journal of Informetrics. 2010. No. 4. P. 407–414.

Egghe L. Theory and practise of the g-index // Scientometrics. 2006. Vol. 69. N 1. P. 131–152.

Hirsch J. E. An index to quantify an individual’s scientific research output // Proceedings of the National Academy of Sciences. 2005. Vol. 102. N 46. P. 16569–16572.

Thelvall M. A history of Webometrics // Bulletin of the American Society for Information Science and Technology. 2012. Vol. 38. N 6. P. 18–23.

 

 

[1] Об «особенностях» российской культуры цитирования см. подробнее: [Гринёв, 2014; Аврус, 2015].

[2] См. в интернете по адресу: URL: http://dissertation-info.ru/index.php/-100-/155-2014-01-18-00-54-07.html (дата обращения 09.09.2014).

[3] Там же (дата обращения: 06.07.2015).

[4] Это обстоятельство уже было подмечено и объяснено В. В. Тихоновым [Тихонов, 2013: 100–101].

[5] URL: http://elibrary.ru/author_items.asp (дата обращения 06.07.2015).

464