Наверное, рейтинги университетов начали появляться еще на заре их существования. Студенты при желании могли переходить из одного университета в другой, ища для себя лучших преподавателей и условий жизни. И даже при тогдашней ограниченной коммуникации они знали, какой университет чего заслуживает.
С тех пор изменилось многое...
У нас во времена Советского Союза особых проблем с рейтингами высших учебных заведений (далее — ВУЗ) не возникало. Все знали, что самые лучшие университеты и институты в Москве и в неофициальной «второй столице» — Ленинграде. Далее за рангом шли ВУЗы в столицах «союзных республик», после них — областных центров, а ниже всех — городов областного подчинения и райцентров. Последних можно было пересчитать по пальцам. Естественно, были университеты или институты, на своем уровне выделявшиеся среди других.
Теперь же, в условиях независимой Украины, когда число ВУЗов стало резко расти и, кроме государственных, появилось немало частных, бывший «табель о рангах» начал трещать. С одной стороны, в условиях рынка востребованными стали рейтинги высших учебных заведений. Хотя бы для того, чтобы сориентироваться и молодым людям, стремящимся получить высшее образование, и работодателям. В то же время появился соблазн использовать рейтинги в рекламных целях. Сделать это не так уж и сложно. Просто нужно задать соответствующие параметры при вычислении рейтинга, и ты гарантировано будешь иметь нужный результат.
Так, одно из довольно известных высших учебных заведений негосударственной формы собственности в своем периодическом издании печатало рейтинги университетов и институтов. Естественно, название этого заведения в данном случае фигурировало среди лидеров.
Сейчас можно встретить рейтинги, касающиеся различных аспектов работы ВУЗа. Преимущественно они являются неофициальными. Однако в этом году в Украине были сделаны попытки определить рейтинги этих заведений структурами, имеющими официальный статус.
В частности, это сделано Министерством науки и образования. Правда, данный рейтинг широко не предавался огласке и был рассчитан скорее для служебного пользования. В принципе, можно понять Министерство. Достаточного опыта в этом деле у нас еще нет. Ведь высшее учебное заведение — организм непростой, поэтому найти однозначные индикаторы для определения его рейтинга сложно. Не только у нас, но и за границей, где такие рейтинги уже выводятся, по поводу индикаторов не стихают дискуссии.
Поскольку министерский рейтинг ВУЗов недостаточно известен общественности, не считаю корректным для себя его рассматривать и комментировать. Отмечу только, что, на мой взгляд, его разработчики подошли к делу довольно продуманно, сделав рейтинги по определенным типам высших учебных заведений и при этом определив большое количество индикаторов. Можно, конечно, дискутировать по поводу отдельных из них. Но это уже детали, которыми должны были бы заняться специалисты.
Кроме министерского, появился еще рейтинг ВУЗов «Топ-200 Украина», опубликованный в газете «Зеркало недели» (от 24 марта 2007 г.) и получивший широкую огласку. Судя по публикации в газете, ответственность за этот рейтинг взяла на себя международная организация ЮНЕСКОСАПЕС. Точнее, она поручила кафедре ЮНЕСКО «Высшее техническое образование, прикладной системный анализ и информатика» (Украина) «выполнить комплекс мероприятий со внедрением в Украине наработанных международной экспертной группой IREG методик и процедур рейтингового оценивания деятельности университетов и учебных программ». Сообщалось также, что «для предоставления помощи Украине» «создан международный наблюдательный совет по рейтинговому оцениванию университетов и учебных программ в Украине». В состав этого наблюдательного совета вошли Ян Садлак (ЮНЕСКО, он же председатель наблюдательного совета), Дженс Петер Гаул (директор стратегического планирования немецкой исследовательской фундации, Германия), Вальдемар Сивиньски (президент образовательной фундации «Перспективы», Польша), Фердинанд Девинский (председатель комитета Народного совета Словацкой Республики по вопросам молодежи, спорта и информации, Словакия).
На первый взгляд, все это выглядит солидно. Однако, возникает ряд вопросов. Во-первых, неужели Украина настолько безалаберна, что ее специалисты не могут самостоятельно разработать рейтинговое оценивание для своих учебных заведений, учитывая мировые стандарты, и поэтому нужно создавать «международный наблюдательный совет» для предоставления нам помощи? Не знаю, как для кого, для меня это выглядит несколько унизительно. Во- вторых, не имея ничего против членов этого наблюдательного совета, хочу отметить, что, кроме представителя ЮНЕСКО, все они представляют страны, где образовательные системы отличаются от нашей (в некоторых моментах довольно заметно). И у меня есть некоторые сомнения, насколько эти люди понимают специфику нашего образования. В-третьих, что это за «кафедра ЮНЕСКО «Высшее техническое образование, прикладной системный анализ и информатика» (Украина)» и что за люди входят в ее состав?
Но не будем такими уж придирчивыми. Предположим, что члены «международного наблюдательного совета» дадут нам ценные советы, а кафедра с несколько странным названием на основе их рекомендаций разработает нам надлежащую систему рейтингового оценивания.
Попытаемся разобраться, что нам предложили. Прежде всего, какие индикаторы использовались в методике данного оценивания. В общем их не так уже и много — всего 16, каждый из которых имеет свои весовые коэффициенты. Для оценки работы высшего учебного заведения это немного. К тому же многие индикаторы являются однотипными. Фактически таковы индикаторы 13, 14, 15, 16, касающиеся членства в международных ассоциациях высших учебных заведений.
Но, впрочем, можно и закрыть глаза на немногочисленность индикаторов. Главное, чтобы они помогли нам как можно объективнее оценить основные моменты работы вуза. К сожалению, как раз здесь начинаются проблемы.
В идеале высшее учебное заведение может набрать 100% рейтинга. Из них — 50% за качество научно- педагогического потенциала, 30% за качество обучения и 20% за международное признание. Сразу возникает вопрос, почему именно такое соотношение? Понятно, качество научно-педагогического потенциала — важный показатель. Но разве не более важным показателем является качество обучения? Разве не основная задача высшего учебного заведения давать качественно подготовленных специалистов? Разве более логичным не выглядело бы хотя бы такое соотношение: 50% — за качество обучения, 30% — за качество научно-педагогического потенциала и 20% — за международное признание? Но, очевидно, авторы методики руководствовались какими-то «высшими» рассуждениями.
Эти рассуждения начинают просматриваться, когда начинаешь изучать индикаторы качества научно- педагогического потенциала. В соответствии с предложенной методикой, весовой коэффициент академика НАН Украины 27,5 единиц, члена- корреспондента этой же Академии почему-то более чем в два раза меньше — 13,5. Против них вес профессоров и докторов выглядит просто смехотворным — соответственно 2,6 и 2,5. А вес доцентов и кандидатов наук сведен почти к нулю — соответственно 0,6 и 0,5. Кроме того, выведена еще одна категория представителей научно-педагогического потенциала — это лауреаты государственных премий в области науки и техники и премии им. Т. Шевченко. Их весовой коэффициент немного больше профессорского — 2,8.
Нехитрая арифметика показывает, что при оценке качества научно- педагогического потенциала академик равен целым 9,82142857 лауреатам премий, 10,5769231 профессорам, 11 докторам наук, 45,8333333 доцентам, 55 кандидатам наук. Прибавлю еще, что профессор «весит» 4,33333333 доцентов, а один доктор — целых 5 кандидатов наук. Откуда такое соотношение и как его обосновывают авторы методики, хотелось бы знать. Неужели они всерьез считают, что в учебной и научной работе один наш академик стоит целых 11 докторов, а один доктор пятерых кандидатов?
Не совсем понятно, почему авторы методики не включили в индикаторы такую категорию, как академики других государственных академий? Например, Академии педагогических наук. Или почему в число индикаторов включаются только штатные преподаватели и отбрасываются совместители. Они тоже, наверное, являются «пустым местом».
Естественно, при оценке качества научно-педагогического потенциала мы должны больше ценить академика, чем профессора, доктора, чем кандидата. Но не в таком соотношении, как предлагают нам. Вы спросите: а в каком? Ну, если не могут авторы методики найти какое-то рационально обоснованное соотношение, то пусть возьмут за основу официальную разницу в оплате труда этих категорий преподавателей. Кстати, не такая уж она и большая.
Теперь перейдем ко второй категории при определении рейтинга — качеству обучения. Здесь чудес не меньше, если не больше. Качество обучения определяется (всего!) четырьмя индикаторами. Среди всех категорий рейтинга в этой категории индикаторов меньше всего. И это при том, что качество обучения, наверное, должно было бы быть самым важным показателем.
Но самое интересное то, что из предложенных индикаторов только два имеют непосредственное отношение к качеству обучения. Это количество студентов, победителей и призеров международных олимпиад (конкурсов) и победителей и призеров всеукраинских олимпиад (конкурсов). Весовые коэффициенты этих индикаторов соответственно 7,5 и 1,5. Вообще-то можно подискутировать относительно предложенного в данном случае соотношения коэффициентов, а также относительно репрезентативности данных индикаторов. Но пусть уже будет так. Тем более, что эти индикаторы не «дотягивают» даже до трети при оценке качества обучения.
Важным индикатором, с точки зрения авторов методики, является соотношение количества магистров к количеству бакалавров и специалистов. Фактически этот индикатор рассчитывается таким образом: количество магистров делится на сумму бакалавров и специалистов. Не отрицаю: подобный подход имеет определенный смысл на Западе. Но не у нас, где произошло наложение западной системы образования на систему советскую. В результате этого мы получили гремучую смесь, с которой никак не можем разобраться. Если на Западе бакалавр — это, как правило, уже полноценное высшее образование, а магистр — что-то большее, то у нас фактически бакалавр — «незаконченное высшее образование», во всяком случае, неполноценное, а полноценное — специалист и магистр. Собственно, специалиста у нас скорее стоит приравнивать к магистру, чем к бакалавру. К сожалению, этого не учитывают авторы методики и, предлагая такой индикатор, искажают реальную картину. При этом коэффициент веса данного индикатора немаленький — 7 единиц.
Реально же критерий качества обучения определяет индикатор «масштаб ВУЗа», имеющий весовой коэффициент 14 (чуть меньше половины того, что отведено на другие индикаторы в данной категории). Рассчитывается он таким образом: общее количество студентов высшего учебного заведения делится на среднее количество студентов заведения такого же типа (классические университеты, технические и т.д.). Иначе говоря, чем больше студентов, тем лучше показатель. Какое это имеет отношение к качеству обучения, можно только догадываться.
Особенно интересна третья категория — «международное признание». Первый индикатор в этой категории — количество иностранных студентов. Однако его весовой коэффициент очень маленький — единица. А вот членство учебного заведения в Европейской ассоциации университетов оценивается в 7 единиц, в Большой хартии университетов — в 6, Евразийской ассоциации университетов — в 3, в сети университетов стран Черноморского региона — тоже в 3. Других индикаторов просто нет. Как видим, показатель категории «международное признание» свелся к участию в международных ассоциациях вуз ов.
Не отрицаю, что такое участие должно учитываться при оценке международного признания. Однако не стоит его преувеличивать, как это делают авторы методики. Ведь, во-первых, данное участие часто имеет формальный характер, а, во-вторых, не стоит переоценивать авторитетность этих ассоциаций. На мой взгляд, намного большее значение для международного признания вуз а имеет обучение в нем иностранных студентов. Однако, как видим, весовой коэффициент этого индикатора авторы методики определили единицей. В принципе, международным признанием университета является то, что в нем работают иностранные преподаватели, а его преподаватели приглашаются в иностранные университеты, когда университет принимает участие в международных программах, проводит международные конференции. Но этого всего не учитывают авторы методики.
Даже поверхностно проанализировав методику, нетрудно заметить, что в ней были заложены некоторые индикаторы, весовые коэффициенты которых явно завышены. Это количество штатных сотрудников, избранных академиками (27,5) и членами- корреспондентами (13,5) НАН Украины; масштаб ВУЗа (14); а также участие в международных ассоциациях университетов, суммарный весовой коэффициент которого составляет 19. Если сложить эти мега-индикаторы рейтинга, то получится 74%. На все другие индикаторы (а их 9) отведено только 26%, и они, естественно, «погоды не делают».
Безпроблемно оказаться на первых местах в рейтинге можно только тогда, когда в вузе работают академики и члены-корреспонденты НАН Украины. Прежде всего это киевские университеты. Ведь именно в Киеве сосредоточена основная масса академиков и член-коров. Большинство университетов (по определенным причинам) не могут похвастаться наличием в своем составе такой категории ученых.
Однако если нет среди преподавательского состава академиков, то авторы методики дают вам шанс относительно легко исправить положение. Для этого нужно вступить в несколько международных ассоциаций университетов — и ваш рейтинг резко вырастет. Так, оказывается, что участие в Евразийской ассоциации университетов может дать больше, чем комплектация преподавательского состава профессорами. Вообще странно читать в рейтинге «Топ-200 Украина» о том, что некоторые не такие уж и известные высшие учебные заведения имеют более высокую оценку международного признания, чем Киевский национальный университет им. Т. Г. Шевченко. Например, к таковым относится Луганский национальный педагогический университет, Одесский национальный политехнический университет, Одесская национальная юридическая академия и другие. Здесь можно только развести руками. Похоже, авторы методики специально так разработали индикаторы категории «международное признание», чтобы дать возможность некоторым учебным заведениям искусственно раздуть свой рейтинг.
И наконец, третий важный индикатор — масштаб вуза. Он дает возможность численно большим учебным заведениям вырваться вперед в рейтинге по сравнению с «малогабаритными».
То есть, как видим, при выводе рейтинга фактически игнорируются качественные показатели. Кстати, авторы методики это сами признают. «На первом этапе, — пишут они, — определения рейтингов вузов Украины применялись только количественные критерии и индикаторы. С использованием качественных характеристик деятельности вузов была связана значительная трудность в связи с отсутствием в Украине достаточного опыта, профессионального потенциала и организационных принципов для независимого и объективного применения методов экспертного оценивания для такой масштабной системы, каковой является высшее образование». Во-первых, если это так, то зачем данный рейтинг предается широкой огласке, а сам он подается как какое-то большое достижение. Возможно, для начала этот рейтинг стоило распространить среди специалистов и выслушать их замечания. Во-вторых, не звучат ли оскорбительно заявления об отсутствии у нас «достаточного опыта, профессионального потенциала»?
В общем же создается впечатление, что рейтинг «Топ-200 Украина» — самая обыкновенная «заказуха», осуществленная в определенных рекламных целях. Правда, осуществленная под соусом «международного опыта».
Кто «заказал» этот рейтинг, в принципе, установить несложно. Для этого достаточно заглянуть в таблицу, где дается рейтинговый перечень вузов, и обратить особое внимание на такую интересную категорию, как оценка международного признания.