Коли надія перевищує страх, то вона породжує відвагу.
Георгій Кониський, український письменник, проповідник, церковний і культурний діяч

Рейтинг вищих навчальних закладів: від кого і для чого?

4 квітня, 2007 - 00:00
МАЛЮНОК АНАТОЛІЯ КАЗАНСЬКОГО / З АРХІВУ «Дня»

Певно, рейтинги університетів почали з’являтися ще на зорі їхнього існування. Студенти при бажанні могли переходити з одного університету в інший, шукаючи для себе кращих викладачів та умов життя. І навіть при тогочасній обмеженій комунікації вони знали, який університет на що заслуговує.

Відтоді змінилося багато чого...

У нас за часів Радянського Союзу особливих проблем з рейтингами вищих навчальних закладів (далі — ВНЗ) не виникало. Всі знали, що найкращі університети й інститути — в Москві та в неофіційній «другій столиці» — Ленінграді. Далі за рангом йшли ВНЗ в столицях «союзних республік», після них — обласних центрів, а найнижче — міст обласного підпорядкування і райцентрів. Останніх можна було перелічити на пальцях. Звісно, були університети чи інститути, які на своєму рівні виділялися серед інших.

Тепер же, в умовах незалежної України, коли число ВНЗ почало різко зростати й, окрім державних, з’явилося чимало приватних, колишній «табель про ранги» почав тріщати. З одного боку, в умовах ринку затребувані стали рейтинги вищих навчальних закладів. Хоча б для того, щоб зорієнтуватися і молодим людям, які прагнуть отримати вищу освіту, і роботодавцям. Водночас з’явилася спокуса використовувати рейтинги в рекламних цілях. Зробити це не так вже й складно. Просто треба задати відповідні параметри при обрахунку рейтингу, і ти гарантовано матимеш потрібний результат.

Так, один із досить відомих вищих навчальних закладів недержавної форми власності у своєму часописі друкував рейтинги університетів та інститутів. Звісно, назва цього закладу в даному випадку фігурувала серед лідерів.

Зараз можна зустріти рейтинги, які стосуються різних аспектів роботи ВНЗ. Переважно вони є неофіційними. Проте цього року в Україні були зроблені спроби визначити рейтинги цих закладів структурами, які мають офіційний статус.

Зокрема, це зроблено Міністерством науки та освіти. Щоправда, цей рейтинг широко не оприлюднювався і, швидше, був розрахований для службового користування. В принципі, можна зрозуміти міністерство. Достатнього досвіду в цій справі в нас ще немає. Адже вищий навчальний заклад — організм непростий, тому знайти однозначні індикатори для визначення його рейтингу складно. Не тільки в нас, а й за кордоном, де такі рейтинги вже виводяться, з приводу індикаторів не вщухають дискусії.

Оскільки міністерський рейтинг ВНЗ недостатньо відомий громадськості, не вважаю коректним для себе його розглядати й коментувати. Зазначу лише, що, як на мене, його розробники підійшли до справи досить зважено, зробивши рейтинги по певних типах вищих навчальних закладів і при цьому визначивши велику кількість індикаторів. Можна, звісно, дискутувати з приводу окремих із них. Але це вже деталі, якими мали б зайнятися фахівці.

Окрім міністерського, з’явився ще рейтинг ВНЗ «Топ-200 Україна», який був опублікований у часописі «Дзеркало тижня» (від 24 березня 2007 р.) і отримав широкий розголос. Судячи з публікацій в часописі, відповідальність за цей рейтинг взяла на себе міжнародна інституція ЮНЕСКО-САПЕС. Точніше, вона доручила кафедрі ЮНЕСКО «Вища технічна освіта, прикладний системний аналіз та інформатика» (Україна) «виконати комплекс заходів із впровадженням в Україні напрацьованих міжнародною експертною групою IREG методик та процедур рейтингового оцінювання діяльності університетів та навчальних програм». Повідомлялося також, що «для надання допомоги Україні» «створено міжнародну наглядову раду з рейтингового оцінювання університетів та навчальних програм в Україні». До складу цієї наглядової ради ввійшли Ян Садлак (ЮНЕСКО, він же голова наглядової ради), Дженс Петер Гаул (директор стратегічного планування німецької дослідницької фундації, Німеччина), Вальдемар Сівіньські (президент освітньої фундації «Перспективи», Польща), Фердінанд Девінський (голова комітету Народної ради Словацької Республіки з питань молоді, спорту та інформації, Словаччина).

На перший погляд, все це виглядає солідно. Однак виникає ряд запитань. По-перше, невже Україна настільки безалаберна, що її фахівці не можуть самостійно розробити рейтингове оцінювання для своїх навчальних закладів, враховуючи світові стандарти, і тому треба створювати «міжнародну наглядову раду» для надання нам допомоги? Не знаю, як для кого, для мене це виглядає дещо принизливо. По-друге, не маючи нічого проти членів цієї наглядової ради, принагідно хочу зазначити, що, окрім представника ЮНЕСКО, всі вони репрезентують країни, де освітні системи відрізняються від нашої (у деяких моментах досить помітно). І в мене є певні сумніви, наскільки ці люди розуміють специфіку нашої освіти. По-третє, що це за «кафедра ЮНЕСКО «Вища технічна освіта, прикладний системний аналіз та інформатика» (Україна)» і що за люди входять до її складу?

Але не будемо вже такими прискіпливими. Припустимо, що члени «міжнародної наглядової ради» дадуть нам цінні поради, а кафедра з дещо дивною назвою на основі їхніх рекомендацій розробить нам належну систему рейтингового оцінювання.

Спробуємо розібратися, що нам запропонували. Передусім, які індикатори використовувалися в методиці цього оцінювання. Загалом їх не так вже й багато — всього 16, кожен із яких має свої вагові коефіцієнти. Для оцінки роботи вищого навчального закладу це небагато. До того ж, чимало індикаторів є однотипними. Фактично такими є індикатори 13, 14, 15, 16, які стосуються членства в міжнародних асоціаціях вищих навчальних закладів.

Та, зрештою, можна й закрити очі на нечисленність індикаторів. Головне, щоб вони допомогли нам якомога об’єктивніше оцінити основні моменти роботи ВНЗ. На жаль, якраз тут починаються проблеми.

В ідеалі вищий навчальний заклад може набрати 100% рейтингу. З них 50% — за якість науково-педагогічного потенціалу, 30% — за якість навчання і 20% — за міжнародне визнання. Відразу виникає запитання, чому саме таке співвідношення? Зрозуміло, якість науково-педагогічного потенціалу важливий показник. Але хіба не важливішим показником є якість навчання? Хіба не основне завдання вищого навчального закладу давати якісно підготовлених спеціалістів? Чи не логічнішим виглядало хоча б таке співвідношення: 50% — за якість навчання, 30% — за якість науково-педагогічного потенціалу і 20% — за міжнародне визнання? Але, очевидно, автори методики керувалися якимись «вищими» міркуваннями.

Ці міркування починають проглядатися, коли починаєш вивчати індикатори якості науково-педагогічного потенціалу. Відповідно запропонованій методиці, ваговий коефіцієнт академіка НАН України 27,5 одиниці, члена-кореспондента цієї ж Академії чомусь аж більш ніж удвічі менший — 13,5. Проти них вага професорів та докторів виглядає просто сміховинною — відповідно 2,6 та 2,5. А вага доцентів і кандидатів наук майже зведена до нуля — відповідно 0,6 і 0,5. Окрім того, виведена ще одна категорія представників науково-педагогічного потенціалу — це лауреати державних премій в галузі науки й техніки та премії ім. Т. Шевченка. Їхній ваговий коефіцієнт трохи більше професорського — 2,8.

Нехитра арифметика показує, що при оцінці якості науково-педагогічного потенціалу академік дорівнює аж 9,82142857 лауреатам премій, 10,5769231 професорам, 11 докторам наук, 45,8333333 доцентам, 55 кандидатам наук. Додам ще, що професор «важить» 4,33333333 доцентів, а один доктор — аж 5 кандидатів наук. Звідки таке співвідношення і як його обґрунтовують автори методики, хотілося б знати. Невже вони всерйоз вважають, що в навчальній та науковій роботі один наш академік вартує аж 11 докторів, а один доктор — п’ятьох кандидатів?

Не зовсім зрозуміло, чому автори методики не включили до індикаторів таку категорію, як академіки інших державних академій? Наприклад, Академії педагогічних наук. Або чому до числа індикаторів включаються лише штатні викладачі й відкидаються сумісники. Вони теж, певно, є «порожнім місцем».

Звісно, при оцінці якості науково-педагогічного потенціалу ми маємо більше цінувати академіка, ніж професора; доктора, ніж кандидата. Але не в такому співвідношенні, як пропонують нам. Ви спитаєте: а в якому? Ну, якщо не можуть автори методики знайти якогось раціонально обґрунтованого співвідношення, то нехай візьмуть за основу офіційну різницю в оплаті праці цих категорій викладачів. До речі, вона не така вже й велика.

Тепер перейдемо до другої категорії при визначенні рейтингу — якості навчання. Тут чудес не менше, якщо не більше. Якість навчання визначається (всього!) чотирма індикаторами. Серед усіх категорій рейтингу ця категорія індикаторів має найменше. І це при тому, що якість навчання, певно, мала б бути найважливішим показником.

Та найцікавіше те, що із запропонованих індикаторів лише два мають безпосереднє відношення до якості навчання. Це — кількість студентів, переможців і призерів міжнародних олімпіад (конкурсів) та переможців і призерів загальноукраїнських олімпіад (конкурсів). Вагові коефіцієнти цих індикаторів відповідно 7,5 та 1,5. Взагалі можна подискутувати щодо запропонованого в даному випадку співвідношення коефіцієнтів, а також щодо репрезентативності цих індикаторів. Але нехай вже буде так. Тим більше, що ці індикатори не «заважують» навіть третини при оцінці якості навчання.

Важливим індикатором, на думку авторів методики, є співвідношення кількості магістрів до кількості бакалаврів і спеціалістів. Фактично цей індикатор обчислюється таким чином: кількість магістрів ділиться на суму бакалаврів та спеціалістів. Не заперечую: подібний підхід має певний сенс на Заході. Але не в нас, де відбулося накладання західної системи освіти на систему радянську. В результаті ми отримали гримучу суміш, з якою ніяк не можемо розібратися. Якщо на Заході бакалавр — це, як правило, вже повноцінна вища освіта, а магістр — щось більше, ніж вона, то в нас фактично бакалавр — «незакінчена вища освіта», принаймні неповноцінна, а повноцінна — спеціаліст і магістр. Власне, спеціаліста в нас, швидше, варто прирівнювати до магістра, ніж до бакалавра. На жаль, цього не враховують автори методики і, пропонуючи такий індикатор, спотворюють реальну картину. При цьому коефіцієнт ваги цього індикатора чималий — 7 одиниць.

Реально ж критерій якості навчання визначає індикатор «масштаб ВНЗ», який має ваговий коефіцієнт 14 (трохи менше половини того, що відведено на інші індикатори в даній категорії). Вираховується він таким чином: загальна кількість студентів вищого навчального закладу ділиться на середню кількість студентів закладу такого ж типу (класичні університети, технічні тощо). Інакше кажучи, чим більше студентів, тим кращий показник. Яке це має відношення до якості навчання, можна лише гадати.

Особливо цікавою є третя категорія — «міжнародне визнання». Перший індикатор у цій категорії — кількість іноземних студентів. Проте його ваговий коефіцієнт дуже малий — одиниця. А ось членство навчального закладу в Європейській асоціації університетів оцінюється на 7 одиниць, у Великій хартії університетів — на 6, Євразійській асоціації університетів — на 3, в мережі університетів країн Чорноморського регіону — теж на 3. Інших індикаторів просто немає. Як бачимо, показник категорії «міжнародне визнання» звівся до участі в міжнародних асоціаціях ВНЗ.

Не заперечую, що така участь має враховуватися при оцінці міжнародного визнання. Проте не варто її перебільшувати, як це роблять автори методики. Адже, по-перше, ця участь часто має формальний характер, а, по-друге, не варто переоцінювати авторитетність цих асоціацій. Як на мене, то набагато більше значення для міжнародного визнання ВНЗ має навчання в ньому іноземних студентів. Проте, як бачимо, ваговий коефіцієнт цього індикатора автори методики визначили одиницею. В принципі, міжнародним визнанням університету є те, що в ньому працюють іноземні викладачі, а його викладачі запрошуються в іноземні університети, коли університет бере участь у міжнародних програмах, проводить міжнародні конференції. Але цього всього не враховують автори методики.

Навіть поверхово проаналізувавши методику, не важко помітити, що в ній були закладені деякі індикатори, вагові коефіцієнти яких явно завищені. Це — кількість штатних співробітників, обраних академіками (27,5) і членами-кореспондентами (13,5) НАН України; масштаб ВНЗ (14); а також участь у міжнародних асоціаціях університетів, сумарний ваговий коефіцієнт якої становить 19. Якщо додати ці мега-індикатори рейтингу, то вийде 74%. На всі інші індикатори (а їх 9) відведено лише 26%, і вони, звісно, «погоди не створюють».

Безпроблемно опинитися на перших місцях у рейтингу можна лише тоді, коли у ВНЗ працюють академіки й члени-кореспонденти НАН України. Передусім це київські університети. Адже саме в Києві зосереджена основна маса академіків і членкорів. Більшість університетів (з певних причин) не можуть похвалитися наявністю у своєму складі такої категорії науковців.

Проте якщо немає серед викладацького складу академіків, то автори методики дають вам шанс відносно легко виправити становище. Для цього треба вступити в кілька міжнародних асоціацій університетів — і ваш рейтинг різко зросте. Так, виявляється, що участь у Євразійській асоціації університетів може дати більше, ніж комплектація викладацького складу професорами. Взагалі дивно читати в рейтингу «Топ-200 Україна» про те, що деякі, не такі вже й відомі вищі навчальні заклади мають вищу оцінку міжнародного визнання, ніж Київський національний університет ім. Т. Г. Шевченка. Наприклад, до таких належить Луганський національний педагогічний університет, Одеський національний політехнічний університет, Одеська національна юридична академія та інші. Тут можна лише розвести руками. Схоже, автори методики спеціально так розробили індикатори категорії «міжнародне визнання», щоб дати змогу деяким навчальним закладам штучно роздути свій рейтинг.

І, нарешті, третій важливий індикатор — масштаб ВНЗ. Він дає змогу числено великим навчальним закладам вирватися вперед у рейтингу порівняно із «малогабаритними».

Тобто, як бачимо, при виведенні рейтингу фактично ігноруються якісні показники. До речі, автори методики це самі визнають. «На першому етапі, — пишуть вони, — визначення рейтингів ВНЗ України застосовувалися лише кількісні критерії та індикатори. З використанням якісних характеристик діяльності ВНЗ були пов’язані значні труднощі у зв’язку з відсутністю в Україні достатнього досвіду, фахового потенціалу та організаційних засад для незалежного та об’єктивного застосування методів експертного оцінювання для такої масштабної системи, якою є вища освіта». По- перше, якщо це так, то навіщо цьому рейтингу надається широкий розголос, а сам він подається як якесь велике досягнення. Можливо, для початку цей рейтинг варто було поширити серед фахівців і вислухати їхні зауваження. По-друге, чи не звучать образливо заяви про відсутність у нас «достатнього досвіду, фахового потенціалу»?

Загалом же складається враження, що рейтинг «Топ-200 Україна» — звичайнісінька «заказуха», здійснена в певних рекламних цілях. Щоправда, здійснена під соусом «міжнародного досвіду».

Хто «замовив» цей рейтинг, в принципі, визначити нескладно. Для цього достатньо заглянути в таблицю, де дається рейтинговий перелік ВНЗ, і звернути особливу увагу на таку цікаву категорію, як оцінка міжнародного визнання.

Петро КРАЛЮК, доктор філософських наук, професор, проректор з наукової роботи Національного університету «Острозька академія»
Газета: 
Рубрика: