ss69100 (ss69100) wrote,
ss69100
ss69100

Category:

Погоня за высоким международным рейтингом приводит к деградации образования и научной работы

Парадоксальная ситуация получается при разгуле либерализма! Парадоксальная во всём, к чему бы эта зараза ни прикоснулась: парадокс же получается из-за искажения смыслов, либо вообще смены их знака. Это когда зло объявляется добром и наоборот.

Искажение смыслов - это когда британские расисты, умертвившие голодом десятки миллионов человек в одной только Индии, даже не говоря о геноциде ирландцев на самих Британских островах, возмущаются безчеловечностью вождей „этих диких русских”. Мол, в период Второй мировой войны советские власти совсем не жалели людей.

А пример смены знака смыслов, это когда разных извращенцев-педерастов объявляют нормальными здоровыми людьми.

Однако парадоксы при либерализме далеко не всегда столь явно бросаются в глаза. Ниже - небольшое исследование о системе рейтингов в образовательных учреждениях.

Казалось бы - это же здорово, когда люди знают, какие вузы достойные, а какие не могут дать абитуриентам приемлемый уровень образования. И на эту красивую обёртку, скрывающую совершенно выхолощенный смысл, люди реагируют как на некую безусловно полезную норму.

А ведь участие российских вузов в западной системе рейтингования - это добровольная сдача на милость западного победителя. Ибо по факту стремление вуза повысить свой рейтинг, начисляемый за рубежом, приводит... к деградации образования и качества научной работы.

Западное рейтингование российских учебных заведений - это инструмент управления высшим образованием и университетской наукой в России. Суть этого управления заключается либо в возможности украсть российские разработки благодаря высокой информированности о состоянии дел в учебном заведении, либо просто в намеренной деградации качества и содержания обучения в России - зависит от конкретной ситуации.

И ведь это с виду действительно парадокс, недоступный понимания иных учёных мужей и их руководителей: чем выше рейтинг, тем ниже качество обучения, если рассматривать среднесрочную перспективу.

***

Рейтинги эффективности вузов и их эффективность
«Эффективность» – в последние десятилетия это слово стало чуть ли не главным, когда речь заходит об оправданности существования тех или иных государственных и общественных институтов и выделяемых на их содержание средств.



Не углубляясь в причины появления и обоснованность навязчивой идеи якобы «объективной» оценки существования чего бы то ни было, на фоне очередной поступательной кампании предлагаю поразмыслить о том, что же именно подразумевается под эффективностью применительно к заведениям высшего образования, исходя из методологии оценивания Московского международного рейтинга вузов «Три миссии университетов» (MosIUR).

Когда в 2016 г. Россия учредила MosIUR, его инициаторы – Российский союз ректоров (РСР) и Российская академия наук (РАН) – объясняли это необходимостью появления ранжирования, которое учитывало бы национальные особенности образовательных систем, отличных от англо-саксонской модели.

В частности, при разработке критериев впервые было решено учитывать не только образовательную и исследовательскую миссии университетов, но и социальную.

Критерии были поддержаны 25 экспертами в сфере высшей школы из США, Великобритании, Бразилии, Китая, Индии, ЮАР, Ирана, Италии, Бельгии, Турции, Польши и России. Поскольку в 2017 году проводилось лишь пилотное ранжирование, по результатам которого были внесены некоторые изменения, а по итогам 2018 г. показатели были скорректированы по весу, имеет смысл рассматривать последние критерии, использовавшиеся в 2019 году при сопоставлении 1200 университетов из 79 стран. Но прежде посмотрим на принципы отбора ранжируемых университетов.

Международные рейтинги составляются на основе исследования далеко не всех вузов, а лишь вполне определённой их выборки. Поэтому даже при расширении в 2019 году шорт-листа MosIUR с 500 до 1700 вузов ставилась задача широкого представления в нём только наиболее успешных многопрофильных вузов с учётом соответствия количества отобранных от каждой страны учебных заведений значимости этой страны для мировой экономики.

То есть во главу угла поставлен не уровень конкретного вуза, а его попадание в лимит, выделенный для его страны, из-за чего вузы государств, не входящих в Большую двадцатку, а тем более восьмёрку, поставлены в заведомо неравные условия. Кроме того, отсекаются узкопрофильные вузы, не имеющие образовательных программ более чем в 1 из 6 областей знания по классификации Организации экономического сотрудничества и развития (Естественные и точные науки, Техника и технологии, Медицинские науки и общественное здравоохранение, Сельскохозяйственные науки, Гуманитарные науки), те, у которых нет бакалаврских программ, а также малые вузы с численностью студентов менее 500.

Это значит, например, что сверхуспешный небольшой сельскохозяйственный институт не будет показан рядом с университетами, предлагающими аналогичные образовательные программы, даже если последние менее эффективны и более дόроги. А значит, абитуриент при выборе места обучения не сможет оценить предпочтительность для себя такого вуза по сравнению с теми, которые в рейтинге есть.

Среди крупных многопрофильных вузов с бакалаврскими программами также применяются разные принципы отбора. Потому что в список попадают не только заведения, занимающие ведущие позиции в глобальных рейтингах университетов, и/или лидирующие в национальных академических рейтингах из списка IREG Inventory of National Rankings.

Вместе с ними оказываются и другие, отобранные по количеству публикаций за последние 4 года, индексированных Web of Science Core Collection.

То есть вузы, которые оценивают публикации своих преподавателей и студентов по их качеству, а не по количеству и принадлежности к изданиям, попавшим в конкретную реферативную базу, становятся изгоями, либо должны заменить высокопрофессиональных преподавателей на тех, кто способен бесконечно наращивать публикационную активность в ущерб здравому смыслу.

У нормальных людей всё это называется нечестной конкуренцией. А у адептов наукометрии как основания регулирования расходов на науку и образование – методологией.

Сами критерии, получившие одобрение международных экспертов из 16 стран, позволяют, по утверждению их создателей, объективно оценить российские вузы на фоне их конкурентов из других стран. Так ли это?

Группа критериев «Образование» (вес: 45%)


  • 1. Количество побед обучающихся в вузе на международных студенческих олимпиадах (вес: 7%)

  • 2. Доля иностранных студентов в общем количестве студентов (вес: 8%)

  • 3. Отношение бюджета вуза к количеству студентов (вес: 15%)

  • 4. Отношение количества НПР к количеству студентов (вес: 15%).

В этой группе критериев сомнительно выглядит пункт 2. Подразумевается, что значительная доля иностранных студентов среди учащихся вуза является показателем его престижности и привлекательности.

Но ведь такая привлекательность может быть обусловлена как высоким качеством образования, так и просто низкой стоимостью обучения.

И наоборот, малая доля иностранцев может быть связана со спецификой образовательных программ, ориентированных на запросы отечественного работодателя, которые могут не подходить зарубежному. В таком случае полученные по данному показателю баллы будут отражать уровень образовательной миссии университета только в части, ориентированной на зарубежных абитуриентов, без учёта собственных потребностей.

Остальные критерии выглядят вполне логичными, хотя победы в олимпиадах, по моему мнению, отражают исключительно наличие развитой технологии по подготовке победителей олимпиад – и не более того.

Что же касается количества научно-педагогических работников в расчёте на 1 студента, то во многих ведущих российских вузах оно неуклонно снижается год от года, и даже рейтинги не могут изменить политику оптимизации кадрового состава, который и без того уже работает в ущерб собственному здоровью, поддержанию профессиональной квалификации и качеству преподавания. Растёт оно, кажется, только в пресловутой ВШЭ.

Группа критериев «Наука» (вес: 25%)


  • 5 Количество научных премий из списка IREG у НПР и выпускников университета (вес: 6%)

  • 6 Средняя нормализованная цитируемость (глобальный уровень), согласно Scopus (вес: 5%)

  • 7. Средняя нормализованная цитируемость (глобальный уровень), согласно Web of Science (вес: 5%)

  • 8. Средняя нормализованная цитируемость (национальный уровень), согласно Scopus (вес: 1%)

  • 9. Средняя нормализованная цитируемость (национальный уровень), согласно Web of Science (вес: 1%)

  • 10. Отношение дохода от исследований к числу НПР (вес 5%)

  • 11. Нормализованные просмотры научных публикаций (согласно Scopus) (вес: 2%)

В этой группе изумление начинается прямо с первого (то есть пятого) пункта, поскольку любой образованный человек понимает, что международные премии в огромной степени зависят от текущей мировой политики, а вовсе не от достижений конкретных учёных.

Кроме того, если награды выпускников можно засчитать как результат усилий вуза, то награды сотрудников всё-таки являются результатом их личных достижений, причём порой полученным не благодаря, а вопреки политике университета.

Наконец, есть дисциплины, по которым не существует международных премий, либо они не были отобраны в список IREG, а вуз силён именно этими направлениями, однако его достижения вообще не будут учтены.

Доход от исследований из пункта 10 можно измерить для прикладных дисциплин, фундаментальные же относятся к числу малодоходных за исключением тех, за которые удалось получить премию. Говорить здесь о грантах бессмысленно – они ведь предусматривают дополнительную нагрузку сверх основной, которая в российских университетах итак давно превышает все мыслимые нормы, поэтому многие преподаватели на них даже не замахиваются.

Критерии же из пунктов 6–9 и 11 всерьёз в нашей стране не воспринимает, кажется, ни один адекватный исследователь, ибо к науке средняя нормализованная цитируемость и нормализованные просмотры публикаций не имеют вообще никакого отношения.

Тем более что рассчитываются они на основе весьма специфических реферативных баз, в которые отбираются не публикации как таковые, а размещающие их издания с высоким рейтингом (как будто качество публикации зависит от рейтинга издания и наличия или отсутствия чьих-либо рецензий).

По поводу этих критериев уже высказывались представители академической науки, обращая внимание, что академический институт может без особого напряжения выпускать в год пару статей в рейтинговых журналах и больше никакой научной работы не вести – ведь эффективность оценивается только по таким статьям.

О том, что даже в эпоху цифровых технологий масса людей предпочитает читать печатную публикацию, а не её цифровую копию или версию, и вовсе говорить не стоит. Как учитываются эти просмотры? Или просмотры тех же публикаций при их размещении также в других системах?

Группа критериев «Университет и общество» (вес: 30%)


  • 12. Количество онлайн-курсов вуза, размещенных на крупнейших глобальных онлайн-платформах (вес: 5%)

  • 13. Доля вуза в общем объеме публикаций по стране (вес: 4%)

  • 14. Общее количество страниц веб-сайта университета, индексированных ведущими поисковыми системами (вес: 4%)

  • 15. Количество просмотров страницы вуза в Википедии (вес: 1 %)

  • 16.Количество подписчиков аккаунта университета в социальных сетях (вес: 4%)

  • 17. Количество выпускников вуза, которым посвящена отдельная страница в Википедии (8%)

  • 18. Размер интернет-аудитории сайта вуза (вес: 4%)

Вот и добрались до показателей, которые подаются как новшество относительно других международных рейтингов. Только вот как-то не очень социальная миссия просматривается.

Пункт 12 о количестве онлайн-курсов вуза, размещённых на крупнейших глобальных онлайн-платформах, ничего не говорит ни об их востребованности обществом, ни о результатах их использования. Здесь логичнее было бы оценить долю слушателей, прошедших курс до конца и получивших документ об аттестации, поскольку это означает, что сам курс и свидетельство о его окончании имеют для них смысл. При этом совершенно не важно, на каких платформах это происходит, если речь идёт об одном и том же курсе.

Доля вуза в общем объёме публикаций по стране из пункта 13 напрямую зависит от численности профессорско-преподавательского состава и степени его мотивированности на борьбу за неуклонный рост этого показателя, но к интересам общества она не имеет ни малейшего отношения. Ибо кому нужны эти бессмысленные пустые публикации, в море которых тонут по-настоящему ценные исследования, остающиеся без должного внимания?

Пункты 14–17 отображают исключительно качество работы пиар-службы университета и веб-мастера его сайта, никак не характеризуя социальную миссию, которая выражается не привлечением интереса общества к учебному заведению, а вкладом вуза в развитие этого общества.

Размер интернет-аудитории сайта вуза из пункта 18 действительно показывает полезность данного ресурса для общества, хотя большинство пользователей, скорее всего, будут составлять преподаватели и студенты этого самого вуза, решающие через сервисы сайта свои рабочие и учебные задачи.

Из 6 показателей данной группы лишь один соответствует заявленным целям. А ведь идея сама по себе была хорошая – попытаться показать вузы не только как кузницы кадров и научных публикаций, но и как важный инструмент развития общества. Только параметры исследования для этого надо было бы выбрать совсем другие. Например, доля выпускников, работающих по полученному профилю в течение пяти лет после выпуска.

Или доля выпускников, имеющих постоянный доход на уровне или выше среднего по региону проживания. Или доля научно-педагогических работников, привлекавшихся в течение года в качестве руководителей, экспертов или научных консультантов при реализации внешних проектов и мероприятий.

Или доля студентов, обучающихся за счёт средств университета или существующих при нём попечительских и благотворительных фондов. Или состояние социально-политического, экономического и культурного климата в месте размещения университета (например, процент преступности, безработицы, заболеваемости относительно предыдущего оцениваемого периода или относительно среднего по региону).

Подводя итог, приходим к неутешительному выводу – как и большинство рейтингов, рейтинги университетов дают представление вовсе не о качестве образования и потенциале оцениваемого вуза, а исключительно о его вписанности в глобальную систему управления и в мировую экономику. Собственные ценности образования здесь практически полностью отсутствуют.


schumilo69


***


Источник.
.

Tags: Запад, глобализация, наука, образование, рейтинг, система, статистика
Subscribe
  • Post a new comment

    Error

    default userpic

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 3 comments