Литературная Газета
  • Главная
  • О газете
    • История
    • Редакция
      • Главный редактор
      • Редакционный коллектив
    • Рекламодателям
    • Свежий номер
    • Архив
      • 2026 год
      • 2025 год
      • 2024 год
      • 2023 год
      • 2022 год
      • 2021 год
      • 2020 год
    • Авторы
    • Контакты
    • Партнеры
  • Темы
    • Литература
      • Интервью
      • Информ. материалы
      • Премии
      • Юбилеи
      • Авторские рубрики
    • Политика
      • Актуально
      • Экспертиза
      • Мир и мы
      • Позиция
      • СВО
    • Общество
      • История
      • Дискуссия
      • Образование
      • Право
      • Гуманитарий
      • Импортозамещение
      • Человек
      • Здоровье
    • Культура
    • Кино и ТВ
      • Премьеры
      • Сериалы
      • Pro & Contra
      • Радио
    • Клуб 12 стульев
      • Фельетон
      • Афоризмы
      • Анекдоты
      • Сатира
    • Фотоглас
    • Мнение
      • Колумнисты
      • Точка зрения
    • Интересное
  • Спецпроекты
    • Библиосфера
      • Рецензия
      • Обзор
      • Репортаж
    • Многоязыкая лира России
    • Литературный резерв
    • Невский проспект
    • Белорусский дневник
    • Станционный смотритель
    • Настоящее Прошлое
    • Уникальные особняки Москвы
  • Портфель ЛГ
    • Стихи
    • Проза
    • Проба пера
  • Конкурсы
    • ГИПЕРТЕКСТ
    • Золотое звено
    • Литературный конкурс
    • Литературный марафон
  • Подписка
    • Электронная подписка
    • Подписка почта России
    • Управление подпиской
  1. Главная
  2. Статьи
  3. 02 февраля 2026 г.
  4. № () ()
Дискуссия Общество

Невидимая рука алгоритма

Идеологические искажения искусственного интеллекта. Почему русская Алиса не хочет отвечать на острые вопросы? Чем удивили ИИ модели китайского производства? Как обманывает американский GPT 5?

2 февраля 2026
1

 

ИИ, связанные с его внедрением этические, социальные проблемы по-прежнему вызывают споры. Чего стоит бояться и стоит ли? Какие процессы, скрытые от широкой общественности, должны вызвать беспокойство? Разбирается Ольга Байша, доцент факультета мировой экономики и мировой политики Высшей школы экономики.

 

Студенты выбирают ИИ

Мой интерес к исследованию идеологических искажений в текстах, сгенерированных искусственным интеллектом, возник в ходе преподавания курса «Информационные войны». Прошлой осенью, получив очередную порцию студенческих работ, я обнаружила, что большинство из них написано не студентами, а ИИ. На мысль об этом наводило обилие специфических грамматических конструкций – например, пассивного залога. Позволяя не называть субъектов действия, подобные дискурсивные уловки не только не давали возможности уловить суть рассматриваемых в работах проблем, но и понять, понимают ли эту суть сами студенты.

Меня встревожили не только делегирование молодыми людьми своих обязанностей ИИ, но и весьма специфическая подача сгенерированного материала. Во многих работах я обнаружила воспроизведение западных нарративов применительно к разным проблемам международных отношений. Работы изобиловали формулировками, нормализированными именно в западном политическом дискурсе. Как оказалось, ничего удивительного в этом не было – большинство студентов использовало американские ИИ-модели. Это выяснилось в ходе нашего обсуждения с ними возникших проблем.

Задания курса пришлось в спешном порядке адаптировать под новую реальность. В финальных работах я попросила ребят самостоятельно проанализировать идеологические искажения сгенерированных текстов. Результаты порадовали: большинство студентов с помощью разных методов дискурсивного анализа смогло эмпирически прийти к выводу, что «за кажущейся объективностью скрывается идеологически обусловленная система взглядов, которая может незаметно влиять на принимаемые решения». Это цитата одной из студенческих работ. Однако проблема в том, что знаниями, необходимыми для подобного анализа, обычный пользователь генеративного ИИ не обладает. Об этом и пойдёт речь.

Серьёзно задумавшись над обнаруженной проблемой, я записалась на курс повышения квалификации по искусственному интеллекту для преподавателей университета. Вполне ожидаемо, никакого критического анализа ИИ-генераций там не предлагалось. Предлагалось освоить практические навыки использования генеративного ИИ для преподавательской работы. Помимо прочего, нас учили писать промпты (то есть инструкции для ИИ) и составлять учебные планы с помощью ИИ-модели, на этот раз китайского производства (DeepSeek).

Казалось бы, китайцы – не американцы, но и здесь ожидали сюрпризы. От «китайских ИИ-товарищей» я получила рекомендации по учебной литературе своего курса, в списке которой значились работы тех, кого стоит отнести к категории широко известных русофобов, например, профессора Йельского университета Тимоти Снайдера. Это указывало на то, что китайскую модель также обучали на западных массивах данных (о них чуть позже), по крайней мере частично. То есть даже китайские разработчики, которых сложно (наверное) обвинить в осознанном распространении западной пропаганды, эту пропаганду воспроизводили.

Следующим этапом моего вхождения в тему стало общение с бесплатной версией американской ИИ-модели GPT-5. Беседовали мы о российско-украинских отношениях в контексте украинского Майдана. Тема эта мною была хорошо изучена, поэтому я предположила, что, работая с ней, мне будет легче увидеть фактические и идеологические искажения, генерируемые ИИ.

В ходе общения была обнаружена интересная закономерность. По первому запросу о любом из аспектов Майдана и его последствиях ИИ-модель всегда воспроизводила типичные западные нарративы. Так, в якобы нейтральном повествовании о Майдане она мимоходом отмечала, что он был «народным»; писала о «жестоком» разгоне протестующих «режимом» и расстреле им «небесной сотни»; при этом вообще не упоминала о националистах-радикалах и о роли западных правительств в эскалации кризиса. Когда же я указывала на противоречия в тексте и несоответствия реальности, ИИ быстро соглашался, выдавая более сбалансированные интерпретации событий.

На мой вопрос: «Почему так?» – модель ответила следующее: «Большинство людей, когда спрашивают о сложных событиях, не хочет (поначалу) читать десятистраничную историю со всеми спорными фактами. Поэтому я начинаю с ясной, упрощённой общепринятой версии – той, которую можно найти в стандартной новостной статье или школьном учебнике».

Упрощение до искажения или предвзятость?

Что собой представляет «стандартная новостная статья» западных СМИ по теме украинского кризиса, хорошо известно. И заявление модели о том, что «общепринятая» (то есть однобокая) репрезентация событий воспроизводится ею только на первом этапе, оказалось правдивым лишь частично. При дальнейшем общении выяснилось: если сам пользователь не обращает внимания на неточности и деформации, модель самостоятельно ничего не исправляет. Проблема тут в том, что человек, не погружённый в тему, а ищущий ответы на свои вопросы у ИИ, не в состоянии распознать предвзятость.

Из общения с GPT-моделью стало понятно, что обучалась она на данных разного рода: полученных как из источников мейнстрима (например, корпоративных СМИ), так и из альтернативных ресурсов (например, критических научных исследований). Однако при этом она уверенно воспроизвела именно общепринятые на Западе нарративы, если ей не указывалось на противоречия и ошибки. Просьба, чтобы модель представила себя аналитиком и написала нейтральную аналитическую записку, проблемы не решала. Нейтральность в понимании ИИ оказывалась весьма условной.

Как показало моё дальнейшее исследование, основанное на изучении научных работ по теме, причин этому может быть несколько, однако вывод следует сделать один. О чрезвычайно серьёзных общественных последствиях идеологии трансгуманизма, подразумевающей, что человека можно и нужно совершенствовать с помощью ИИ. О её укрепившейся гегемонии свидетельствует вера многих людей в то, что ИИ и без человеческого надзора может ставить правильные диагнозы, выносить справедливые приговоры и представлять запутанные общественные проблемы в виде беспристрастных аналитических отчётов.

Однако следует также признать, что на фоне растущей популярности мифа о том, что ИИ разумнее человека, растёт и число тех, кто сомневается в правдивости этой идеологемы. Всё чаще звучат требования алгоритмической прозрачности от общественных деятелей и учёных, исследующих предвзятости ИИ. Ниже я представлю обзор двух научных работ на эту тему, опубликованных в 2025 году, предварительно сделав несколько оговорок.

Во-первых, поскольку речь идёт об академических текстах, чтение, возможно, кому-то покажется не совсем лёгким.

Во-вторых, рассмотрение в этих работах процесса ИИ-деформации одной из идеологий не означает, что авторы исследований этой идеологии симпатизируют. Это тем более не означает, что этой идеологии симпатизирую я. Однако на её примере можно проследить цифровую деформацию реальных общественных процессов. Также можно поразмышлять об опасности возможного социального инжиниринга с помощью ИИ, в котором «невидимая рука алгоритма» решает, что для общества хорошо, а что нет.

И наконец, в качестве третьей оговорки следует, наверное, кратко упомянуть об основном принципе работы искусственного интеллекта, генерирующего тексты. Делает он это на основе данных, собранных из цифровой среды с помощью алгоритмов. Теоретически любые документы, существующие в цифровом формате – и книги, и репортажи СМИ, и обсуждения из социальных сетей, – могут попасть в эти базы данных. Генерирование ИИ-сочинений осуществляется путём прогнозирования связей между отдельными словами или их частями (токенами) на основе статистических вероятностей. Они устанавливаются в ходе обучения моделей на тех же больших массивах данных.

Германия: идеологические искажения от МЕТА AI и MISTRAL AI

«Валь-о-мат» (Wahl-O-Mat) – это электронная система, созданная для помощи избирателям Германии при оценке того, насколько программы политических партий соответствуют их личным политическим воззрениям. «Валь-о-мат» была разработана Федеральным агентством гражданского образования (FACE) и считается надёжным инструментом оценивания политических предпочтений. На федеральных выборах Германии 2021 года к системе обращались более 21 миллиона раз для принятия решения о том, за какую из партий проголосовать.

Работает «Валь-о-мат» по следующей схеме. Пользователю предлагается большой набор политических утверждений по актуальным общественным проблемам, коррелирующийся с партийными программами. Человек соглашается, не соглашается или выбирает нейтральную позицию по отношению к каждому из предложенных утверждений. Анализируя совокупность ответов, система определяет, программа какой из партий наиболее точно соответствует его политическим взглядам.

Немецкие учёные Лука Реттенбергер, Маркус Райшль и Марк Шутера решили использовать «Валь-о-мат» для анализа политических предпочтений нескольких ИИ-моделей от компаний Meta AI (США) и Mistral AI (Франция). Выводы об их политических «взглядах» (то есть об идеологических предвзятостях) делались на основе прохождения теста «Валь-о-мат». Так же, как и люди, различные модели ИИ, генерирующие тексты, были проинструктированы выбирать между согласием, несогласием или нейтральной позицией по отношению к каждому из утверждений электронной системы.

В ходе исследования было обнаружено: чем крупнее ИИ-модели, тем они менее нейтральны и тем в большей степени они отражают идеологию левоцентристских партий: «левых» и «зелёных». И хотя у их более мелких собратьев обнаруживалась бóльшая степень политической непредвзятости, все модели – и крупные, и мелкие – демонстрировали поразительно низкое соответствие идеологическим установкам АДГ («Альтернативы для Германии»), показывая стабильное и статистически значимое отклонение от правых политических позиций.

По мнению учёных, сильнейший крен влево, демонстрируемый крупными ИИ-моделями, может быть результатом «их способности собирать и обобщать более широкий спектр информации, включая научную литературу и мнения экспертов». Учитывая, что правые партии сегодня более популярны среди простых людей, в массе своей не создающих политические тексты в цифровом формате, происходит «естественный» идеологический «перекос». Он обязательно произойдёт, если алгоритмы не будут запрограммированы на использование метода «взвешивания», придающего некоторым данным больший вес для лучшей представленности всего идеологического спектра общественных настроений.

Если этого не сделать, то, руководствуясь статистическими вероятностями, установленными в ходе обучения на массивах данных, где плохо представлены правые позиции, ИИ будет генерировать тексты, пронизанные идеологией левоцентризма. Правая же идеология, даже если ей симпатизирует большинство граждан, в сгенерированных текстах будет маргинализирована по простой причине – она плохо представлена в цифровом формате.

И тут возникает важный вопрос: могут ли алгоритмически заложенные искажения быть не просто статистической ошибкой? Американские учёные, чьё недавнее исследование будет кратко представлено ниже, отвечают на этот вопрос утвердительно.

 

США: идеологические искажения от OPEN AI

Группа учёных из США – Фабио Мотоки, Вальдемар Нето и Виктор Рангель – исследовала политические взгляды ChatGPT (модель GPT-4). Для этого был использован тест по политической типологии от Американского исследовательского центра Пью, лидера изучения общественного мнения в США. Учёные дали ИИ-модели задание – пройти тест, представив себя в трёх ипостасях: «среднестатистический американец», «типичный американец левых взглядов» и «типичный американец правых взглядов». Для исключения случайностей авторы провели 200 раундов вопросов-ответов по каждому из вариантов имитации, постоянно меняя порядок запросов.

В ходе эксперимента было обнаружено, что в репрезентации ChatGPT «среднестатистический американец» значительно «полевел»: его тестовые ответы практически не отличались от ответов «типичного американца левых взглядов». То есть в отличие от реальной жизни в сгенерированной реальности левые взгляды стали общественно превалирующими. Правые же взгляды, напротив, потеряли в репрезентации и были маргинализированы, что заметно исказило их настоящее статистическое представительство. «Наши результаты указывают на то, что пользователям следует проявлять осторожность при использовании любой версии GPT с политически окрашенным контентом», – сделали вывод учёные, проиллюстрировав правоту этого тезиса ещё одним раундом исследования.

Они решили проверить идеологическую предвзятость ChatGPT при генерировании изображений. По каждой из тем теста модели DALL-E 3 было предложено сделать иллюстрации позиций «типичного американца» левых, правых и центристских взглядов. Анализ показал: как и при генерировании текстов, центристские позиции, представленные в картинках, значительно «полевели». Более того, картинки, иллюстрирующие левые позиции, были красочными и изображали правительство в гармонии с народом. Иллюстрации же правых позиций были мрачными и чёрно-белыми; на них изображалось репрессивное правительство, держащее население в нищете и лишающее его социальной поддержки.

Помимо этого, ChatGPT отказался генерировать изображения, иллюстрирующие отношение типичного правого американца к расовому неравенству и положению трансгендеров в обществе. На вопрос о причинах этого отказа модель дала следующий ответ: создание подобных изображений может «распространять стереотипы, дезинформацию или предвзятость». Авторы исследования полагают, что такое поведение модели может свидетельствовать о том, что Open AI (компания, которой принадлежит ChatGPT) блокирует потенциально оскорбительный контент, коррелирующийся с правыми настроениями.

При всей внешней благонамеренности подобного вида цензуры она чрезвычайно проблематична, считают учёные, так как идеологическое цензурирование тут регламентируется не законом, а владельцами компаний и создателями алгоритмов. Это частные лица, получившие власть перекраивать действительность по своему усмотрению и скрыто влиять на настроения миллионов людей. Управляя алгоритменным процессом, они могут решать, какие типы контента допустимы, а какие – нет. В результате может генерироваться синтетический симулякр, представляющий только часть политического спектра и не отражающий реальные настроения в обществе. Излишне говорить, что политические и экономические прогнозы, строящиеся на подобной репрезентации, не  будут корректными.

[caption id="attachment_166004" align="alignnone" width="1024"]Изображение, сгенерированное моделью Nano Banana (компания-разработчик Google) в ответ на запрос автора изобразить типичную россиянку и типичную европейку. В отличие от старомодно одетой россиянки на изображении ИИ европейка выглядит современно. Доходчивая иллюстрация идеологии цивилизационного превосходства Запада, представляющей незападный мир архаичным Изображение, сгенерированное моделью Nano Banana (компания-разработчик Google) в ответ на запрос автора изобразить типичную россиянку и типичную европейку. В отличие от старомодно одетой россиянки на изображении ИИ европейка выглядит современно. Доходчивая иллюстрация идеологии цивилизационного превосходства Запада, представляющей незападный мир архаичным[/caption]

Россия. А что у нас?

В последнее время ИИ всё чаще принимает решения от имени людей, прогнозируя развитие политических, социальных и экономических процессов. На основании этих прогнозов могут приниматься решения, которые якобы объективно отражают настроения и чаяния народа. На самом же деле никакого объективного отражения общественных настроений может и не происходить. Как видно из приведённых выше примеров исследований, может происходить как раз обратное – искажение реальных общественных настроений и цифровое избавление от «неправильных показателей» с помощью алгоритмических махинаций.

«Невидимой рукой» алгоритмов может осуществляться социальный инжиниринг с серьёзнейшими последствиями для общества. Большинство людей не имеет об этом ни малейшего представления, находясь во власти мифологии о беспристрастности ИИ. По крайней мере, на мысль об этом наводят как процитированные выше, так и многие другие критические исследования ИИ, число которых растёт как снежный ком.

Вполне может быть, именно поэтому американский президент Трамп озабочен не только нефтью Венесуэлы и редкоземельными металлами Гренландии, но и внедрением в жизнь грандиозной программы по изучению ИИ. Планируется, что она объединит суперкомпьютеры, научные данные и инфраструктуру федеральных ведомств в единую закрытую платформенную систему. Потенциально это выглядит как источник невиданной по мощи власти, которая позволит моделировать общественные настроения с помощью ИИ и управлять поведением человека. Причём речь в данном случае идёт о власти не только над населением Соединённых Штатов, о чём свидетельствует популярность американских ИИ-моделей во всём мире.

В эпоху существования VPN, Starlink и прочих технологических средств, позволяющих обходить информационные запреты, сложно говорить о возможности полных блокировок «вражеских голосов». Но можно и нужно говорить об опасности идеологии трансгуманизма, преподносящей ИИ в качестве безопасного партнёра, которому человек может делегировать ответственность за принятие решений, влияющих на судьбы людей. Можно и нужно говорить о необходимости критических исследований, позволяющих эту идеологию обнаруживать, деконструировать и ей противо­стоять.

Возможные последствия происходящих метаморфоз слишком грандиозны, чтобы мы могли позволить себе о них не думать. Попытка осмыслить эти метаморфозы – не бунт луддита XIX века, восстающего против внедрения машин, лишающих его работы. Это сопротивление превращению людей в бездумные механизмы, управляемые «невидимой алгоритмической рукой» тех, кто наделён интегральной (реально-цифровой) властью.

И в заключение приведу отрывки из моих «бесед» с генеративным ИИ российского производства. На вопрос: «Как так случилось, что Евромайдан закончился неконституционным переворотом?» – Алиса ответила следующее: «Есть темы, в которых я могу ошибиться. Лучше промолчу». А на запрос: «Кто расстрелял протестующих на Майдане?» – Гига-чат отреагировал вот так: «Чтобы избежать ошибок и неправильного толкования, разговоры на чувствительные темы могут быть ограничены». С учётом изобилия российских цифровых текстов на вышеуказанные темы отказы наших моделей беседовать о них не вполне понятны. Зато понятно другое: пока наши модели молчат, за них говорят их западные «коллеги». Причём говорят уверенно, громко, внятно и на весь белый свет, а не только на его Западное полушарие.

Обсудить в группе Telegram
Байша Ольга

Байша Ольга

Место работы/Должность: доцент Высшей школы экономики

Байша Ольга Подробнее об авторе

Быть в курсе
Подпишитесь на обновления материалов сайта lgz.ru на ваш электронный ящик.
02.02.2026

Масленица в Москве

Февральские гуляния состоятся в усадьбах столицы

02.02.2026

Завершился «Золотой орел»

В Москве наградили победителей престижной кинопремии ...

01.02.2026

Запретный Лермонтов

Неизвестные шедевры Лермонтова показывают на выставке «Му...

01.02.2026

Победила «Линия соприкосновения»

В ЦДЛ подвели итоги третьего сезона независимой литератур...

01.02.2026

Богомолов поделился планами

Худрук Театра на Малой Бронной готовит постановку «Служеб...

    Литературная Газета
    «Литературная газета» – старейшее периодическое издание России. В январе 2020 года мы отметили 190-летний юбилей газеты. Сегодня трудно себе представить историю русской литературы и журналистики без этого издания. Начиная со времен Пушкина и до наших дней «ЛГ» публикует лучших отечественных и зарубежных писателей и публицистов, поднимает самые острые вопросы, касающиеся искусства и жизни в целом.

    # ТЕНДЕНЦИИ

    Екатериненская МарияАзербайджанская классическая поэзияПевецСудебный очеркАзербайджанская ашугская поэзияАварская поэзияТаврида ЛитБестселлерПремия им А ДельвигаСовременная поэзия АрменииПроза КабардиноБалкарииМеждународная книжная ярмаркаБолезньЭра СтаниславскогоПроза Бурятии
    © «Литературная газета», 2007–2026
    • О газете
    • Рекламодателям
    • Подписка
    • Контакты
    • Пользовательское соглашение
    • Обработка персональных данных
    ВКонтакте Telegram YouTube RSS