Искусственный интеллект ненейтрален. Почему технологии усиливают неравенство и чем это обернётся для женщин | 1news.az | Новости
Мнение

Искусственный интеллект ненейтрален. Почему технологии усиливают неравенство и чем это обернётся для женщин

First News Media12:42 - Сегодня
Искусственный интеллект ненейтрален. Почему технологии усиливают неравенство и чем это обернётся для женщин

Автор: Лейла Сеидзаде, директор Women in Tech Azerbaijan

На сегодняшний день, пожалуй, нет человека, который не слышал бы об искусственном интеллекте. Достаточно открыть любую социальную сеть и там обязательно появится тренд, пост или видео, созданные с помощью ИИ, а также активные обсуждения вокруг него.

Но, конечно, помимо мемов, чат-ботов и рекомендаций в приложениях, искусственный интеллект решает куда более серьёзные задачи. Он участвует в принятии решений о выдаче кредитов, помогает врачам ставить более точные диагнозы, анализирует финансовые риски и отбирает резюме при приёме на работу.

И при всём этом для многих ИИ по-прежнему остаётся чем-то абстрактным — сложной технологией, которая будто живёт своей собственной жизнью и логикой.
На самом деле принцип работы искусственного интеллекта довольно прост.
И именно в этой простоте скрывается ключевая проблема и угроза.

Кто или что скрывается за технологией

Несмотря на то, что мы склонны очеловечивать искусственный интеллект, важно понимать: он не думает, не чувствует и не рассуждает, как человек.

Искусственный интеллект учится на данных, то есть огромных объёмах информации о прошлом: текстах, изображениях, цифрах, поведении людей, сделанных выборах и условиях, в которых они были приняты.

Алгоритм анализирует эти данные и ищет закономерности: что чаще ассоциируется с определёнными профессиями, какие профили считаются успешными, какие формулировки в тексте воспринимаются как «правильные», какие решения принимаются и при каких обстоятельствах.

Затем он использует эти шаблоны для прогнозов и рекомендаций.
Если в прошлом определённые группы имели больше доступа к возможностям, ИИ воспринимает это как норму и многократно воспроизводит эту картину в будущем.

При этом для искусственного интеллекта не существуют такие категории, как справедливость, равенство, эмпатия или контекст человеческой жизни.
Для него есть только статистика, алгоритм и соответствующие выводы.

Почему важно понять, что ИИ — это не волшебство

Эта статья не о том, хорош или плох искусственный интеллект. ИИ — это уже наша реальность.

Эта статья — о механизме работы ИИ и последствиях. О том, как ИИ, опираясь на данные прошлого, усиливает существующие в обществе перекосы и делает их менее заметными, но при этом более устойчивыми и глубоко встроенными в повседневную жизнь настолько, что их становится сложно распознать.

Чтобы это понять, достаточно рассмотреть несколько простых, но показательных примеров из реальной жизни.

Наглядные примеры проявления предвзятости

Как ИИ интерпретирует профессии

Когда системы генерации изображений получают запрос создать образ профессионала, они часто воспроизводят устойчивые социальные шаблоны.

Например, если попросить сгенерировать изображение пожарного, с высокой вероятностью вы получите образ мужчины. Женские образы в таких профессиях либо отсутствуют вовсе, либо появляются в сопутствующих ролях рядом с пожарным, с детьми или в бытовом контексте.

Женщину-пожарного ИИ почти никогда не выдаёт «по умолчанию» — для этого требуется дополнительный уточняющий запрос. Причина проста: алгоритм воспроизводит те стереотипы, которые были заложены в него в процессе обучения на больших массивах данных.

Сложности перевода

Ещё более показательна работа алгоритмов при переводе текста с одного языка на другой. Во многих языках предложения могут быть гендерно-нейтральными, без явного указания, о ком идёт речь. Однако при переводе на языки, где грамматический род выражается явно, алгоритмы часто делают выбор, опираясь на статистические шаблоны.

В результате:

  • профессиям, традиционно считающимся «мужскими», автоматически приписывается мужской род;
  • ролям, связанным с уходом, заботой или домашними обязанностями, — женский.

Такой выбор не отражает реального смысла исходного текста, а лишь показывает, какие паттерны чаще всего встречались в данных, на которых обучалась модель.

Ключевой вопрос — цифры

Чтобы понять масштаб проблемы, важно смотреть не только на результаты работы алгоритмов, но и на среду, в которой они создаются.

По данным различных международных исследований, женщины сегодня составляют в среднем 22–28 % специалистов в области искусственного интеллекта и аналитики данных, а в управленческих и архитектурных (те кто создают продукты на базе ИИ) ролях и того меньше. Среди основателей ИИ-стартапов доля женщин не превышает 8–10 %.

Это означает, что данные, на которых обучаются алгоритмы, формируются в среде, где доминируют мужчины. А значит, ИИ учится видеть мир именно через эту призму и переносит такую картину в будущие решения.

Как это связано с косвенной дискриминацией

ИИ, «выросший» в мужской среде и обученный на доминирующих мужских паттернах, не всегда распознаёт пол напрямую, но интерпретирует его по-своему.

Даже если в данных не указано, к какому полу принадлежит человек, алгоритмы умеют считывать косвенные признаки, тесно связанные с гендером:
перерывы в карьере, стиль языка в резюме, последовательность должностей, интересы и хобби.

Таким образом, ИИ может не знать, что перед ним женщина, но он распознаёт повторяющиеся паттерны и делает выводы.
Это и называется косвенной дискриминацией.

Именно она делает предвзятость алгоритмов менее заметной, но гораздо более устойчивой, потому что проблему сложно выявить и зафиксировать на раннем этапе.

Даже попытки убрать указание пола из резюме не решают проблему: алгоритмы продолжают «узнавать» гендер по косвенным признакам и, например, автоматически отсеивать женские резюме для ролей, которые он считает «идеальными» для мужчин.

Кто пользуется ИИ и получает от этого наибольшую выгоду

Важно учитывать не только то, кто создаёт алгоритмы и на каких данных они обучаются, но и то, кто в итоге активнее пользуется продуктами на базе ИИ.

Исследование Гарвардской школы бизнеса, объединившее данные 18 исследований с участием более 140 000 человек в разных странах, показывает: женщины используют инструменты искусственного интеллекта примерно на 25 % реже, чем мужчины.

Причины разные — от обеспокоенности этичностью таких инструментов до опасений, что использование ИИ может быть воспринято как «чужой успех».

Но результат один: женщины оказываются менее вовлечены в освоение навыков, которые становятся всё более востребованными на рынке труда.

Эффект масштаба: почему алгоритмические перекосы так опасны

Человеческие предубеждения проявляются точечно и затрагивают ограниченное количество решений. Алгоритм же, обученный на искажённых паттернах, внедряется в процессы сразу и влияет не на десятки, а на миллионы людей. Если перекос встроен в модель, это гораздо более серьёзная проблема, чем предвзятость одного отдельно взятого человека.

Чем запомнился 2025 год

2025 год стал точкой переосмысления роли искусственного интеллекта. Он окончательно перестал быть экспериментальной технологией и «непонятным чудом» и стал частью инфраструктуры: рынка труда, системы образования, здравоохранения и финансовых технологий.

Появилось больше данных и кейсов, подтверждающих: алгоритмы не нейтральны, они усиливают существующие шаблоны. Фокус обсуждения сместился с вопроса «что умеет ИИ» к вопросу «кто его создаёт, на каких данных и чем это чревато».

Что нас ждёт в 2026 году

В 2026 году эти тенденции только усилятся. Алгоритмы будут принимать всё больше решений — от определения карьерных путей до доступа к образованию и финансированию.

Гендерное неравенство рискует стать менее заметным, но более устойчивым, поскольку оно будет встроено в автоматизированные системы, которые работают неочевидно.

Ключевым станет вопрос не только регулирования ИИ, но и ответственности экосистем, которые его создают и внедряют. Этическая сторона будет обсуждаться ещё активнее.

Что это значит для женщин и как менять ситуацию

Команда Women in Tech Azerbaijan, работая с женщинами, девушками, школьницами и студентками, видит эти риски на практике. Но важно не только анализировать угрозы — важно предлагать конкретные шаги.

Вот что мы рекомендуем женщинам, чтобы не попасть в устойчивую ловушку гендерных стереотипов, усиленных ИИ:

Во-первых, осознанно формируйте цифровую карьерную историю.
Алгоритмы анализируют цифровой след: от резюме до профилей в LinkedIn и других профессиональных платформах.

Во-вторых, активно осваивайте инструменты ИИ.
Низкая скорость адаптации может привести к снижению востребованности. Даже если вы не работаете напрямую в технологиях, базовое понимание ИИ — это инвестиция в карьеру.

В-третьих, не занижайте собственные достижения и используйте уверенный язык.
Исследования показывают, что женщины чаще выбирают более осторожный стиль коммуникации, который алгоритмы интерпретируют как меньшую готовность к лидерству.

В-четвёртых, вовлекайтесь в экосистемы, которые создают и тестируют ИИ.
Когда решения о женщинах принимаются в комнате, где нет женщин, эти решения почти всегда оказываются однобокими и вредными в долгосрочной перспективе.

Вместо заключения

Искусственный интеллект — это не враг женщин и не инструмент, созданный специально для усиления неравенства. Это продукт нашего коллективного сознания, который лишь масштабирует те проблемы, которые уже существуют в обществе.

И это также наш выбор: как мы будем относиться к этим проблемам и как будем их решать. Учитывая, что женщины занимают всё более активные позиции в обществе, важно не игнорировать эту реальность, а осознанно и активно работать с ней — в первую очередь самим женщинам.

Поделиться:
502

Последние новости

Все новости

1news TV