Многие команды ИИ искренне говорят: «Мы хотим делать технологии во благо». У них есть кодексы, внутренние комитеты по этике, красивые презентации. Казалось бы, этого должно хватить. Но в реальности «хороших намерений» мало — слишком много сил толкает системы в другую сторону.
Бизнес мотивирует не к этике, а к росту
Даже если разработчики лично за всё хорошее, они работают внутри:
-
компаний с планами по прибыли и росту;
-
рынка, где конкуренты тоже запускают рискованные фичи;
-
логики «надо выпускать быстрее, иначе нас обгонят».
При таком давлении:
-
удобство пользователя ставят выше приватности;
-
модерация контента уступает место «больше вовлечения»;
-
проверки безопасности сокращают, чтобы не задерживать релиз.
Индивидуальные «я против» редко побеждают системное «нам нужно расти».
Ошибки ИИ бьют по миллионам, а не по одному клиенту
Если врач или адвокат ошибся, страдают один-два человека.
Если ошибается крупная ИИ-система:
-
неверные решения по кредитам, вакансиям, страхованию бьют по целым группам;
-
алгоритм рекомендаций разгоняет дезинформацию одновременно в десятках странах;
-
уязвимость в модели даёт злоумышленникам новый массовый инструмент.
Такие риски похожи на авиацию или фарму: тут уже не только личная ответственность инженера, но и вопрос общественной безопасности. Там мы давно привыкли к жёстким правилам и независимым проверкам.
Неравенство сил: пользователь почти ничего не контролирует
Обычный человек:
-
не знает, как именно работает модель;
-
не может проверить, что с его данными происходит;
-
не в состоянии «проголосовать ногами», если все крупные платформы используют похожие практики.
С другой стороны — крупные компании и государства с доступом к данным, инфраструктуре и моделям. Надеяться, что эта сторона всегда будет доброй и мудрой добровольно, — наивно. Тут и нужны внешние рамки:
-
что можно, а что грубо запрещено;
-
какие права есть у пользователя;
-
какие санкции за нарушения.
Почему именно международные, а не только национальные правила
ИИ — по сути трансграничен:
-
модель может стоять на сервере в одной стране, а влиять на пользователей в десятках других;
-
дезинформация, deepfake и кибератаки не знают границ;
-
компания может переносить разработку туда, где меньше ограничений.
Если каждая страна будет играть по своим правилам:
-
возникнет «гонка ко дну»: юрисдикции с мягкими законами будут притягивать рискованные проекты;
-
защита пользователей станет неравномерной: в одних странах — жёстко, в других — почти никак;
-
будет сложно расследовать и останавливать трансграничные злоупотребления.
Международные договорённости (пусть несовершенные) задают минимальный общий уровень требований — как в авиации, ядерной сфере или правах человека.
Для этичного ИИ недостаточно того, что отдельные разработчики хотят «как лучше». На них давит рынок, политика, гонка технологий, а последствия ошибок выходят далеко за рамки одной компании и одной страны. Поэтому нужны не только внутренние кодексы, но и внешние, в том числе международные правила — чтобы у всех был общий понятный ответ на вопросы: что запрещено, кто отвечает за вред и какие права есть у людей перед лицом всё более мощных алгоритмов.



































































