Исследователи из Цюрихского университета оказались в центре громкого этического конфликта. В рамках научного эксперимента они тайно запустили ботов на базе ИИ, которые общались на Reddit под видом обычных пользователей. Причём эти вымышленные личности принимали участие в обсуждениях на сложные и чувствительные темы, такие как сексуальное насилие, расизм, психологические травмы и негативный опыт в зарубежной медицине.
ИИ размещал комментарии в сабреддите r/ChangeMyView, изображая, например, жертву изнасилования или чернокожего критика движения BLM. В исследовании использовались несколько аккаунтов, при этом участники обсуждений не были проинформированы, что общаются с машиной. Учёные хотели проверить, насколько убедительными могут быть большие языковые модели в дебатах.
Каждое сообщение предварительно проверялось вручную, чтобы избежать прямого вреда, но вся личность и опыт «участников» были сфабрикованы. По окончании эксперимента команда лишь постфактум уведомила модераторов о нарушении правил Reddit, в которых прямо запрещена генерация контента ИИ без согласия.
Несмотря на то что против проекта была подана жалоба в этическую комиссию университета, исследование получило разрешение на публикацию, а его руководитель отделался лишь формальным предупреждением. В ответ модераторы Reddit назвали эксперимент «опасным и безответственным», особенно отмечая, что ИИ пытался собирать личные данные пользователей, пол, возраст, взгляды и местоположение, без их согласия.
На фоне растущего недоверия к ИИ и поддельному контенту, этот случай стал важным прецедентом, подчёркивающим необходимость жёсткой регуляции этических границ в исследованиях, связанных с искусственным интеллектом и общественным взаимодействием.