МОСКВА, 14 апр — РАПСИ. Необходимо развивать механизмы пост-модерации и ответственность за конкретные вредоносные действия, совершенные с помощью искусственного интеллекта, не концентрируясь на фильтрации и цензурировании данных пользователя, считает член Совета при президенте РФ по развитию гражданского общества и правам человека (СПЧ), директор АНО «Белый Интернет», профессор МГИМО Элина Сидоренко.

Профессор считает, что современные модели нейросетей являются сложными вероятностными системами, и создание «идеального безопасного ИИ» практически недостижимо. На практике это может привести к массовым ложным срабатываниям или остановке работы систем.

«Кроме того, двойной фильтр — «ввод + вывод» — порождает серьезные риски для приватности и свободы коммуникации. Мониторинг того, что пользователь пишет в диалоге с нейросетью, фактически приравнивается к прослушиванию личных разговоров или чтению черновиков. Если человек запрашивает у ИИ информацию по медицинской теме, это его право — и вмешательство государства в этот процесс без решения суда выглядит как чрезмерный контроль», — отметила Сидоренко. 

Глава «Белого Интернета» также отметила, что избыточные ограничения могут ослабить конкурентные позиции российских разработчиков ИИ, делая их продукты менее удобными по сравнению с зарубежными аналогами, которые подчиняются более сбалансированным правилам.

«Кто и как будет определять критерии цензуры, которую предлагают некоторые эксперты? Отсутствие прозрачных, публичных и оспариваемых механизмов неизбежно превратит систему в инструмент для блокировки любых неудобных тем под видом «безопасности». Вместо введения жесткой предварительной цензуры логичнее было бы развивать механизмы пост-модерации и ответственности за конкретные вредоносные действия, совершенные с помощью ИИ, а не давить на входные данные миллионов пользователей», — резюмировала Сидоренко. 

Подписаться на канал РАПСИ в MAX >>>