13 ноября 2025 г в храме св. Новомучеников состоялся круглый стол «Нравственные аспекты в использовании нейросетей». Мероприятие проходило в рамках епархиального этапа международных Рождественских образовательных чтений. В обсуждении темы приняли участие представители духовенства и власти, журналисты, педагоги и молодёжь.
Из футуристических романов в жизнь
Ключевой темой обсуждения был человек и его ценности в стремительно меняющемся цифровом мире. Нейросети из области футуристических прогнозов уже переместились в повседневную жизнь. Сейчас с их помощью можно не только писать песни, генерировать картинки и «оживлять» старинные семейные фото. Они следят за безопасностью на дорогах, предотвращают пожары, вычисляют «просрочку» в магазинах, управляют финансами, помогают в научных открытиях и контролируют выписку лекарств. А на каких-то предприятиях нейросетевые модели начали подбирать персонал.

Но помимо всей пользы для общества нейросетями пользуются и мошенники. Начальник управления информационной политики администрации города Волжский Николай УСОВ привёл примеры вредоносного применения современных технологий. В руках злоумышленников нейросети имитируют голоса близких и должностных лиц, подделывают видео и звонки, которые вводят в заблуждение коллег или родственников. И отличить сгенерированную подделку от настоящего человека бывает сложно даже продвинутым пользователям цифровых технологий. А как быть старшему поколению, для которого нейросети и их возможности вообще за гранью понимания?

Способные, но несамостоятельные
Эксперт в области кибербезопасности, преподаватель РЭУ им. Г.В. Плеханова и основатель ИТ-агентства Shahulov Lab Никита ШАХУЛОВ пролил свет на хитрые технологии. Он рассказал, что современные нейросети без человеческой составляющей пока функционировать не могут. А следовательно, заменить Человека-личность, Человека-творца у программы полностью не получится. Человек в свой труд или творчество вкладывает не только опыт, но и эмоции. Узнавая новую информацию, люди могут самостоятельно дать ей оценку – полезна она или нет. Могут принять решение, как использовать эти знания в повседневной жизни.

— Нейросети принять такого решения автономно от человека не могут. Например, нейронные сети не чувствуют грани вредного и полезного. Для этого в памяти должен быть некий алгоритм фиксации информации. Она учится не сама по себе. Это сложный процесс. Разработчики создают алгоритм, фиксируют его в памяти нейросети. Проверяют, насколько она правильно запомнила новую информацию. Стерев память нейросети, она «забудет» всё, чему её научили. Нейронные сети базируются на опыте человеческих знаний, своего мнения и способа развития у них нет, – отметил Никита Шахулов.
Также эксперт рассказал, что в настоящее время ведётся разработка нейросети, которая с помощью видеокамеры по внешнему виду будет определять, врёт ли человек. Пока погрешность работы нейронных вычислительных систем в этом направлении 60%. Но добиться более высокой точности – это вопрос времени. Вспомните, ещё лет 5 назад казалось фантастикой, что программа сможет что-то сама нарисовать или спеть по запросу пользователя. Не говоря о более серьёзных аспектах применения.

Общество переформатировалось
Как бы мы не пытались сдерживать обучение нейросетей, не устанавливали ограничения, наша реальность уже круто изменилась. А вместе с ней нейросетевые модели постепенно меняют всё современное общество. Молодёжь меньше читает и общается вживую, зато чаще полагается на искусственный интеллект. К счастью, такие привычки формируются далеко не у всех миллениалов.
Методист православного центра «Умиление» Светлана РЯЗАНОВА затронула аспект творчества. Она рассказала, когда интересные, творчески мыслящие дети задействуют нейросети и теряют интерес создавать что-то самостоятельно. Более того, они не воспринимают помощь ИИ как сотворчество, а искренне считают, что справились «сами».

— Пусть он напишет коряво, но своё. Потом из этого может появиться свой интересный стиль. А его поставили на творческие «костыли» – нейросети. Я не против этого инструмента, и сама их использую для работы. Здесь другой вопрос. Прежде, чем давать ребёнку такой инструмент в руки, мы должны его воспитать и подготовить нравственно. Ограничения должны устанавливать не только разработчики. Они должны стоять и внутри человека. Мы должны обратить внимание на души детей, – высказала свою точку зрения Светлана Рязанова.
Подводя итоги встречи, участники круглого стола высказались, что запретить нейросети полностью невозможно. Нужно научиться выстаивать правильный диалог с нейросетью и формировать определённую культуру пользования уже со школьной скамьи.
«Прежде всего мы остаёмся людьми в этом мире», – высказал важную мысль руководитель отдела религиозного образования и катехизации протоиерей Калачевской епархии Пётр СИМОРА.
Ведь каким бы обширным не был функционал нейросетей и спектр их применения, пока это только имитация человеческого сознания. Она не может заменить в общении живого человека и проживать те эмоции, которые вдохновляют нас на настоящее творчество.
Читайте «Волжскую правду», где вам удобно: Новости, Одноклассники, ВКонтакте, Telegram, Дзен. Есть тема для новости? Присылайте информацию на почту vlzpravda@mail.ru


















