Госдума обсудит  безопасность  граждан от негативных последствий использования нейросетей

Госдума обсудит безопасность граждан от негативных последствий использования нейросетей

Председатель Государственной Думы Вячеслав Володин в своих соцсетях написал, что все чаще из СМИ становится известно о случаях, когда искусственный интеллект вместо помощи людям, оказавшимся в сложной ситуации, предлагает им решения совершенно иного плана. 

«Это, к сожалению, стало приводить к печальным последствиям. Несколько громких эпизодов произошли в США и связаны с одной конкретной нейросетью», – сказал он, добавив, что теперь ее разработчики, чтобы исправить ситуацию, планируют интегрировать в нее функцию родительского контроля, возможность добавить в чат-бот контакт доверенного лица для связи в чрезвычайных ситуациях и прямой вызов экстренных служб.

«Правильно было бы, не дожидаясь трагедий, внедрить такие механизмы создателям и других нейромоделей», – отметил Председатель ГД.

«Происшедшее показывает — излишняя цифровизация, отсутствие контроля могут нести опасность и вред. Далеко не на все вопросы можно и нужно искать ответы в нейросетях», – уверен Вячеслав Володин.

«Искусственный интеллект — это набор алгоритмов, инструментов и баз данных. Он не бывает полностью объективен и, как оказалось, может содержать в себе скрытые угрозы. Важно помнить об этом, пользуясь такими сервисами в жизни», – подчеркнул Председатель ГД.

Вячеслав Володин сообщил, что в ноябре Государственная Дума планирует обсудить вопрос внедрения технологий ИИ и цифровизации. «Отдельное внимание и контроль — безопасности и защите граждан от негативных последствий использования нейросетей», – заключил он.