
Госдума обсудит безопасность граждан от негативных последствий использования нейросетей
Председатель Государственной Думы Вячеслав Володин в своих соцсетях написал, что все чаще из СМИ становится известно о случаях, когда искусственный интеллект вместо помощи людям, оказавшимся в сложной ситуации, предлагает им решения совершенно иного плана.
«Это, к сожалению, стало приводить к печальным последствиям. Несколько громких эпизодов произошли в США и связаны с одной конкретной нейросетью», – сказал он, добавив, что теперь ее разработчики, чтобы исправить ситуацию, планируют интегрировать в нее функцию родительского контроля, возможность добавить в чат-бот контакт доверенного лица для связи в чрезвычайных ситуациях и прямой вызов экстренных служб.
«Правильно было бы, не дожидаясь трагедий, внедрить такие механизмы создателям и других нейромоделей», – отметил Председатель ГД.
«Происшедшее показывает — излишняя цифровизация, отсутствие контроля могут нести опасность и вред. Далеко не на все вопросы можно и нужно искать ответы в нейросетях», – уверен Вячеслав Володин.
«Искусственный интеллект — это набор алгоритмов, инструментов и баз данных. Он не бывает полностью объективен и, как оказалось, может содержать в себе скрытые угрозы. Важно помнить об этом, пользуясь такими сервисами в жизни», – подчеркнул Председатель ГД.
Вячеслав Володин сообщил, что в ноябре Государственная Дума планирует обсудить вопрос внедрения технологий ИИ и цифровизации. «Отдельное внимание и контроль — безопасности и защите граждан от негативных последствий использования нейросетей», – заключил он.