Новости

Маркировать ИИ-контент предложили в России

Аналог системы уже ввел YouTube. Об этом пишут «Известия» со ссылкой на зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи Антона Горелкина.

Механизм пользовательской маркировки ИИ-контента необходимо внедрять в российские онлайн-сервисы по аналогии с видеохостингом YouTube. Об этом зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин написал в своем Telegram-канале.

«При публикации видео автор должен указывать, что к его созданию причастны генеративные технологии. На мой взгляд, это правильно и честно по отношению к своей аудитории», – сообщил Горелкин.

По мнению депутата, дополнительная проверка материалов может быть реализована на основе единой платформы по выявлению недостоверного контента – об этой новой разработке в Минцифры сообщали ранее. Точные сроки ее создания пока не разглашаются, однако ведомство уже получило предложение по проведению научно-исследовательских работ в этой сфере.

Горелкин также подчеркнул, что после того, как платформа будет создана, к ней обязательно должны подключиться все российские онлайн-сервисы, работающие с пользовательским контентом. Депутат отметил, что такие системы призваны помешать злоумышленникам использовать фейковые изображения и видео для манипулирования общественным мнением россиян. Подобные действия он назвал «вопросом времени».

Ранее стало известно, что каждый второй россиянин не боится искусственного интеллекта, хотя год назад таковых было 43%. Опасения и страхи остались лишь у каждого девятого. 36% опрошенных затруднились с ответом. Среди мужчин больше тех, кто не боится искусственного интеллекта: 58% против 48% среди женщин. Россияне до 34 лет меньше всего подвержены технофобии. Чем выше уровень дохода респондентов, тем реже они рассказывали об опасениях по поводу нейросетей.

Среди представителей распространенных профессиональных групп чуть чаще других опасениями по поводу развития искусственного интеллекта делились системные администраторы (19%): их особенно беспокоят вопросы защиты информации и персональных данных. Усиления мошенничества боятся юристы, они также напоминают, что законодательно развитие нейросетей пока никак не регулируется (18%). Секретари говорят о бездушности машин (18%). Главных бухгалтеров (18%) и линейных бухгалтеров (16%) беспокоят перспективы тотальной автоматизации и потери работы. Охранники (13%) предрекают киберапокалипсис.


/ Сибирское Информационное Агентство /
Подпишитесь на наш Telegram-канал SIA.RU: Главное
Материалы сюжета "Искусственный интеллект, нейросети":
Все материалы сюжета (102)