ПравдаИнформ: Напечатать статью

В Москве прошел форум этики в сфере искусственного интеллекта

Дата: 18.11.2023 08:55

Представители государства, бизнеса и общества обсудили на форуме «Поколение GPT. Красные линИИ» в ТАСС этические и правовые аспекты использования ИИ, а также поделились мнением относительно перспектив их использования, пишет Telegram-канал IT News.

В начале мероприятия слово взяла начальник Управления Президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева. Она подчеркнула, что сейчас перед всеми стоит общая задача – обеспечение надежности, доверенности и безопасности технологий искусственного интеллекта: «Все предложения, которые будут высказаны на форуме, помогут нам ответить на основные вопросы, на вызовы, которые стоят перед нами, и будут способствовать повышению доверия общества к технологиям искусственного интеллекта, формированию подлинного технологического суверенитета нашей страны».

В рамках круглого стола «Межкультурный взгляд на глобальные вызовы развития искусственного интеллекта» выступил председатель Синодального отдела по взаимоотношениям Церкви с обществом и СМИ Владимир Легойда.

Он обратил внимание коллег на аспект, который ранее затронул Святейший Патриарх Кирилл: «Понятно, что развитие науки, искусственного интеллекта – вещь неостановимая. Но очень важно, чтобы мы разработали соответствующую философию правила взаимодействия человека с искусственным интеллектом. Потому что если развитие искусственного интеллекта будет опережать создание систем управления этим интеллектом, то здесь мы входим, так сказать, в проблемную точку».

Еще одной этической гранью использования ИИ является намеренная корректировка результатов его работы. Эту тему поднял глава АНО «Центр компетенций по импортозамещению в сфере ИКТ» Илья Массух.

По мнению эксперта, количество корректировок ИИ, которое ожидает граждан в ближайшее время, непонятно – скорректировать интеллект под свои потребности и видения может каждая структура, которая занимается данной технологией. В России представлено достаточно большое количество решений по ИИ, добавил спикер, однако абсолютное большинство из них базируется на зарубежный фреймворках и неизвестных датасетах: «Здесь я вижу достаточно серьезную уязвимость по безопасности с точки зрения будущего использования», – отметил Илья Массух. «С искусственным интеллектом нам тоже необходимо анонсировать, каким образом он работал и каким образом он формировался. Ну и самое главное – это использовать российские решения», – подчеркнул он

Более подробно законодательный аспект использования ИИ обсудили на профильном круглом столе «Регуляторный рай ИИ: какой баланс правого, этического и технического регулирования?».

В частности, депутат ГД РФ, член комитета по информационной политике, информационным технологиям и связи Антон Немкин затронул тему маркировки искусственного контента: «Мы в Государственной Думе формируем подход и считаем, что действительно надо маркировать искусственно генерируемый контент, чтобы человек видел и осознавал, с чем он имеет дело. И сегодня в Госдуме уже разрабатывается такая концепция».

По словам Немкина, маркировка должна осуществляться при помощи графических или водяных знаков. «Главное, чтобы она была ненавязчивой, но при том четкой и заметной для любого пользователя, чтобы он понимал, какой контент перед ним и мог более тщательно его анализировать. Также встает вопрос – в какой момент контент должен получать соответствующий значок? На мой взгляд, в силу того, что пока неясно, какая экспертиза позволит распознавать степень участия машины и человека в одном и том же тексте, российские ИИ-сервисы должны автоматически маркировать любые сгенерированные тексты», – добавил он.

Пресс-служба депутата ГосДумы РФ Антона Немкина

ПравдаИнформ
https://trueinform.ru