Кража голосов: сенаторы хотят запретить искусственному интеллекту разговаривать

Кража голосов: сенаторы хотят запретить искусственному интеллекту разговаривать

Кража голосов: сенаторы хотят запретить искусственному интеллекту разговаривать

Фото: IMAGO/Peter Widmann/TASS

Искусственный интеллект (ИИ) заговорил чужими голосами. Известный актер звонит клиентам банка. Популярный диктор рекламирует порнографические ресурсы. Наконец, каждому может позвонить его родственник и попросить перечислить немножко денег. И это — как проблема для честных людей, так и дополнительная возможность для мошенников.

Совет Федерации готовит законопроект, который запретит подделывать голоса при помощи ИИ. Об этом на площадке РИА «Новости» рассказал заместитель председателя Совета по развитию цифровой экономики при верхней палате, член Комитета СФ по конституционному законодательству Артем Шейкин.

— Поводом для обсуждения законопроекта послужило обращение одного из известных дикторов, голосом которого озвучивался неприличный контент. Это обращение поддержал и Союз дикторов России, — рассказал сенатор. — В связи с этим мы посмотрели законодательство, и обнаружили, что у нас закона об охране и защите права на голос не существует. Есть законы об охране изображения, а про голос — ничего. Но мы видим, что синтез голоса используется для записи запрещенного контента. Голосами известных людей озвучивались призывы к экстремистским акциям, оглашалась недостоверная информация.

Много таких историй, когда сын звонит маме или отцу и просит срочно прислать ему денег. Родители бросаются на помощь, а потом выясняется: сын не звонил, голос был сгенерирован мошенниками при помощи ИИ.

Согласно изменениям в законе, любое использование голоса гражданина будет возможно только с его согласия. Несанкционированное использование голоса станет караться, — сказал сенатор.

Вопрос в том, насколько реализуемо исполнение такого закона. Об этом «Свободной Прессе» рассказал начальник отдела информационной безопасности и технических средств защиты ЦКБ ГА Алексей Щучкин:

— Имитация голоса при помощи ИИ сейчас активно внедряется в нашу действительность. Ряд актеров и дикторов дают на это свое согласие. Но используются и голоса умерших знаменитостей. Также и живых людей — в преступных целях.

Не нужно объяснять, насколько это опасно. Реализовать запрет на использование голоса человека без его согласия одномоментно не получится. Не бывает такого, чтобы приняли закон — и его все сразу же бросились исполнять.

Для защиты граждан и их голосов от неправомерного использования, помимо принятия закона о защите голоса, необходимо предусмотреть методологию сравнения голосов. Проще говоря, необходим сервис экспертной оценки их аутентичности. Для того, чтобы предъявить претензии к краже голоса, это необходимо сначала доказать. Иначе закон не будет исполняться по чисто техническим причинам.

И, конечно, рано или поздно мы придем к созданию единой базы биометрии и идентификаторов граждан на государственных сервисах. Отличить, что сказал человек своим голосом, а что сказано компьютерной программой его голосом — можно. Но для этого предстоит проделать большую работу.

Лучшим способом исполнения этого закона станет ресурс по блокировке распространения фальшивых голосов, — резюмировал Алексей Щучкин.

Источник

Похожие записи