Реклама
Облако тегов
- ГЭС, Оперативная из военных за на, Россию, США, Сирия, армия, были, газ, для, его, из, как, марс, на, на ВСУ по ДНР этом, на по ДНР что Народной, на что США по для, на что из по этом, на что по как это, не, не что для как от, не что по из это, не что по это как, не что потока «Северного «Северный, не что это по как, нефтегаз, нефть, по, природа, территории, того, том, тэк, что, что заявил, что не США это по, что не том, что не это по как, это, этом
Показать все теги
Популярное
-
Сальдо обещает вернуть Херсон
А с ним в придачу Николаев, Одессу и Измаил. -
«На руках Фридмана кровь русского солдата!» — в Петербурге атаковано отделение принадлежащего олигарху Фридману банка (ФОТО)
Михаил Фридман открыто говорил о том, что -
Западная Украина превратится в свалку опасных отходов
Сын Сороса уже договорился. -
Огненный ад у ВСУ, высадившихся на нашем берегу Днепра: «Солнцепёки», ВКС и «Грады» сжигают врага на Херсонщине (ВИДЕО)
ВСУ высадились на левом берегу Днепра. -
Тяжёлые бои у Купянска и Лимана: бои идут лоб в лоб, а русская артиллерия не даёт поднять голову (ВИДЕО)
Украинский военный рассказал правду о тяжёлом
В виде календаря
В виде списка
Архив записей
0
Эксперты предупреждают об угрозе атак на системы дистанционной биометрической идентификации и аутентификации при помощи дипфейков.
Об этом «Русской Весне» сообщили в пресс-службе депутата Госдумы РФ Антона Немкина.
Например, созданный при помощи искусственного интеллекта образ могут использовать мошенники для подтверждения транзакций от имени человека. Противостоять таким угрозам поможет просветительская работа, привлечение внимания к проблеме, а также маркировка дипфейков и усложнение процесса идентификации.
Группа по безопасности искусственного интеллекта (ИИ) Европейского института телекоммуникационных стандартов (European Telecommunications Standards Institute, ETSI) предупредила о рисках атак на системы дистанционной биометрической идентификации и аутентификации с помощью дипфейков.
В опубликованном отчете отмечается, что сегодня дистанционная идентификация с помощью видео уже применяется многими европейскими банками — например, для открытия счетов клиентов. Для аутентификации пользователей при подтверждении транзакций также используются системы распознания голоса.
При этом уровень безопасности этих систем и их способность противостоять дипфейк-атакам далеко варьируется, подчеркнули авторы отчета. В частности, злоумышленников могут использовать биометрические данные, полученные без согласия людей, а также полностью сгенерировать их при помощи искусственного интеллекта.
При помощи социальной инженерии также могут быть созданы образы официальных лиц для того, чтобы направлять запросы сотрудникам на перевод денег. Исследование показало, что порядка 40% компаний или их клиентов уже столкнулись с подобными атаками.
В отчете эксперты предлагают несколько вариантов того, как противостоять такой угрозе, как дипфейк-атаки на биометрические системы. Среди них — просветительская работа, привлечение внимания к проблеме, разработка регулирующих актов, требующих маркировки дипфейков.
Кроме того, такие атаки можно сделать менее успешными при помощи высокоуровневых запросно-ответных протоколов. Например, для видеоидентификации можно ввести необходимость совершить специфические движения, передвинуть объекты рядом, а для голосовой — попросить произнести сложно выговариваемые слова.
«Более надёжным методом противостояния рискам для компаний и организаций может стать разработка тщательно проработанных процессов, где важные решения и транзакции одобряются не на основе внутренней биометрической аутентификации, но всегда подтверждаются по стандартной процедуре, включающей мультифакторную аутентификацию», — заключили авторы отчёта.
Дипфейк-технологии уже сегодня могут использоваться не только в развлекательных целях, но и в мошеннических и противоправных, напомнил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
«Уже сегодня злоумышленники применяют новые технологии в своих преступных целях. Например, при помощи искусственного интеллекта могут создаваться образы известных высокопоставленных людей, от их лица могут быть сделаны фейковые громкие заявления, что приведет к крайне серьезным и даже опасным последствиям.
С дальнейшим внедрением идентификации при помощи биометрии в разных сегментах экономики угроз, связанных с дипфейками, будет становиться все больше. Именно поэтому сегодня так важно разработать механизмы регулирования использования дипфейк-технологий, в частности, обязательной маркировки созданных при их помощи продуктов.
Кроме того, важно продолжать разработку систем, которые помогают в выявлении дипфейков. В АНО „Диалог регионы”, например, уже используют новую систему выявления дипфейков „Зефир”.
Она умеет в реальном времени анализировать аудиовизуальный контент и определять, причастен ли к его созданию искусственный интеллект. Сегодня применение таких систем нужно масштабировать, так как они становятся обязательным условием обеспечения информационной безопасности наших граждан», — заключил депутат.
Ранее о том, что российские компании и государство на сегодняшний день уже разрабатывают технологии по выявлению дипфейков и маркировке контента в сети, рассказал замглавы Минцифры Александр Шойтов. По его словам, первые результаты этой работы могут появиться уже в этом году.
Смотрите также:
Эксперты предупредили об угрозе использования дипфейков для идентификации по биометрии
- Опубликовал: Novosti-Dny
- Дата: 16-09-2023, 07:07
- Категория: Новости, Политика » Эксперты предупредили об угрозе использования дипфейков для идентификации по биометрии
Эксперты предупреждают об угрозе атак на системы дистанционной биометрической идентификации и аутентификации при помощи дипфейков.
Об этом «Русской Весне» сообщили в пресс-службе депутата Госдумы РФ Антона Немкина.
Например, созданный при помощи искусственного интеллекта образ могут использовать мошенники для подтверждения транзакций от имени человека. Противостоять таким угрозам поможет просветительская работа, привлечение внимания к проблеме, а также маркировка дипфейков и усложнение процесса идентификации.
Группа по безопасности искусственного интеллекта (ИИ) Европейского института телекоммуникационных стандартов (European Telecommunications Standards Institute, ETSI) предупредила о рисках атак на системы дистанционной биометрической идентификации и аутентификации с помощью дипфейков.
В опубликованном отчете отмечается, что сегодня дистанционная идентификация с помощью видео уже применяется многими европейскими банками — например, для открытия счетов клиентов. Для аутентификации пользователей при подтверждении транзакций также используются системы распознания голоса.
При этом уровень безопасности этих систем и их способность противостоять дипфейк-атакам далеко варьируется, подчеркнули авторы отчета. В частности, злоумышленников могут использовать биометрические данные, полученные без согласия людей, а также полностью сгенерировать их при помощи искусственного интеллекта.
При помощи социальной инженерии также могут быть созданы образы официальных лиц для того, чтобы направлять запросы сотрудникам на перевод денег. Исследование показало, что порядка 40% компаний или их клиентов уже столкнулись с подобными атаками.
В отчете эксперты предлагают несколько вариантов того, как противостоять такой угрозе, как дипфейк-атаки на биометрические системы. Среди них — просветительская работа, привлечение внимания к проблеме, разработка регулирующих актов, требующих маркировки дипфейков.
Кроме того, такие атаки можно сделать менее успешными при помощи высокоуровневых запросно-ответных протоколов. Например, для видеоидентификации можно ввести необходимость совершить специфические движения, передвинуть объекты рядом, а для голосовой — попросить произнести сложно выговариваемые слова.
«Более надёжным методом противостояния рискам для компаний и организаций может стать разработка тщательно проработанных процессов, где важные решения и транзакции одобряются не на основе внутренней биометрической аутентификации, но всегда подтверждаются по стандартной процедуре, включающей мультифакторную аутентификацию», — заключили авторы отчёта.
Дипфейк-технологии уже сегодня могут использоваться не только в развлекательных целях, но и в мошеннических и противоправных, напомнил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
«Уже сегодня злоумышленники применяют новые технологии в своих преступных целях. Например, при помощи искусственного интеллекта могут создаваться образы известных высокопоставленных людей, от их лица могут быть сделаны фейковые громкие заявления, что приведет к крайне серьезным и даже опасным последствиям.
С дальнейшим внедрением идентификации при помощи биометрии в разных сегментах экономики угроз, связанных с дипфейками, будет становиться все больше. Именно поэтому сегодня так важно разработать механизмы регулирования использования дипфейк-технологий, в частности, обязательной маркировки созданных при их помощи продуктов.
Кроме того, важно продолжать разработку систем, которые помогают в выявлении дипфейков. В АНО „Диалог регионы”, например, уже используют новую систему выявления дипфейков „Зефир”.
Она умеет в реальном времени анализировать аудиовизуальный контент и определять, причастен ли к его созданию искусственный интеллект. Сегодня применение таких систем нужно масштабировать, так как они становятся обязательным условием обеспечения информационной безопасности наших граждан», — заключил депутат.
Ранее о том, что российские компании и государство на сегодняшний день уже разрабатывают технологии по выявлению дипфейков и маркировке контента в сети, рассказал замглавы Минцифры Александр Шойтов. По его словам, первые результаты этой работы могут появиться уже в этом году.
Смотрите также:
Также рекомендуем:
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.