Нейросеть научили распознавать дипфейки с точностью до 92%

KOGDATA.RU — Мир уже привык к грубым и некорректным высказываниям Дональда Трампа. Именно поэтому накануне выборов он может стать легкой мишенью для злоумышленников, которые с помощью ИИ способны создать видео, компрометирующие его, то есть дипфейки. Конечно, никто так хорошо не дискредитирует президента США, как он сам, но на самом деле жертвой может стать любой.

К счастью, новый метод цифровой идентификации способен защитить нас. По крайней мере, пока.

Технология на базе машинного обучения анализирует стиль речи и движения конкретного человека, делая таким образом биометрический слепок. 
Чтобы ее создать, исследователи из Калифорнийского университета и Университета Южной Калифорнии использовали реальные видеозаписи с Дональдом Трампом, Бараком Обамой, Берни Сандерсом, Элизабет Уоррен и Хиллари Клинтон, а также фейковые видео, которые они сами и создали.

Затем команда применила машинное обучение, чтобы программа смогла различить и зафиксировать лица и движения головой, присущие конкретному лицу. Например, Берни кивает, говоря определенное слово, а Трамп самодовольно улыбается после очередной остроты. Пока алгоритмы не отражают таких деталей. Автор:



Посмотрите это
В Amazon создали приложение, которое будет распознавать одежду с фото В Amazon создали приложение, которое будет распознавать одежду с фото
Как мозговой имплантат превращает мысли на язык Как мозговой имплантат превращает мысли на язык
Ученые создали устройство, озвучивает ваши мысли Ученые создали устройство, озвучивает ваши мысли
  • 🔎Не то? Попробуйте поискать тут...
  • Сохраните в соц.сети, ок?

    Кроме этого, программа обращает внимание на артефакты, возникающие после повторного сжатия видео. 
    Во время экспериментов точность технологии составляла 92%. Исследователи планируют усовершенствовать методику, учитывая языковые особенности человека.

    Политики обеспокоены тем, что дезинформации будет особенно много во время президентских выборов 2020 года, потому что фейковые видео может сделать даже ребенок. Вместе с не правдивой информацией в новостях и фальшивыми аккаунтами в соцсетях, их распространяют, эти подделки меняют дискурс.

    Мы наблюдаем гонки цифровых вооружений между теми, кто создает фейки, и теми, кто их разоблачает. А катализатор этого процесса - непрерывное совершенствование алгоритмов на основе ИИ.
    Хао Ли - профессор Университета Южной Калифорнии

    Нейросеть научили распознавать дипфейки с точностью до 92%
    Категория: Новости о онлайн-медиа и IT-корпорациях Ваш IP записан: 3.149.26.176 (04.07.19)

    Комментарии 0

    Админ от 4-07-2019, 22:02 написал:

    «попробуйте оставить ваш первый комментарий здесь — это проще, чем кажется!»

    Оставить комментарий?
    Вам понравилось? +15 баллов
    Да 1203 нет :(
    Оставить комментарий +25 баллов
    Смотреть видео +20 баллов




    милый котик гиф Вы здесь уже: минут : секунд.