МВД к ноябрю 2022 года получит программу «Зеркало»( «Верблюд») для распознавания видео с заменой лиц — дипфейков. Об этом говорится в контракте, который заключило ведомство, сообщает ТАСС. Согласно контракту, проведение научно-исследовательской работы «Исследование возможных способов выявления признаков внутрикадрового монтажа видеоизображений, выполненного с помощью нейронных сетей» продлится до 30 ноября 2022 года, а цена контракта на разработку составит 3,5 млн рублей. Контракт с МВД был заключен 4 марта. Сами сотрудники считают, что разработка повысит уровень научно-технического обеспечения деятельности экспертно-криминалистических подразделений по линии производства видеотехнических экспертиз и исследований. https://www.securitylab.ru/news/519728.php
Поздновато спохватились Spoiler: Тыц Киберпреступники все чаще делятся, разрабатывают и используют дипфейк-технологии для обхода биометрической защиты, шантажа, кражи личных данных, осуществления атак с применением социальной инженерии и пр. Специалисты из компании Recorded Future предрекают увеличенный рост числа дипфейк-атак со стороны злоумышленников и резкое увеличение дипфейк-услуг в даркнете. «В течение следующих нескольких лет киберпреступники и правительственные хакеры, участвующие в операциях по дезинформации и оказанию влияния, вероятно, будут чаще использовать дипфейки из-за возросшего потребления online-медиа. Online-сообщества будут по-прежнему подвержены ложной или вводящей в заблуждение информации», — пояснили эксперты Согласно Recorded Future, большая часть тем на русскоязычных и англоязычных подпольных форумах в даркнете посвящена практическим рекомендациям и передовым методам, указывая на намерения хакеров усовершенствовать дипфейк-инструменты. Наиболее распространенные темы, связанные с дипфейками, включали услуги по редактированию видео и изображений, практические методы и уроки, запросы о лучших практиках, обмен бесплатными загрузками программного обеспечения и генераторами фотографий, общие интересы в дипфейках и объявления о новых разработках в области дипфейк-технологий Напомним, ранее соучредитель компании Pinscreen, которая использует искусственный интеллект для создания цифровых аватаров, сообщил , что количество дипфейков в Сети удваивается каждые шесть месяцев. Как полагает Ли, по мере распространения дипфейков в Сети вскоре будет намного сложнее отделить факты от вымысла. https://www.securitylab.ru/news/519730.php Американская армия уже имеет подобный инструмент DefakeHop Spoiler: Тыц Инструмент DefakeHop объединяет в себе машинное обучение, анализ сигналов и компьютерное зрение. Армия США представила легковесный инструмент для выявления дипфейков, позволяющий предотвратить представляемую ими потенциальную угрозу национальной безопасности. «В связи с продвижением генеративных нейронных сетей управляемые искусственным интеллектом дипфейки развиваются так быстро, что надежных методов для их обнаружения и защиты от них попросту не хватает. Существует острая необходимость в альтернативной парадигме, которая могла бы понять механизм поразительной производительности дипфейков и разработать эффективные защитные решения с прочной теоретической поддержкой», – пояснил профессор электротехники и вычислительной техники Университета Южной Калифорнии Чунг-Чи Джей Куо (C.-C. Jay Kuo). Группа специалистов под руководством Куо создала инструмент DefakeHop, объединяющий в себе машинное обучение, анализ сигналов и компьютерное зрение. В основе DefakeHop лежит новая архитектура нейронной сети Successive Subspace Learning (SSL). По словам исследователей, уникальная конструкция DefakeHop имеет ряд преимуществ перед традиционными методами обнаружения дипфейков, в том числе большую прозрачность, низкие потребности в контроле, меньшие размеры моделей и лучшую безопасность. Как пояснил Куо, SSL представляет собой совершенно новую математическую основу для архитектуры нейронной сети, разработанная на основе теории преобразования сигналов. «Она радикально отличается от традиционного подхода, предлагая новое представление сигнала и процесс, включающий несколько матриц преобразования в каскаде. […] Это полная неконтролируемая среда, управляемая данными, предлагающая совершенно новый инструмент для обработки изображений и понимания таких задач, как биометрия лица», – сообщил Куо. Помимо обнаружения дипфейков специалисты нашли целый ряд применений предложенной ими облегченной модели интерпретации изображений в вооруженных силах. «Мы ожидаем, что в будущем солдаты будут использовать на поле боя интеллектуальные, но чрезвычайно малые по весу и мощности устройства видения. Предложенное решение имеет ряд желаемых характеристик, в том числе небольшой размер модели, ограниченное количество обучающих данных, низкую сложность обучения и возможность обработки входных изображений с низким разрешением. Это может привести к разработке революционных решений с далеко идущим применением для армии», – пояснил исследователь Армейской исследовательской лаборатории (ARL) Суя Ю. Подробнее: https://www.securitylab.ru/news/519749.php