Киберпреступники с помощью дипфейков притворяются родственниками жертв и вымогают определённую сумму. Только за 2023 год мошенники дистанционно обманули более 2000 астраханцев, а с начала этого года жители Астрахани перевели им более 200 миллионов рублей. Методы обмана разные, говорят в полиции. Как не попасть на уловки и какие ещё есть способы мошенничества – узнал наш корреспондент.

Киану Ривз в реальном режиме времени собственной персоной. Записываем видео, пару манипуляций, и эта запись окажется у вас в телефоне в личных сообщениях. Страшно - не то слово. Вместо известного актёра может быть кто угодно: ваши мама или папа, а может дальний родственник. Студенты АГТУ показали нам мощную технологию, и она в открытом доступе. Давайте разбираться, как действуют мошенники.

«Существует модуль, который позволяет в режиме реального времени изменять твоё лицо на фотографию любого человека. Сейчас мы это продемонстрируем. Фотографируй меня», ‒ объясняет студент кафедры информационной безопасности, ведущий специалист по защите информации отдела и.б. АГТУ Карим Кармакаев.

Пару снимков Карима и отправляем фотографию в систему. В эпоху блогерства злоумышленникам не составит труда найти вашу фотографию в социальных сетях.

— И дальше на примере видно, как работает сам искусственный интеллект. Он определяет лицо по точкам и уже на основе фотографии заменяет лицо.

И лицо мгновенно меняется – вот суть дипфейка. В итоге ваши родные думают, что это вы. А как насчёт голоса? Его можно изменить?

«По аналогии с видеосообщениями можно сделать и голосовые сообщения, в реальном времени изменить голос. То есть берётся модель или голосовая запись кого-либо человека, обрабатывается. Искусственный интеллект изучает», ‒ говорит студент кафедры информационной безопасности, ведущий инженер сервисного отдела АГТУ Шахмурад Шихалиев.

Здесь мы тоже решили поэкспериментировать. Записали голос Шахмурада.

– Это пример моего голоса. Как мой голос сейчас меняется в данный момент. Записываем голос Сабурова.

И вот уже буквально через несколько секунд мы слышим известного комика Нурлана Сабурова. При помощи нейросетей звучит его интонация, ритм и особенности речи.

Всё это выглядит интересно и инновационно, но не стоит забывать, что эту технологию можно использовать в плохом ключе. В первую очередь под угрозой обмана при помощи дипфейка находятся те, кто меньше всего разбирается в технологиях. Обезопасить себя можно. Нужно быть готовым ко всему. Хотя бы изучить сценарии киберпреступников.

«Есть определённые маркеры, по которым вы сразу можете отличить. Допустим, очень часто злоумышленники перед звонком скорее всего напишут вам сообщение, что это, допустим, куратор из спецслужб, если это по рабочим вопросам. То есть уже какие-то образцы атак. Если с ними знакомиться предварительно, то уже можно отличить на первых этапах, что это, скорее всего, злоумышленники звонят», ‒ рассказывает заведующая кафедрой информационная безопасность АГТУ Надежда Давидюк.

Существуют множество видов мошенничества, и мы вам показали только один из них. Есть звонки от операторов сотовой связи, от спецслужб, от сотрудников банка. Сценариев много. Сотрудники полиции дали свои рекомендации.

«Самое главное, чтобы граждане понимали, что никогда специалисты банков не будут обращаться к ним и сообщать о несанкционированном списании денежных средств. Также, как и сотрудники правоохранительных органов, служб безопасности. Если такой звонок поступил, то необходимо незамедлительно обратиться в банк и полицию по данному факту», ‒ добавляет врио начальника отдела по борьбе с киберпреступностью УМВД России по Астраханской области Тимур Бабаев.

В Астраханской области зарегистрировано более 1000 заявлений по факту киберпреступлений. И только за 2024 год более 270 миллионов рублей жителей региона перевели мошенникам. Подходите ответственно к размещению личной и финансовой информации в социальных сетях и других мессенджерах. Проверьте 100 раз, прежде чем доверить личную информацию кому-либо.