По данным опроса New Kaspersky, большинство россиян (64%) слышали о решениях, которые используют нейросети: речь идёт о дипфейк-технологиях, умных чат-ботах наподобие ChatGPT и генераторах изображений, таких как Midjourney. Примерно каждый десятый респондент пользуется или по крайней мере пробовал их в деле: 11% — умные чат-боты и генераторы изображений, 9% — инструменты для создания дипфейков.
Участники опроса видят и преимущества, и риски таких решений. Наиболее перспективными россиянам кажутся генераторы изображений: мнение, что за ними будущее, разделяют 43% респондентов. Аналогичная точка зрения относительно умных чат-ботов — у 40%, а дипфейк-технологий — у 31%.
Говоря о рисках, респонденты высказывают опасение, что из-за развития нейросетей многие могут лишиться работы. Такое мнение в отношении умных чат-ботов разделяют 30%, генераторов изображений — 25%, а дипфейк-технологий — 22%.
«Уже сейчас нейросети проникают в деятельность тех, кто работает с текстами и изображениями, например, дизайнеров и копирайтеров, а разработчикам ПО помогают повысить эффективность написания кода. Однако в ближайшем будущем бояться потери работы из-за новых технологий не стоит. Например, в „Лаборатории Касперского“ машинное обучение используется уже порядка 18 лет и помогает обрабатывать огромное — за пределами возможностей человека — количество потенциально опасных объектов и событий. Технологии не заменяют специалистов, а освобождают их от рутинных задач и позволяют сконцентрироваться на изучении более сложных киберугроз. Такое взаимодополнение позволяет обеспечить нашим пользователям более эффективную защиту», — отметил Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского».
Когда речь заходит о киберрисках, почти половина опрошенных (45%) высказывает мнение, что дипфейк-технологии будут активно использоваться злоумышленниками и недоброжелателями. Такого же мнения об умных чат-ботах и генераторах изображений придерживаются 36% и 27% соответственно. Часть респондентов боятся, что дипфейк-технологии, умные чат-боты и генераторы изображений могут быть использованы в отношении лично них — 26%, 20% и 17%.
«Сегодня злоумышленники на теневых площадках активно обмениваются способами применения различных продвинутых технологий — например умных чат-ботов — для своих целей. Но это не означает, что такие идеи уже масштабно используются для реализации реальных кибератак. Что касается другой нашумевшей технологии — дипфейк, то немногочисленные случаи её применения мошенниками на практике по сути сводились к скаму. Злоумышленники выдавали себя за разных известных людей и продвигали мошеннические схемы, пытаясь таким образом выманить у жертв деньги или личные данные. Конечно, нельзя исключать, что в будущем объёмы подобного мошенничества увеличатся, — отметил Дмитрий Галов, руководитель российского исследовательского центра «Лаборатории Касперского».
Чтобы не попасться на уловки злоумышленников, даже если они используют в своих схемах продвинутые технологии, в «Лаборатории Касперского» рекомендуют:
- критически относиться к любой информации в сети и мессенджерах;
- не переходить по ссылкам из сомнительных сообщений;
- регулярно обновлять операционную систему на личных устройствах и установленные приложения;
- использовать надёжное защитное решение, которое вовремя распознает фишинговую ссылку или вредоносное ПО, такое как Kaspersky Premium.