Эксперты Kaspersky рассказали о роли ChatGPT в кибербезопасности

Последние месяцы мировая онлайн-аудитория активно обсуждает популярную нейросеть ChatGPT. Доступность для широкого круга пользователей и точность следования заданным инструкциям во многом обуславливают её популярность. При этом сферы применения не ограничиваются развлекательными: например, нейросети схожей с ChatGPT архитектуры уже используют для классификации текстов, машинного перевода и даже для чат-ботов поддержки в банках. Эксперты Kaspersky разбирают, какую роль новое поколение нейросетей может сыграть в индустрии кибербезопасности и как ей могут воспользоваться злоумышленники.

Фишинговые рассылки. ChatGPT создаёт убедительные тексты, которые трудно отличить от написанных человеком. Пользуясь этим, злоумышленники уже пытаются применить эту технологию для фишинговых атак. Если раньше составление целевых писем обходилось довольно дорого, то с ChatGPT злоумышленники могут создавать убедительные и персонализированные фишинговые письма в промышленных масштабах. Например, стилизовать переписку под общение двух сотрудников из одной компании.

Генерация вредоносного кода. ChatGPT способна генерировать код, в том числе и вредоносный. Таким образом, создать простую программу для кражи паролей можно будет даже не обладая навыками программирования. Однако код, который создает нейронная сеть, совсем не обязательно будет работать должным образом. ПО, написанное ботом, с высокой долей вероятности будет содержать ошибки и логические недочёты. Поэтому его улучшение и внедрение в любом случае потребуют вмешательства со стороны человека, обладающего профильными навыками и опытом.

Возможности ChatGPT для ИБ-специалистов. Нейронная сеть способна быстро объяснить, что делает тот или иной фрагмент кода. Это может помочь специалистам SOC-центров (Security Operations Center): постоянно перегруженные работой аналитики не всегда могут уделять много времени каждому инциденту, поэтому любой инструмент для ускорения процесса будет полезен. В будущем могут появиться и специализированные продукты, такие как модель обратного инжиниринга для лучшего понимания кода, сценарии CTF-соревнований, модель исследования уязвимостей.

В ближайшие несколько лет ИБ-специалисты будут адаптировать под свои нужды большие языковые модели, обученные на естественных языках и языках программирования. Они будут стремиться использовать их для разных целей: от поиска угроз до реагирования на инциденты. При этом ИБ-компании будут изучать, какие возможности дают новые инструменты и как их могут эксплуатировать злоумышленники.

 

«Сама по себе ChatGPT, как технология, не представляет опасности, но злоумышленники могут использовать её в различных неблагоприятных сценариях, преследуя корыстные цели. Стоит помнить, что сама суть угроз при этом остается неизменной ― меняется лишь инструментарий, с помощью которого злоумышленники реализуют атаки. Поэтому классические средства защиты от сложных и целевых атак помогут компаниям обеспечить безопасность периметра IT-инфраструктуры, а защитные продукты для мобильных и домашних устройств не дадут пользователям перейти по вредоносным ссылкам, даже если электронные письма «фишеров» будут звучать убедительно. И хотя ChatGPT не окажет немедленного влияния на отрасль ИБ и не изменит расклад сил в области кибербезопасности, следующие поколения ИИ, уже могут быть на это способны», ― комментирует Дмитрий Кудревич, представитель Kaspersky в Беларуси.

 

Читайте новости первыми в нашем Telegram-канале!

Подписывайтесь на наш канал в Дзен!

Версия для печатиВерсия для печати

Регион: 

Рубрики: 

Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!

Читайте также