Кто бы мог подумать, что в мире, где цифровые каналы связи — от мессенджеров до видеочатов — стали нормой, традиционный телефонный звонок может вновь стать единственным способом отличить правду от подделки.
С появлением усовершенствованных генеративных моделей, таких как ElevenLabs, Resemble AI и Google AudioLM, стало невероятно просто имитировать голос любого человека по нескольким секундам записи. К 2024 году количество случаев, когда мошенники использовали поддельные голоса родственников, коллег или начальников, резко возросло. По данным Американского агентства по кибербезопасности и инфраструктурной безопасности (CISA), атаки с применением синтезированного голоса выросли на 37% за последний год.
Классическая схема: родителю звонит «ребенок», якобы попавший в беду и просящий срочно перевести деньги. В реальности за этим стоит ИИ, обученный на открытых голосовых записях из соцсетей и видео-хостингов.
На фоне растущего недоверия к голосовым сообщениям и видеозвонкам, простые телефонные звонки — с использованием проверенного номера и живого голоса — могут снова стать признаком подлинности. Именно устаревшие методы верификации, как ни парадоксально, становятся более устойчивыми к новым угрозам.
Если раньше мы говорили «пиши, не звони», теперь все чаще слышим: «звони, чтобы подтвердить». Пока общество учится различать, где подделка, а где реальный человек, исследователи сталкиваются с другой проблемой: атаки на сами языковые модели, такие как ChatGPT, Claude, Gemini и GigaChat.
Так, американские аналитики из MIT и OpenAI выделяют три ключевые угрозы:
- Prompt Injection — внедрение вредоносных инструкций в текст, с целью манипулировать поведением модели,
- Model Leaking — утечка конфиденциальной информации через механизмы обучения,
- Impersonation Attacks — использование модели для имитации стиля, манеры общения или даже мыслей конкретных людей (включая знаменитостей, политиков, экспертов).
Одна из самых очевидных и быстро распространяющихся угроз — имитация человека с помощью ИИ. Речь идет не только о клонированных голосах или дипфейках, но и о текстах, созданных в стиле конкретного человека. Представьте, что вы получаете сообщение от своего юриста, коллеги или даже начальника, написанное безупречно в их духе. Но написал его не человек, а языковая модель.
Сомневаетесь? Позвоните. Разговор в реальном времени — то, что сложно сымитировать на лету, особенно в условиях неожиданного вопроса или изменения интонации. Это простой, но надежный способ проверить: действительно ли перед вами тот, за кого он себя выдает.
Вторая угроза — prompt injection. Это когда в модель внедряется вредоносная инструкция, которая изменяет ее поведение. В реальной жизни это может обернуться тем, что ИИ предложит вам совершить действие от имени «начальника» — выдать доступ, перевести деньги, поменять пароль. Все выглядит логично, официально, убедительно.
Но здесь снова срабатывает простой алгоритм: «Не уверен — позвони». Позвонить напрямую и спросить: «Вы действительно просили это сделать?» — значит защитить себя от последствий цифровой манипуляции. Старый добрый принцип «доверяй, но проверяй» снова актуален, только теперь в борьбе не с хакерами, а с продвинутыми нейросетями.
Даже такие технически сложные угрозы, как model leaking — когда языковые модели «вытаскивают» информацию, которую им давали в процессе обучения, — могут использоваться в атаках на реальных людей. Например, злоумышленник может получить сведения о внутренней структуре компании и затем обратиться к сотруднику от имени другого коллеги, используя правдоподобные детали. Звучит убедительно, если это письмо или сообщение. Но в телефонном разговоре фальшь, как правило, слышна.
Здесь речь уже не столько о самой модели, сколько о последствиях цифровых утечек. Звонок в таких случаях — способ перепроверить детали, особенно если речь идет о конфиденциальной информации или финансовых решениях.
Парадокс в том, что с каждым шагом технологического прогресса мы вынуждены все чаще обращаться к старым, казалось бы, устаревшим формам коммуникации. Телефонный звонок — это не просто способ общения. Это способ установить реальный, человеческий контакт в мире, где все чаще перед нами не человек, а имитация.
По мере того как ИИ продолжает проникать в нашу повседневность, безопасность все чаще будет зависеть не от алгоритмов, а от простых решений: личных встреч, рукопожатий, и — все чаще — звонков. Потому что иногда, чтобы отличить человека от машины, нужно просто услышать голос. Настоящий.
В ответ на эти вызовы уже формируется новое направление в кибербезопасности: LLM Security (защита больших языковых моделей). Компании вроде Microsoft и Anthropic создают протоколы фильтрации запросов, а стартапы вроде Lakera и Robust Intelligence разрабатывают защиту от «токсичных» данных и атак на конфиденциальность.
Становится очевидно, что эпоха слепого доверия к цифровым каналам заканчивается. Если видео, голос и текст могут быть подделаны за считанные секунды, то важнейшие решения — от бизнес-договоренностей до семейных вопросов — будут возвращаться к самым простым формам общения.
Как внедрить телефонные звонки для подтверждений и верификации в вашей компании?
Первое, что нужно сделать компании — это определить, в каких ситуациях телефонная верификация необходима. Речь идет не обо всех повседневных задачах, а о тех, где последствия ошибки могут быть серьезными: крупные денежные переводы, изменение прав доступа, одобрение договоров или выполнение нетипичных инструкций. Именно в этих случаях стоит вернуть правило: “не подтверждено голосом — не выполняется”.
Внедрение таких практик начинается не с технологий, а с культуры. Сотрудники должны понимать: перезвонить — не значит не доверять. Это значит — следовать стандартам. Телефонный звонок становится формой профессиональной ответственности, такой же, как подписание документа.
Компании могут начать с составления “списка доверия” — перечня сотрудников, чьи номера используются для верификации. Это может быть руководство, финансовая служба, ИТ-отдел, юридический департамент. Важно, чтобы номера этих людей были заранее подтверждены и внесены в защищенный внутренний справочник. При этом сотрудники должны помнить: номера могут быть подделаны — но интонацию, речь в режиме реального времени и способность к диалогу пока подделать куда сложнее.
Следующий шаг — интеграция звонков в повседневные процедуры. В крупных организациях полезно включить голосовую верификацию в регламенты: не переводить сумму выше определенного порога без звонка, не выдавать доступ без устного подтверждения. Это не требует полной перестройки процессов — но придает дополнительный уровень защиты критически важным операциям.
Для более масштабных сценариев компании могут использовать технологии: автоматические звонки для двухфакторной аутентификации, голосовые ИИ-решения с живым подтверждением, а также системы записи звонков с согласия сторон — для последующего аудита и юридической прозрачности.
В условиях, когда даже опытный сотрудник может не отличить настоящую инструкцию от фейковой, именно телефонный звонок остается последним барьером, который трудно взломать алгоритмами. Люди все еще способны распознавать интонации, реагировать на нюансы, задавать неожиданные вопросы. Именно это делает голосовой контакт уникально надежным.
В конечном счете, возвращение звонков — не откат в прошлом, а адекватный ответ на вызовы настоящего. Безопасность сегодня требует не только технологий, но и интуиции, осторожности и живого человеческого взаимодействия. А голос в трубке — пусть даже по старомодному протоколу — остается самым быстрым способом убедиться: перед тобой действительно человек.
Развитые страны прошли стремительный путь от телефонной трубки к чат-ботам, а сейчас начинается движение обратно. Пора подумать, как оседлать данный тренд, чтобы обезопасить себя и свой бизнес.