Голос как отпечаток пальца: учёные предупреждают, что ИИ может использовать вашу речь против вас

Голос как отпечаток пальца: учёные предупреждают, что ИИ может использовать вашу речь против вас

 

Если знать, что слушать, голос человека может рассказать об уровне его образования, эмоциональном состоянии и даже профессии и финансовом положении — гораздо больше, чем можно себе представить. Теперь ученые утверждают, что технологии в виде систем преобразования речи в текст могут быть использованы для необоснованного завышения цен, несправедливого профилирования, домогательств или сталкинга.

В то время как люди могут улавливать более очевидные сигналы, такие как усталость, нервозность, радость и так далее, компьютеры способны делать то же самое, но с гораздо большим объемом информации и намного быстрее. Согласно новому исследованию, интонационные паттерны или ваш выбор слов могут раскрыть всё: от ваших политических взглядов до наличия проблем со здоровьем или медицинских состояний.

Исследование, опубликованное 19 ноября 2025 года в журнале Proceedings of the IEEE, подчеркивает серьезную озабоченность по поводу возможностей технологии в контексте конфиденциальности и несправедливого профилирования.

Хотя технологии обработки и распознавания голоса открывают определенные возможности, Том Бэкстрём, доцент кафедры речевых и языковых технологий Университета Аалто и ведущий автор исследования, видит потенциал для серьезных рисков и вреда. Например, если корпорация сможет понять ваше экономическое положение или потребности по вашему голосу, это открывает двери для необоснованного завышения цен, например, для дискриминационных страховых взносов.

А когда голоса могут раскрывать такие детали, как эмоциональная уязвимость, пол и другие личные данные, киберпреступники или сталкеры могут идентифицировать и отслеживать жертв на разных платформах, подвергая их вымогательству или преследованиям. Это те детали, которые мы подсознательно передаем, когда говорим, и на которые мы бессознательно реагируем в первую очередь.

Дженналин Понрадж, основательница Delaire, футуролог, работающий в области регуляции нервной системы человека в контексте новых технологий, рассказала Live Science: «Физиологии слушания уделяется очень мало внимания. В кризисной ситуации люди в первую очередь обрабатывают не язык. Они реагируют на тон, темп, просодию и дыхание, часто до того, как включается когнитивное мышление».

Следите за своим тоном

Хотя Бэкстрём сообщил, что технология еще не используется, семена уже посеяны.

«Об автоматическом обнаружении гнева и токсичности в онлайн-играх и колл-центрах говорят открыто. Это полезные и этически обоснованные цели, — сказал он. — Но растущая адаптация речевых интерфейсов для общения с клиентами, например, когда стиль речи автоматизированного ответа подстраивается под стиль клиента, говорит мне о том, что достижимы и более этически сомнительные или злонамеренные цели».

Он добавил, что, хотя он не слышал о том, чтобы кого-то поймали на неподобающем использовании технологии, он не знает, никто этого не делал, или потому что мы просто не искали.

«Причина, по которой я говорю об этом, заключается в том, что я вижу: многие инструменты машинного обучения для анализа, нарушающего конфиденциальность, уже доступны, и их недобросовестное использование не является чем-то невероятным», — говорит Том Бэкстрём.

Мы также должны помнить, что наши голоса повсюду. Каждое голосовое сообщение, которое мы оставляем, и каждый раз, когда линия обслуживания клиентов сообщает нам, что разговор записывается для обучения и контроля качества, — цифровая запись нашего голоса существует в объемах, сопоставимых с нашим цифровым следом, состоящим из постов, покупок и других действий в сети.

Если (или когда) крупная страховая компания осознает, что может увеличить прибыль, выборочно назначая цены на страховку на основе информации о нас, полученной из нашего голоса с помощью ИИ, что их остановит?

Бэкстрём сказал, что даже разговор об этой проблеме может открыть ящик Пандоры, сделав как общественность, так и «противников» осведомленными о новой технологии. «Причина, по которой я говорю об этом, заключается в том, что я вижу: многие инструменты машинного обучения для анализа, нарушающего конфиденциальность, уже доступны, и их недобросовестное использование не является чем-то невероятным, — сказал он. — Если кто-то уже догадался, у них может быть большое преимущество».

Поэтому он настоятельно подчеркивает, что общественность должна знать о потенциальных опасностях. В противном случае «крупные корпорации и государства тотальной слежки уже победили», — добавляет он. — «Это звучит очень мрачно, но я предпочитаю надеяться, что смогу что-то с этим сделать».

Как защитить свой голос

К счастью, существуют потенциальные инженерные подходы, которые могут помочь защитить нас. Первый шаг — точно измерить, что именно выдают наши голоса. Как сказал Бэкстрём в своем заявлении, трудно создавать инструменты, когда не знаешь, что защищаешь.

Эта идея привела к созданию Interest Group по безопасности и конфиденциальности в речевом общении (Security And Privacy In Speech Communication Interest Group), которая предоставляет междисциплинарную платформу для исследований и основу для количественной оценки информации, содержащейся в речи.

Отсюда уже можно передавать только ту информацию, которая строго необходима для предполагаемой транзакции. Представьте, что соответствующая система преобразует речь в текст для получения необходимой исходной информации: либо оператор вашего провайдера вводит информацию в свою систему (без записи самого разговора), либо ваш телефон преобразует ваши слова в текстовый поток для передачи.

Как сказал Бэкстрём в интервью Live Science: «Информация, передаваемая в сервис, должна быть минимально необходимой для выполнения желаемой задачи».

Кроме того, по его словам, если мы правильно выстроим этику и защитные механизмы технологии, то она демонстрирует большие перспективы. «Я убежден, что речевые интерфейсы и речевые технологии могут использоваться очень позитивно. Большая часть наших исследований посвящена разработке речевых технологий, которые адаптируются к пользователям, делая их использование более естественным».

«Конфиденциальность становится проблемой, потому что такая адаптация означает, что мы анализируем личную информацию — языковые навыки — о пользователях, так что дело не обязательно в удалении личной информации, а скорее в том, какая личная информация извлекается и для чего она используется».

КОНТЕКСТ

Кеймарс Афифи-Сабит, редактор технологического отдела

Нарушение конфиденциальности — ужасное ощущение, будь то взлом или показ рекламы в соцсетях, заставляющий думать, что приватный разговор был не таким уж приватным. Однако такие исследования показывают, что мы лишь поверхностно затронули тему того, как нас могут использовать в качестве мишени — особенно с помощью чего-то столь интимного и личного, как наш собственный голос.

С развитием ИИ и других технологий, становящихся всё более сложными, становится ясно, что мы до конца не понимаем, как это на самом деле повлияет на нас — в частности, как технологии могут быть использованы определенными силами для нашей эксплуатации. Хотя конфиденциальность потребителей была серьезно подорвана за последние несколько десятилетий, у недобросовестных лиц еще достаточно возможностей, чтобы использовать то, что нам дорого, в лучшем случае как товар, а в худшем — как оружие против нас.

В связи с этим эксперты призывают к разработке законодательства, которое бы регулировало использование голосовых данных и защищало граждан от дискриминации на основе речевых характеристик. Пока же основная ответственность ложится на самих пользователей: стоит внимательнее относиться к тому, кому и при каких обстоятельствах мы даем доступ к своему голосу. В эпоху, когда каждое слово может быть проанализировано алгоритмами, молчание иногда становится не просто золотом, а необходимостью.

Добавить комментарий