ИИ научился клонировать человеческий голос. Для этого достаточно 15 секунд

МК
1 апреля 2024, 11:18
Фото: freepik.com
Высокотехнологичная компания OpenAI считает разработанный ею инструмент для клонирования голоса слишком рискованным для широкого распространения. Задержка с внедрением технологии Voice Engine сводит к минимуму вероятность дезинформации в важный год глобальных выборов.

Новый инструмент от OpenAI, который может создать убедительную копию голоса любого человека, используя всего 15 секунд аудиозаписи, был признан слишком рискованным для широкого распространения, поскольку лаборатория искусственного интеллекта стремится свести к минимуму угрозу дезинформации в год глобальных выборов.

Как пишет The Guardian, голосовой движок был впервые разработан в 2022 году, и первоначальная версия была использована для преобразования текста в речь, встроенного в ChatGPT, ведущий инструмент искусственного интеллекта организации. Но его мощь никогда не раскрывалась публично, отчасти из-за “осторожного и осознанного” подхода, который OpenAI использует для более широкого распространения.

“Мы надеемся начать диалог об ответственном использовании синтетических голосов и о том, как общество может адаптироваться к этим новым возможностям”, - говорится в сообщении OpenAI. - Основываясь на этих беседах и результатах этих маломасштабных тестов, мы примем более обоснованное решение о том, следует ли и каким образом внедрять эту технологию в больших масштабах”.



В своем посте компания поделилась примерами реального использования технологии различными партнерами, которым был предоставлен доступ к ней для встраивания в свои собственные приложения и продукты.

Образовательная технологическая компания Age of Learning использует его для создания озвучки по сценарию, в то время как приложение HeyGen для визуального рассказывания историй с помощью искусственного интеллекта предлагает пользователям возможность создавать переводы записанного контента таким образом, чтобы он был беглым, но сохранял акцент и голос оригинального диктора. Например, при генерации английского языка с использованием аудиосэмпла от носителя французского языка получается речь с французским акцентом.

Примечательно, что исследователи из Института неврологии имени Нормана Принса в Род-Айленде использовали некачественный 15-секундный ролик, в котором молодая женщина выступает с презентацией школьного проекта по “восстановлению голоса”, который она потеряла из-за сосудистой опухоли головного мозга.

“На данный момент мы решили провести предварительный просмотр, но не выпускать эту технологию в широкий прокат”, - заявили в OpenAI, чтобы “повысить устойчивость общества к вызовам, которые создают все более убедительные генеративные модели”. В нем говорилось: “В ближайшем будущем мы поощряем такие шаги, как постепенный отказ от голосовой аутентификации в качестве меры безопасности для доступа к банковским счетам и другой конфиденциальной информации”.


В OpenAI также призвали к изучению “политики защиты использования голосов отдельных лиц в ИИ” и “просвещению общественности в понимании возможностей и ограничений технологий ИИ, включая возможность создания вводящего в заблуждение контента с использованием ИИ”.

По словам OpenAI, поколения голосовых движков помечены водяными знаками, что позволяет организации отслеживать происхождение любого сгенерированного звука. В настоящее время, добавил он, “наши условия с этими партнерами требуют явного и осознанного согласия оригинального спикера, и мы не разрешаем разработчикам создавать способы для отдельных пользователей создавать свои собственные голоса”.

Но в то время как инструмент OpenAI отличается технической простотой и небольшим количеством оригинального звука, необходимого для создания убедительного клона, конкуренты уже доступны широкой публике.

Используя всего лишь “несколько минут аудио”, такие компании, как ElevenLabs, могут создать полный голосовой клон. Чтобы попытаться уменьшить вред, компания внедрила систему защиты “голоса без доступа”, предназначенную для обнаружения и предотвращения создания голосовых клонов, “которые имитируют политических кандидатов, активно участвующих в президентских выборах или выборах премьер-министра, начиная с выборов в США и Великобритании”.
Заметили ошибку? Пожалуйста, выделите её и нажмите Ctrl+Enter
Дорогие читатели, не имея ресурсов на модерацию и учитывая нюансы белорусского законодательства, мы решили отключить комментарии. Но присоединяйтесь к обсуждениям в наших сообществах в соцсетях! Мы есть на Facebook, «ВКонтакте», Twitter и Одноклассники
•   UDFНовостиТехнологии ❯ ИИ научился клонировать человеческий голос. Для этого достаточно 15 секунд