Инструмент клонирования голоса искусственным интеллектом назвали слишком опасным: достаточно 15 секунд
Новейший инструмент от OpenAI, какой может создать убедительную копию голоса любого человека, используя итого 15 секунд аудиозаписи, был признан излишне рискованным для машистого распространения, поскольку лаборатория ненастоящего интеллекта влечется свести к минимуму угрозу дезинформации в год глобальных выборов.
Будто пишет The Guardian, голосовой движок был впервинку разработан в 2022 году, и первоначальная версия была использована для переустройства текста в речь, встроенного в ChatGPT, ведущий инструмент ненастоящего интеллекта организации. Однако его мощь ввек не раскрывалась публично, частично из-за “осторожного и осознанного” подхода, какой OpenAI использует для более машистого распространения.
“Мы гадаем начать диалог об ответственном использовании синтетических голосов и о том, будто общество может адаптироваться к этим новоиспеченным возможностям”, - говорится в извещении OpenAI. - Основываясь на этих беседах и результатах этих маломасштабных тестов, мы встретим более обоснованное решение о том, следует ли и каким образом внедрять эту технологию в больших масштабах”.
В своем посте бражка поделилась образцами реального использования технологии неодинаковыми партнерами, каким был предоставлен доступ к ней для встраивания в свои собственные приложения и продукты.
Образовательная технологическая бражка Age of Learning использует его для создания озвучки по сценарию, в то времена будто приложение HeyGen для визуального рассказывания историй с помощью ненастоящего интеллекта предлагает пользователям возможность создавать переводы записанного контента таковским образом, чтобы он был свободным, однако держал акцент и голос оригинального диктора. Например, при генерации английского языка с использованием аудиосэмпла от носителя французского языка получается речь с французским упором.
Примечательно, что исследователи из Института неврологии имени Нормана Принса в Род-Айленде использовали некачественный 15-секундный ролик, в каком молодая баба выступает с презентацией школьного проекта по “восстановлению голоса”, какой она затеряла из-за сосудистой опухоли головного мозга.
“На настоящий момент мы постановили проложить предварительный просмотр, однако не выпускать эту технологию в машистый прокат”, - заявили в OpenAI, чтобы “повысить устойчивость общества к вызовам, какие создают все более веские генеративные модели”. В нем говорилось: “В кратчайшем предбудущем мы поощряем таковские шаги, будто постепенный несогласие от голосовой аутентификации в качестве меры безопасности для доступа к банковским счетам и иной конфиденциальной информации”.
В OpenAI также призвали к изучению “политики защиты использования голосов отдельных лиц в ИИ” и “просвещению общественности в понимании возможностей и ограничений технологий ИИ, вводя возможность создания впрыскивающего в заблуждение контента с использованием ИИ”.
По словам OpenAI, поколения голосовых движков помечены водяными знаками, что позволяет организации отслеживать генезис любого сгенерированного звука. В взаправдашнее времена, добавил он, “наши обстановка с этими партнерами требуют неприкрытого и осознанного согласия оригинального спикера, и мы не дозволяем разработчикам создавать способы для отдельных пользователей создавать свои собственные голоса”.
Однако в то времена будто инструмент OpenAI выдается технической простотой и небольшим числом оригинального звука, необходимого для создания веского клона, конкуренты уже доступны машистой публике.
Используя итого лишь “несколько минут аудио”, таковские братии, будто ElevenLabs, могут создать абсолютный голосовой клон. Чтобы попытаться уменьшить вред, бражка внедрила систему защиты “голоса без доступа”, предназначенную для обнаружения и предотвращения создания голосовых клонов, “которые имитируют политических кандидатов, деятельно участвующих в президентских выборах или выборах премьер-министра, начиная с выборов в США и Великобритании”.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.
комментариев