Компания OpenAI презентовала инструмент клонирования голоса. Она планирует держать под строгим контролем до тех пор, пока не будут приняты меры безопасности, предотвращающие подделку голоса, передает TechXplore.
Модель Voice Engine может говорить, точь-в-точь как конкретный человек, на основе 15-секундного аудиообразца.
«Мы понимаем, что создание речи, напоминающей голоса людей, сопряжено с серьезными рисками, о которых особенно важно в год выборов», — заявили в компании.
Исследователи дезинформации опасаются злоупотребления приложением: инструменты клонирования голоса дешевы, просты в использовании и их трудно отследить. Осторожное заявление было сделано через несколько месяцев после того, как политический консультант, работавший в президентской кампании соперника Джо Байдена, признался, что стоял за звонками робота, выдававшего себя за лидера США. Сгенерированный искусственным интеллектом призыв, призывающий людей не голосовать на январских праймериз в Нью-Гэмпшире, звучал голосом Байдена.
Инцидент вызвал тревогу среди экспертов, которые опасаются потока фейковой дезинформации с помощью искусственного интеллекта.
OpenAI заявила, что согласилась с правилами, в том числе требующими явного и осознанного согласия любого человека, чей голос дублируется с помощью этого инструмента. Также необходимо разъяснять аудитории, что голоса, которые они слышат, генерируются искусственным интеллектом.
«Мы внедрили ряд мер безопасности, включая водяные знаки для отслеживания происхождения любого звука, генерируемого Voice Engine, а также упреждающий мониторинг того, как он используется», — отметили в OpenAI.