“La última experimentación de Adobe en IA crea música a partir de texto”

Adobe presenta su última herramienta de inteligencia artificial para la creación de música a partir de texto

Esta semana, Adobe ha revelado una herramienta experimental de inteligencia artificial de audio para unirse a sus herramientas basadas en imágenes en Photoshop. Descrita por la compañía como “una herramienta de generación y edición de música y otros audios basada en IA en una etapa temprana”, el Proyecto Music GenAI Control de Adobe puede crear música a partir de indicaciones de texto, que luego puede afinar en la misma interfaz.

Una nueva herramienta creativa basada en Firefly

Adobe enmarca la tecnología basada en Firefly como una aliada creativa que, a diferencia de experimentos de audio generativos como MusicLM de Google, va un paso más allá y evita la molestia de trasladar la salida a aplicaciones externas como Pro Tools, Logic Pro o GarageBand para su edición. “En lugar de cortar manualmente música existente para crear introducciones, salidas y audio de fondo, Project Music GenAI Control podría ayudar a los usuarios a crear exactamente las piezas que necesitan, resolviendo los problemas de flujo de trabajo de principio a fin”, escribió Adobe en una publicación de blog de anuncio.

La compañía sugiere comenzar con entradas de texto como “rock poderoso”, “baile feliz” o “jazz triste” como base. A partir de ahí, se pueden ingresar más indicaciones para ajustar su tempo, estructura y repetición, aumentar su intensidad, extender su duración, remezclar secciones completas o crear loops. La compañía dice que incluso puede transformar el audio basado en una melodía de referencia.

Adobe dice que la música resultante es segura para uso comercial. También está integrando sus Credenciales de Contenido (etiquetas nutricionales para contenido generado), un intento de ser transparente sobre la naturaleza asistida por IA de su obra maestra.

“Una de las cosas emocionantes de estas nuevas herramientas es que no se trata solo de generar audio, sino que lo llevan al nivel de Photoshop al dar a los creativos el mismo tipo de control profundo para dar forma, ajustar y editar su audio. Es un tipo de control a nivel de píxel para la música”, escribió Nicholas Bryan, científico de investigación de Adobe.

El proyecto es una colaboración con la Universidad de California, San Diego y la Escuela de Ciencias de la Computación de la Universidad Carnegie Mellon. El anuncio de Adobe enfatizó la naturaleza experimental de Project Music GenAI Control. (No reveló mucho de su interfaz en el video anterior, lo que sugiere que es posible que aún no tenga una interfaz orientada al consumidor). Por lo tanto, es posible que tenga que esperar un tiempo antes de que la función (presumiblemente) se integre en la suite Creative Cloud de Adobe.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio