“El nuevo chip de IA construido con tecnología antigua de Samsung promete igualar la velocidad de la GPU Nvidia A100 – ¿Será demasiado bueno para ser verdad?”

Nuevo chip de IA de KAIST podría competir con Nvidia en velocidad y consumo de energía

Un equipo de científicos de la Korea Advanced Institute of Science and Technology (KAIST) ha presentado un nuevo chip de inteligencia artificial que afirman puede igualar la velocidad de la GPU A100 de Nvidia, pero con un tamaño más pequeño y un consumo de energía significativamente menor. El chip fue desarrollado utilizando el proceso de fabricación de 28 nanómetros de Samsung, una tecnología considerada relativamente antigua en el mundo de los semiconductores en constante evolución.

Un avance en la tecnología de procesamiento en memoria

El equipo, liderado por el profesor Yoo Hoi-jun en el centro de investigación de procesamiento en memoria de KAIST, ha desarrollado lo que ellos llaman el primer chip de inteligencia artificial “Complementary-Transformer” (C-Transformer) del mundo. Este sistema de cómputo neuromórfico imita la estructura y el funcionamiento del cerebro humano, utilizando un modelo de aprendizaje profundo que se utiliza comúnmente en el procesamiento de datos visuales.

“La computación neuromórfica es una tecnología que incluso empresas como IBM e Intel no han podido implementar, y estamos orgullosos de ser los primeros en el mundo en ejecutar el LLM con un acelerador neuromórfico de bajo consumo”, dijo Yoo.

Quedan preguntas por responder

Esta tecnología aprende el contexto y el significado al rastrear las relaciones dentro de los datos, como las palabras en una oración, lo cual es una tecnología clave para servicios de inteligencia artificial generativos como ChatGPT.

Durante una demostración en la sede del Ministerio de Tecnologías de la Información y la Comunicación, el miembro del equipo Kim Sang-yeob mostró las capacidades del chip. En una computadora portátil equipada con el chip, realizó tareas como sesiones de preguntas y respuestas, resúmenes de oraciones y traducciones utilizando el LLM de OpenAI, GPT-2. Las tareas se completaron al menos tres veces más rápido y, en algunos casos, hasta nueve veces más rápido que cuando se ejecuta GPT-2 en una computadora portátil conectada a Internet.

Implementar LLM en tareas de inteligencia artificial generativa típicamente requiere numerosas GPUs y 250 vatios de energía, pero el equipo afirma que su semiconductor utiliza solo 1/625 de la energía de la GPU de Nvidia para las mismas tareas. Además, debido a que también es 1/41 del tamaño, con solo 4.5 mm por 4.5 mm, podría utilizarse en dispositivos como teléfonos móviles.

Sin embargo, queda por ver si el chip puede cumplir sus promesas en aplicaciones del mundo real. Como informa Tom’s Hardware, “Aunque se nos dice que el chip KAIST C-Transformer puede realizar las mismas tareas de procesamiento LLM que una de las potentes GPU de Nvidia, ninguna de las notas de prensa ni los materiales de la conferencia nos ha proporcionado métricas de rendimiento comparativas directas. Esa es una estadística significativa, conspicua por su ausencia, y lo cínico probablemente supondría que una comparación de rendimiento no favorece al C-Transformer”.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio