Estados Unidos y Reino Unido unen fuerzas para probar la seguridad de los modelos de inteligencia artificial

El Reino Unido y Estados Unidos se unen para evaluar la seguridad de los modelos de inteligencia artificial

OpenAI, Google, Anthropic y otras empresas que desarrollan inteligencia artificial generativa continúan mejorando sus tecnologías y lanzando modelos de lenguaje cada vez más grandes y complejos. Con el fin de crear un enfoque común para la evaluación independiente de la seguridad de estos modelos a medida que salen al mercado, los gobiernos del Reino Unido y Estados Unidos han firmado un Memorando de Entendimiento. El objetivo de esta alianza es que el Instituto de Seguridad de IA del Reino Unido y su homólogo estadounidense, anunciado por la vicepresidenta Kamala Harris pero aún sin iniciar operaciones, desarrollen conjuntamente pruebas para evaluar los riesgos y garantizar la seguridad de “los modelos de IA más avanzados”.

Una alianza para evaluar la seguridad de los modelos de IA

El acuerdo entre el Reino Unido y Estados Unidos contempla compartir conocimientos técnicos, información e incluso personal como parte de la asociación. Uno de sus objetivos iniciales parece ser realizar un ejercicio de prueba conjunto en un modelo de acceso público. La ministra de ciencia del Reino Unido, Michelle Donelan, quien firmó el acuerdo, dijo al periódico The Financial Times que “realmente tienen que actuar rápidamente” porque esperan que una nueva generación de modelos de IA salga al mercado en el próximo año. Creen que estos modelos podrían ser “cambiadores de juego completos” y aún no saben de qué serán capaces.

Según The Times, esta alianza es el primer acuerdo bilateral sobre seguridad de IA en el mundo, aunque tanto Estados Unidos como el Reino Unido tienen la intención de colaborar con otros países en el futuro. “La IA es la tecnología definitoria de nuestra generación. Esta alianza acelerará el trabajo de ambos institutos en todo el espectro de riesgos, ya sea para nuestra seguridad nacional o para nuestra sociedad en general”, dijo la secretaria de Comercio de Estados Unidos, Gina Raimondo. “Nuestra colaboración deja en claro que no estamos huyendo de estas preocupaciones, sino que las estamos enfrentando. Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de IA, realizarán evaluaciones más sólidas y emitirán orientación más rigurosa”.

Regulaciones para mantener a raya las herramientas de IA

Aunque esta alianza se enfoca en la evaluación y prueba de los modelos de IA, los gobiernos de todo el mundo también están promulgando regulaciones para mantener a raya estas herramientas. En marzo, la Casa Blanca firmó una orden ejecutiva con el objetivo de garantizar que las agencias federales solo utilicen herramientas de IA que “no pongan en peligro los derechos y la seguridad del pueblo estadounidense”. Un par de semanas antes, el Parlamento Europeo aprobó una legislación integral para regular la inteligencia artificial. Esta ley prohibirá “IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas”, “sistemas de categorización biométrica basados ​​en características sensibles” y la “extracción no dirigida” de rostros de imágenes de CCTV y la web para crear bases de datos de reconocimiento facial. Además, las deepfakes y otras imágenes, videos y audio generados por IA deberán ser claramente etiquetados como tales según sus reglas.

Esta alianza entre el Reino Unido y Estados Unidos es un paso importante en la evaluación y regulación de la inteligencia artificial. A medida que la tecnología avanza, es crucial que se realicen pruebas rigurosas y se establezcan regulaciones para garantizar su seguridad y proteger los derechos de las personas. Esperamos que esta colaboración sea el comienzo de una mayor cooperación entre países para abordar los desafíos y riesgos de la IA en el futuro.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio