Las compañías líderes en el campo de la inteligencia artificial han creado el Frontier Model Forum, un cuerpo que se centrará en la creación 'segura y responsable' de nuevos modelos.
Las empresas más grandes de inteligencia artificial se han unido para formar un nuevo organismo llamado Frontier Model Forum diseñado para intentar garantizar el “desarrollo seguro y responsable” del llamado “IA de frontera”.
Desarrolladores de Microsoft, Google, OpenAI y Anthropic se unieron en esta coalición que se basa en la experiencia de las empresas miembros para desarrollar evaluaciones técnicas y puntos de referencia, y promover las mejores prácticas y estándares.
Te recomendamos
IA de frontera
Para entender este proyecto, debemos saber inicialmente qué es una inteligencia artificial de frontera.
Este tipo de IA son modelos avanzados que se consideran lo suficientemente peligrosos como para plantear "graves riesgos para la seguridad pública".
Las compañías de argumentan que tales modelos plantean un desafío regulatorio único, ya que "las capacidades peligrosas pueden surgir inesperadamente", lo que dificulta evitar la apropiación indebida de los modelos.
“Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano”, dijo Brad Smith, presidente de Microsoft. “Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que beneficie a toda la humanidad”.
Los miembros del foro dijeron que sus principales objetivos eran promover la investigación en seguridad de inteligencia artificial, como el desarrollo de estándares para evaluar modelos; alentar el despliegue responsable de modelos avanzados; discutir los riesgos de confianza y seguridad en la IA con políticos y académicos; y ayudar a desarrollar usos positivos para la IA, como combatir la crisis climática y detectar el cáncer.
En el plazo inmediato, los miembros fundadores dicen que los primeros pasos serán establecer un consejo asesor para dirigir su estrategia, junto con una estructura de constitución, gobierno y financiación.
Te recomendamos
Empiezan las regulaciones
Esta iniciativa propia de las compañías más grandes de esta industria llega luego de múltiples pedidos de regulación por parte de actores sociales y de la propia división tecnológica.
Europa está avanzando con lo que será el primer libro de reglas de inteligencia artificial, diseñado para consagrar la seguridad, la privacidad, la transparencia y la lucha contra la discriminación en el corazón del espíritu de desarrollo de IA de las empresas.
China ya ha presentado su propio listado y las empresas que operen en el país deberán tener una aprobación oficial de los ministerios correspondientes.
La semana pasada, el presidente Biden se reunió con siete empresas de inteligencia artificial en la Casa Blanca, incluidos los cuatro miembros fundadores del Frontier Model Forum, para acordar salvaguardas voluntarias contra la floreciente revolución de la inteligencia artificial.
Recordemos también que personalidades como Elon Musk firmaron cartas pidiendo una pausa en el desarrollo de la IA con el que se buscaría solicitar regulación oficial hacia ellos en bien de la sociedad global.
Te recomendamos
Comparte esta noticia
Siguenos en