Gigantes tecnológicos forman grupo especial centrado en garantizar la seguridad de la IA
Anthropic, Google, Microsoft y el fabricante de la aplicación ChatGPT, OpenAI, dijeron que el recién creado Frontier Model Forum se basará en la experiencia de sus miembros para minimizar los riesgos de IA y respaldar los estándares de la industria.
SÍGUENOS TAMBIEN EN LA NUEVA RED SOCIAL THREADS
Las empresas se comprometieron a compartir las mejores prácticas entre sí, así como con legisladores e investigadores.
Los modelos «Frontier» se refieren a plataformas incipientes de aprendizaje automático a gran escala que llevan la IA a nuevos niveles de sofisticación y también cuentan con capacidades que podrían resultar peligrosas para los humanos.
«Las empresas que crean tecnología de inteligencia artificial tienen la responsabilidad de garantizar que su uso sea seguro y permanezca bajo control humano», dijo el presidente de Microsoft, Brad Smith, en un comunicado.
«Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que brinde beneficios a toda la humanidad», resaltó.
El presidente estadounidense, Joe Biden, evocó los «enormes» riesgos y esperanzas generadas por la IA en una reunión en la Casa Blanca la semana pasada con representantes de las gigantes tecnológicas que se comprometieron a tomar precauciones para todo tipo de protección, desde ciberataques hasta fraudes a medida que crece el sector.
Junto a los principales representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, Biden dijo que las empresas se han comprometido a «guiar la innovación responsable» a medida que la IA se extiende cada vez más en la vida personal y empresarial.
CLÍCK AQUÍ PARA RECIBIR NOTICIAS
Antes de la reunión, los siete gigantes de la IA se comprometieron con una serie de salvaguardas autorreguladas que, según la Casa Blanca, «subrayarían tres principios que deben ser fundamentales para el futuro de la IA: seguridad, protección y confianza».
En su compromiso, las empresas acordaron desarrollar «mecanismos técnicos robustos», como sistemas de marcas de agua, para garantizar que los usuarios sepan cuándo el contenido es de IA y no de humanos. (rfi)