SAN FRANCISCO : OpenAI , Anthropic y Google están reforzando la coordinación contra la copia no autorizada de sistemas avanzados de IA a través del Frontier Model Forum, una organización sin fines de lucro del sector cuyo marco de intercambio de información sobre amenazas permite ahora a las empresas miembro intercambiar información sobre vulnerabilidades, métodos de ataque y otros riesgos de seguridad relacionados con los modelos de vanguardia. El foro, lanzado en 2023, fue creado por Anthropic, Google, Microsoft y OpenAI, y ahora también incluye a Amazon y Meta, lo que amplía la base de la industria a medida que la protección de los modelos se convierte en una preocupación fundamental para los principales desarrolladores estadounidenses.

El Frontier Model Forum anunció en marzo de 2025 que todas sus empresas miembro habían firmado un acuerdo voluntario de intercambio de información que abarcaba tres categorías: vulnerabilidades y fallos explotables, amenazas que implican acceso o manipulación no autorizados, y capacidades preocupantes con potencial para causar daños a gran escala. En una actualización publicada el 16 de febrero de 2026, el grupo indicó que las empresas miembro ya habían utilizado el sistema para compartir la información protegida y que su infraestructura legal y técnica se había diseñado para proteger la propiedad intelectual, al tiempo que se garantizaba el cumplimiento de la normativa antimonopolio.
La presión sobre este tema se intensificó el 23 de febrero, cuando Anthropic acusó públicamente a tres empresas chinas de IA —DeepSeek, Moonshot AI y MiniMax— de llevar a cabo campañas a gran escala para extraer capacidades de Claude, violando así sus términos de servicio. Anthropic afirmó que estas campañas generaron más de 16 millones de interacciones a través de unas 24 000 cuentas falsas y se dirigieron a algunas de las funciones más potentes de Claude, como el razonamiento, la programación, el uso de herramientas, la visión artificial y el control informático. La empresa describió esta actividad como una extracción a escala industrial, en lugar de un uso comercial normal.
Canal de seguridad compartido
Anthropic afirmó haber vinculado las campañas a laboratorios específicos mediante la correlación de direcciones IP, metadatos de solicitudes, indicadores de infraestructura y la corroboración de socios del sector que habían observado un comportamiento similar en sus propias plataformas. Indicó que los operadores utilizaron cuentas fraudulentas y servicios de proxy para acceder a Claude a gran escala sin ser detectados, y que una red de proxy gestionó más de 20 000 cuentas simultáneamente. En el caso de MiniMax, Anthropic señaló que observó un cambio drástico en el tráfico en las 24 horas posteriores al lanzamiento de una nueva versión de Claude, con casi la mitad de ese tráfico redirigido al sistema más reciente.
El Foro de Modelos Frontier reforzó estas preocupaciones ese mismo día en un informe que definía la destilación adversaria como el acceso encubierto o indirecto a los resultados de un modelo para entrenar a otro modelo y replicar sus capacidades, a menudo infringiendo los términos de la licencia o las condiciones de uso. El informe señalaba que el riesgo no reside únicamente en la duplicación del rendimiento, sino también en la posibilidad de que las capacidades copiadas se propaguen sin las medidas de seguridad que acompañaban al sistema original. Identificaba el razonamiento general, la codificación avanzada, el procesamiento multimodal y el uso de herramientas de agentes como objetivos principales para este tipo de extracción.
Mayor escrutinio en Washington
OpenAI también ha planteado la cuestión a los legisladores estadounidenses. En un memorando enviado al Comité Selecto de la Cámara de Representantes sobre el Partido Comunista Chino, la compañía afirmó que empleados de DeepSeek habían utilizado enrutadores de terceros ofuscados y métodos de acceso automatizados para obtener datos de destilación. Los términos de uso de OpenAI, actualizados el 1 de enero de 2026, prohíben tanto la extracción automática de datos como su uso para desarrollar modelos que compitan con OpenAI. Estas restricciones sitúan la seguridad de los datos de los modelos junto con los controles de chips y de acceso en la competencia más amplia por los sistemas avanzados de IA.
En conjunto, las revelaciones demuestran que los principales desarrolladores estadounidenses consideran la extracción no autorizada de modelos como una amenaza real para la seguridad y la competencia, y no simplemente como una disputa rutinaria sobre los términos de servicio. El Foro de Modelos de Frontera sigue centrado en la seguridad de la IA, pero su mecanismo de intercambio de información se ha convertido en un canal formal para intercambiar advertencias sobre jailbreaks, vectores de ataque, indicadores de amenazas cibernéticas y otros intentos de obtener acceso no autorizado a modelos de IA de vanguardia. – Por Content Syndication Services .
La publicación OpenAI, Google y Anthropic refuerzan sus defensas contra la IA apareció primero en Annapolis Gazette .
