El logo de ChatGPT.

El logo de ChatGPT. Reuters Omicrono

Software

OpenAI actualiza sus pruebas de seguridad: así reaccionará si otro rival lanza una IA de alto riesgo sin salvaguardas

Los responsables de ChatGPT anuncian cambios en sus procesos de seguridad, en medio de un ambiente de presión para acelerar el ritmo de lanzamientos.

Más información: OpenAI está creando su propia red social basada en ChatGPT: va a por X de Elon Musk y así es su proyecto más ambicioso

Publicada

El ritmo de lanzamientos en torno a la inteligencia artificial es frenético, la competencia entre los grandes desarrolladores de esta tecnología, como OpenAI o Google, entre otros, está llegando a límites inimaginables. Esta semana, OpenAI respondía al lanzamiento de Gemini 2.5 con el anuncio de GPT-4.1. Ante este panorama, la seguridad y privacidad de los usuarios son una de las ramas más cuestionadas de la industria, sobre todo ante una innovación que puede dar como resultado grandes riesgos.

OpenAI ha actualizado su Marco de Preparación, o lo que es lo mismo, el sistema de evaluación interno para asegurarse que los modelos de IA que desarrolla son seguros y no suponen ningún riesgo. TechCrunch recalca que son las primeras actualizaciones que la empresa de IA aplica a su Marco de Preparación desde 2023, año en el que estalló la industria de los chatbots y la IA generativa.

"A medida que nuestros modelos se vuelven más eficaces, la seguridad dependerá cada vez más de contar con las medidas de seguridad adecuadas en el mundo real", empieza explicando la compañía. Con esta actualización aseguran establecer requisitos más estrictos para "minimizar suficientemente" los riesgos que conlleva esta nueva tecnología en constante evolución y hablan de un trabajo "más práctico, riguroso y transparente". No obstante, la presión por no quedarse atrás está latente.

Dentro de esta actualización, uno de los puntos que han llamado la atención es aquel en el que la compañía promete responder a los cambios de la industria: "si otro desarrollador de IA de vanguardia lanza un sistema de alto riesgo sin salvaguardias comparables, podríamos ajustar nuestros requisitos", afirman. En los últimos años el mercado se ha convertido en una carrera muy exigente donde la seguridad a veces se percibe como un freno.

Aun así, OpenAI lanza un mensaje tranquilizador al asegurar que, a pesar de ese cambio de requisitos, primero confirmarían de forma rigurosa que el panorama de riesgos ha cambiado y reconocerían públicamente que están ajustando su metodología. "Evaluaríamos que el ajuste no aumenta significativamente el riesgo general de daños graves y, aun así, mantendríamos las salvaguardias a un nivel más protector", dice el comunicado.

Entre los cambios mencionados se han introducido un conjunto de áreas que podrían representar riesgos de daños graves y el desarrollo de modelos de amenaza y evaluaciones avanzadas. Incluso se menciona un ritmo de pruebas más alto con evaluaciones automáticas para poder seguir el ritmo frenético de desarrollo que han propiciado los modelos de razonamiento. "A la vez que continuamos realizando análisis profundos dirigidos por expertos para garantizar que las evaluaciones escalables midan los aspectos correctos," dicen.

Los controles de seguridad de OpenAI han estado en el punto de mira últimamente, The Financial Times informaba que la empresa responsable de ChatGPT ha dado a los evaluadores menos de una semana para realizar las comprobaciones de seguridad de un próximo modelo, es decir, se habría reducido el tiempo dedicado a este paso en comparación con versiones anteriores. Las fuentes consultadas en ese artículo indican que muchas de las pruebas de seguridad se realizan con versiones anteriores y no con los modelos actuales disponibles.