Irregular obtiene $80 millones para asegurar modelos avanzados de IA

Imagen de Daniel Butanda
Daniel Butanda

Consultor Digital

El miércoles, la firma de seguridad en IA Irregular anunció $80 millones en nueva financiación liderada por Sequoia Capital y Redpoint Ventures, con la participación del CEO de Wiz, Assaf Rappaport. Una fuente cercana al acuerdo dijo que la ronda valoró a Irregular en $450 millones.

«Nuestra opinión es que pronto, gran parte de la actividad económica provendrá de la interacción humano-IA y IA-IA», dijo el cofundador Dan Lahav, «y eso romperá la pila de seguridad en múltiples puntos».

Anteriormente conocida como Pattern Labs, Irregular ya es un actor significativo en evaluaciones de IA. El trabajo de la compañía se cita en evaluaciones de seguridad para los modelos Claude 3.7 Sonnet y los modelos o3 y o4-mini de OpenAI. Más en general, el marco de la compañía para puntuar la capacidad de detección de vulnerabilidades de un modelo (denominado SOLVE) es ampliamente utilizado en la industria.

Si bien Irregular ha realizado un trabajo significativo en los riesgos existentes de los modelos, la compañía está recaudando fondos con la vista puesta en algo aún más ambicioso: detectar riesgos y comportamientos emergentes antes de que aparezcan en la naturaleza. La compañía ha construido un elaborado sistema de entornos simulados, permitiendo pruebas intensivas de un modelo antes de que sea lanzado.

«Tenemos simulaciones de red complejas donde tenemos IA asumiendo el papel de atacante y defensor», dice el cofundador Omer Nevo. «Entonces, cuando sale un modelo nuevo, podemos ver dónde las defensas se mantienen y dónde no».

La seguridad se ha convertido en un punto de intenso enfoque para la industria de la IA, ya que los riesgos potenciales planteados por los modelos avanzados han emergido. Los modelos de IA son cada vez más capaces de encontrar vulnerabilidades de software, con serias implicaciones tanto para atacantes como para defensores.

Para los fundadores de Irregular, es el primero de muchos dolores de cabeza de seguridad causados por las crecientes capacidades de los grandes modelos de lenguaje. «Si el objetivo del laboratorio de frontera es crear modelos cada vez más sofisticados y capaces, nuestro objetivo es asegurar estos modelos», dice Lahav. «Pero es un objetivo en movimiento, por lo que inherentemente hay mucho, mucho más trabajo por hacer en el futuro.»

Contenido Relacionado