Anthropic-pcpal-112-az-ia

Bajo el nombre Proyecto Glasswing, la firma de IA ha colaborado con empresas de la talla de Apple, Google, Linux Foundation, Nvidia o Microsoft para proteger al software más crítico del mundo de los avances de la IA.

Anthropic, como una de las compañías de IA más punteras del mundo, ha creado el Proyecto Glasswing con un claro objetivo: garantizar la ciberseguridad de las infraestructuras y dispositivos de nuestro día a día. La razón que se esconde detrás de esta decisión, que ha sido desarrollada apoyándose en empresas como Google, Nvidia o Apple, entre muchas otras, es clara: los modelos de IA han alcanzado un nivel de capacidad de programación que es capaz de superar a cualquier solución existente hasta la fecha, a excepción de los humanos más expertos.

Así lo ha confirmado la propia Anthropic en una nota publicada en su página web hace unos pocos minutos. Claude Mythos Preview, como se ha bautizado a este modelo, ya ha sido capaz de detectar vulnerabilidades de alta gravedad en los principales sistemas operativos y navegadores de todo el mundo. Esto quiere decir que, probablemente, desde el equipo o el software que estás navegando, se han detectado vulnerabilidades que podrían comprometer tu seguridad. Con este nuevo modelo, se busca utilizar las capacidades de la IA con fines defensivos.

Anthropic-cuerpo-112-az-iaEl nuevo proyecto de Anthropic

Más de 40 organizaciones involucradas

Esta es la primera vez que el ecosistema de empresas de desarrollo de IA trabaja en una misma dirección para ofrecer a los usuarios mayores garantías de seguridad, conscientes de los riesgos de la propia IA. De hecho, el Proyecto Glasswing se ha abierto a más de 40 organizaciones que desarrollan o cuentan con software considerado como crítico para que puedan analizar y proteger sus sistemas de cualquier posible ataque.

El software que usamos en nuestro día a día, como explica la compañía, siempre ha estado expuesto a todo tipo de errores. La mayoría de ellos son menores, pero cuando se detectan algunos de mayor calibre, como podría ocurrir en un software bancario, las consecuencias podrían ser catastróficas. Más aún si tenemos en cuenta, además, el contexto de inestabilidad geopolítica en el que nos encontramos actualmente.

Según las cifras que ha compartido, el coste global actual del cibercrimen se sitúa en torno a los 500.000 millones de dólares anuales. Una cifra que nos permite hacernos una idea del coste de oportunidad que planea cubrir el software de Anthropic.

Cubrir lo que el ojo humano no es capaz de ver

Desde Anthropic explican que muchos de los fallos que tiene el software actual pasa desapercibido porque para poder identificarlo es necesario reunir a un amplio equipo de expertos que sean capaces de ver tan al detalle el código. Con los modelos de IA, este trabajo se reduce a la mínima expresión, más aún si tenemos en cuenta el conocimiento de todas las empresas que han participado, y siguen haciéndolo, en su desarrollo.

Durante las pruebas que ha realizado recientemente, se han descubierto fallas que llevaban casi tres décadas activas en software que, hasta el momento, eran considerados de los más seguros de todo el mundo.

Hasta ahora, Claude Mythos Preview apenas ha completado sus primeras fases de desarrollo. Sin embargo, se espera que de forma progresiva evolucione hasta detectar prácticamente cualquier fallo de seguridad en tiempo real, lo que nos permitiría mejorar de forma considerable nuestra seguridad y la de las empresas con las que interactuamos en el día a día. Consolidándose como un ejemplo de que los sistemas de IA más avanzados del mundo, en las manos correctas, pueden servir de gran ayuda en términos de ciberseguridad.

 

Fuente: Anthropic | adslzone