En las últimas semanas, el mundo de la inteligencia artificial (IA) ha estado en ascuas tras las afirmaciones realizadas por la empresa líder Anthropic en relación con su nuevo modelo, Claude Mythos.
La compañía asegura haber descubierto que la herramienta puede superar a los humanos en algunas tareas de piratería informática y ciberseguridad, lo que ha suscitado debates entre reguladores, legisladores e instituciones financieras sobre los peligros que podría suponer para los servicios digitales.
Varios gigantes tecnológicos han obtenido acceso a Mythos a través de una iniciativa del mismo Anthropic, llamada Proyecto Glasswing y diseñada para fortalecer la resistencia frente al propio Mythos.
Pero otros señalan que a Anthropic le conviene sugerir que su herramienta tiene capacidades nunca antes vistas.
Como ocurre a menudo con la IA, la tarea de distinguir entre afirmaciones justificadas y exageraciones puede ser complicada.
¿Qué es Claude Mythos?
Mythos es uno de los modelos más recientes de Anthropic, desarrollado como parte de su sistema de IA más amplio llamado Claude. Este sistema engloba el asistente de IA de la compañía y su familia de modelos, compitiendo con ChatGPT de OpenAI y Gemini de Google.
Anthropic lo reveló a principios de abril como "Avance de Mythos".
Los investigadores que prueban cómo los modelos de IA manejan solicitudes o tareas específicas, conocidos como "equipos rojos", afirmaron en un informe que Mythos era "sorprendentemente capaz en tareas de seguridad informática".
¿Por qué tanta preocupación?
Anthropic afirma que, durante las pruebas, descubrió que el modelo era muy hábil en tareas de ciberseguridad y piratería informática, superando a los humanos.
"Mythos Preview ya ha encontrado miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web", afirmó Anthropic el 7 de abril.
"Dado el ritmo de progreso de la IA, no pasará mucho tiempo antes de que dichas capacidades proliferen, potencialmente más allá de los actores comprometidos con su despliegue seguro".
Afirmó que podía localizar, sin mucha supervisión, fallos críticos que requerían una actuación inmediata en sistemas antiguos, incluida una vulnerabilidad que había estado presente en un sistema durante 27 años, y sugerir formas de explotarlos.
Constantemente aparecen nuevos modelos y herramientas, y a menudo vienen acompañados de promesas de revolucionar nuestras vidas, para bien o para mal.
Aprovechar esta mezcla de miedo y entusiasmo por la IA y su impacto futuro se ha convertido también en un sello distintivo del sector y de sus estrategias de marketing en los últimos años.
En el caso de Mythos, todavía no sabemos lo suficiente como para determinar si estas esperanzas o temores están justificados, o si son más bien un reflejo de la exageración que rodea a la industria.
En ambos casos, según el NSCS, lo más importante que podemos hacer ahora es no entrar en pánico sino más bien centrarnos en la necesidad de garantizar una ciberseguridad básica adecuada.
Al fin y al cabo, la mayoría de los hackers no necesitan herramientas de inteligencia artificial avanzadas para vulnerar sistemas, ya que a menudo son suficientes ataques mucho más sencillos.
"Para algunos esto es un acontecimiento apocalíptico, para otros parece ser mucha exageración", le dijo Martin a la BBC.
Pero afirmó que, así fuera con esta herramienta u otras posteriores creadas por Anthropic o sus rivales, así como generaban un riesgo, también abrían la oportunidad de construir un mundo en línea más seguro.
"A medio plazo, existe la oportunidad de utilizar estas herramientas para solucionar muchas de las vulnerabilidades subyacentes de internet", concluyó.
bbc







0 comments:
Publicar un comentario