Esta semana, la empresa de inteligencia artificial Anthropic dijo que había creado un modelo de inteligencia artificial tan poderoso que, por un sentido de inmensa responsabilidad, era no lo voy a publicar al público.
El secretario del Tesoro de Estados Unidos, Scott Bessent, convocó a los jefes de los principales bancos para discutir el modelo Mythos. El diputado reformista británico Danny Kruger escribió una carta al gobierno instándolo a “colaborar con la empresa de inteligencia artificial Anthropic cuyo nuevo modelo fronterizo, Claude Mythos, podría plantear riesgos catastróficos de ciberseguridad para el Reino Unido.
Otros se mostraron más escépticos, incluido el destacado crítico de IA Gary Marcus, quien dijo: “Dario (Amodei) tiene muchas más habilidades técnicas que Sam (Altman), pero parece haberse graduado de la misma escuela de exageración y exageración”, refiriéndose a los directores ejecutivos de Anthropic y su rival OpenAI.
Se desconoce si Anthropic construyó el dios máquina. Lo que es más obvio es que la startup de San Francisco, ampliamente considerada la empresa de IA “responsable”, es brillante en marketing.
En los últimos meses, Anthropic se ha beneficiado de un artículo de 10.000 palabras en el New Yorker, dos artículos en el Wall Street Journal y la portada de la revista Time, en la que estaba impreso el rostro de Amodei, al estilo de un cartel de película, encima del Pentágono y del secretario de Defensa estadounidense, Pete Hegseth.
Amodei y el cofundador de Anthropic, Jack Clark, aparecieron en dos podcasts separados del New York Times en febrero, cuestionando si su máquina era sensible y si pronto podría “destruir la economía”. El “filósofo residente” de la compañía preguntó al WSJ si Claude, un producto comercial utilizado para intercambiar criptomonedas y designar objetivos de misiles, tenía un “sentido de sí mismo”.
Todo esto ocurrió en medio de un altercado entre Anthropic y el Departamento de Defensa de EE.UU., en el que Anthropic, a pesar de crear la herramienta de IA utilizada por el Pentágono para atacar a Irán, logró demostrar su valía mucho mejor que OpenAI, que se ofreció a ayudar al ejército estadounidense a hacer lo mismo pero con –quizás– menos salvaguardias.
Su responsable de medios, Danielle Ghiglieri, ha conseguido victorias en LinkedIn. “Estoy infinitamente orgullosa de trabajar en Anthropic”, dijo sobre la cobertura que Time hizo de la compañía, etiquetando a los periodistas involucrados en un artículo sobre la “carrera loca” para sacar la historia a la luz pública.
Ver un segmento de 60 minutos de CBS protagonizado por Amodei “fue uno de esos momentos de pellizco“, dijo. “Lo que lo hizo significativo no fue solo la plataforma. Se trataba de ver hacerse realidad la historia que queríamos contar.
Del perfil del New Yorker, del periodista Gideon Lewis-Kraus, ella escribió: “Mentiría si dijera que no estaba nervioso cuando nos conocimos en persona… trabajar con alguien del calibre de Gideon significa que te empujan a expresar ideas que aún te estás formando y a aceptar esa incomodidad”.
(“Apuesto a que eso es lo que todos dicen de ti”, dijo mi editor).
Otros relaciones públicas tecnológicas han tomado nota.
“Claramente están pasando por un momento difícil en este momento, pero las empresas que desarrollan tecnologías que cambian el mundo merecen el mismo escrutinio”, dijo uno. “La semana pasada filtraron accidentalmente su propio código fuente y esta semana afirman que pueden gestionar las amenazas cibernéticas con un nuevo y potente modelo que sólo ellos controlan. Cualquier otra gran empresa tecnológica sería ridiculizada”.
Anthropic publicó accidentalmente parte del código fuente interno de Claude a principios de abril. “No se involucraron ni se expusieron datos confidenciales o identificadores de clientes”, dijo.
¿Qué significa todo esto sobre los indudablemente poderosos mitos de Anthropic?
Las capacidades del modelo no estaban “justificadas”, dijo la Dra. Heidy Khlaaf, científica jefe de IA del AI Now Institute. “La publicación de un artículo de marketing con un lenguaje intencionalmente vago que oscurece la evidencia… pone en duda si están tratando de asegurar inversiones adicionales sin escrutinio”.
“Mythos es una evolución real y Anthropic hizo bien en tomarlo en serio”, dijo Jameison O’Reilly, experto en ciberseguridad ofensiva. Pero, añadió, algunas de las afirmaciones de Anthropic, como el descubrimiento de miles de “vulnerabilidades de día cero” en los principales sistemas operativos, no eran tan importantes para las consideraciones de ciberseguridad del mundo real.
Una vulnerabilidad de día cero es una falla de software o hardware desconocida para sus desarrolladores.
“Hemos pasado más de 10 años obteniendo acceso autorizado a cientos de organizaciones: bancos, gobiernos, infraestructura crítica, empresas globales”, dijo O’Reilly. “Durante esos 10 años, en cientos de compromisos, la cantidad de veces que necesitábamos una vulnerabilidad de día cero para lograr nuestro objetivo fue extremadamente pequeña. »
Otras razones pueden haber contribuido a la decisión de Anthropic de no publicar Mythos.
La empresa tiene recursos limitados y parece estar luchando por proporcionar suficiente capacidad informática para permitir que todos sus suscriptores utilicen sus modelos. Él tiene introducción de límites de uso sobre el muy popular Claude. Recientemente, dijo que los usuarios tendrían que comprar capacidad adicional además de sus suscripciones para poder ejecutar herramientas de terceros, como OpenClaw. En este punto, es posible que simplemente no tenga la infraestructura para respaldar el lanzamiento de una nueva creación de alto perfil.
Al igual que OpenAI, Anthropic está en una carrera para recaudar miles de millones de dólares y capturar un mercado (aún mal definido) de personas que podrían confiar en sus chatbots como amigos, parejas románticas o asistentes profundamente personalizados, y de empresas que podrían usarlos para reemplazar a los empleados humanos.
Pero las diferencias entre estos productos son marginales e impresionistas, debido principalmente a atributos difíciles de cuantificar como “sentido de uno mismo” y “alma” (o más bien, lo que pasa por eso en un agente de IA). La batalla se trata de corazones y mentes.
“Mythos es un anuncio estratégico para demostrar que están abiertos a hacer negocios”, dijo Khlaaf, diciendo que las limitaciones de publicación de Anthropic impidieron que expertos independientes evaluaran las afirmaciones de la compañía.
Sugirió que podríamos estar “viendo exactamente el mismo manual de estrategias de cebo y cambio que utilizó OpenAI, donde la seguridad es una herramienta de relaciones públicas para ganarse la confianza del público antes de que se prioricen las ganancias” y: “La publicidad antropogénica ha logrado oscurecer este cambio mejor que sus rivales”. »



