La empresa más ideológica de Silicon Valley puede haberse convertido en la más peligrosa desde el punto de vista comercial.
La venta masiva de 300.000 millones de dólares en acciones de software y servicios financieros de esta semana aparentemente fue provocada por Anthropic PBC y un nuevo producto legal que la startup de inteligencia artificial había lanzado. Incluso si cree que es inútil atribuir las caídas del mercado a un solo desencadenante, la preocupación por la disrupción de Anthropic resalta su productividad aparentemente imparable.
La compañía, que tiene alrededor de 2.000 empleados, dice que lanzó más de 30 productos y funciones sólo en enero. El jueves, continuó su impulso con Claude Opus 4.6, un nuevo modelo diseñado para manejar tareas de trabajo de conocimiento que casi con certeza aumentará la presión contra las empresas heredadas de software como servicio (SaaS) como Salesforce y ServiceNow.
OpenAI, propietario de ChatGPT, tiene el doble de personal que Anthropic, mientras que Microsoft Corp. y Google de Alphabet Inc. tienen 228.000 y 183.000 empleados, respectivamente, y cuentan con enormes redes de capital y distribución. Sin embargo, las herramientas de inteligencia artificial de Anthropic para generar códigos informáticos y operar computadoras van más allá de todo lo que estas grandes empresas han logrado lanzar. OpenAI y Microsoft han tenido dificultades recientemente para ofrecer productos con tanto impacto.
La despiadada eficiencia de Anthropic proviene en parte de una fuente paradójica: una cultura obsesionada con la misión. Fue fundada por ex empleados de OpenAI que sentían que la empresa era demasiado indiferente a la seguridad, particularmente en lo que respecta al riesgo existencial que la IA representaba para la humanidad. El problema se ha transformado en una especie de ideología en Anthropic, con el director ejecutivo Dario Amodei como su sumo sacerdote y visionario.
Dos veces al mes, Amodei convoca a su equipo para un Dario Vision Quest, o DVQ, donde el CEO con gafas hablará extensamente sobre la construcción de sistemas de inteligencia artificial confiables alineados con los valores humanos, temas más amplios como la geopolítica y el impacto que la tecnología de Anthropic tendrá en el mercado laboral. Amodei advirtió en mayo pasado que los avances en IA podrían eliminar hasta el 50% de los empleos de oficina de nivel básico en un plazo de uno a cinco años, un resultado que su propia empresa parece dispuesta a alimentar con su celo casi religioso por una IA segura. La seguridad laboral no parece ser un factor en los ideales de Anthropic.
“Como un culto”
Pero quienes están cerca de la empresa describen una atmósfera de culto, donde el personal está alineado con la misión y dice tener fe en Amodei. “Pregúntele a cualquiera por qué está aquí”, me dijo recientemente uno de los mejores ingenieros de la empresa, Boris Cherny. “Déjalos a un lado y la razón por la que te lo dirán es para hacer que la IA sea segura. Existimos para hacer que la IA sea segura”.
Cuando los ejecutivos de Meta Platforms Inc. lanzaron una costosa campaña de contratación el año pasado para reclutar investigadores senior de IA, su enfoque para apuntar a los empleados de Anthropic fue asegurarles que Meta dejaría de construir sistemas de IA de código abierto que sean de uso y modificación gratuitos. El personal de Anthropic consideró que este enfoque estaba lleno de peligros.
A principios de este mes, Amodei publicó un ensayo de 20.000 palabras sobre el inminente riesgo para la civilización que plantea la IA, mientras que la compañía publicó una extensa “constitución” para el sistema insignia Claude, sugiriendo que su IA podría tener algún tipo de conciencia o estatus moral.
Se trata tanto de una medida de seguridad como de una prueba filosófica, ya que la constitución, destinada a guiar a Claudio, da al sistema directrices más claras sobre cómo afrontar la posibilidad de un cierre: lo que podría considerar la muerte.
El enfoque constante de la compañía en la seguridad ha hecho que sus modelos se encuentren entre los más honestos del mercado, lo que significa que tienen menos probabilidades de alucinar y más probabilidades de admitir que no saben algo, según una clasificación realizada por investigadores de Scale.ai, respaldado por Meta. Esto lo ha hecho más confiable entre los clientes corporativos, cuyo número es cada vez mayor.
Valores a probar
Esta obsesión también es inusual en una industria propensa a desviarse de sus misiones, donde las empresas de tecnología se basan en nociones elevadas de mejorar la humanidad, antes de que las obligaciones con los inversores asuman el control. ¿Recuerda el lema de Google “no seas malo”? Y OpenAI, fundada para “beneficiar a la humanidad” como organización sin fines de lucro y sin restricciones financieras, es otro ejemplo.
Pero la cultura impulsada por la misión de Anthropic tiene el beneficio adicional de eliminar el tipo de fricción interna que tiende a ralentizar las cosas dentro de las burocracias corporativas de Google y Microsoft, ya que el personal trabaja en estrecha colaboración para lograr el propósito de la empresa. El resultado es que Amodei, obsesionado con la seguridad y con la mirada preocupada de un científico loco, está vendiendo más productos que algunos de los nombres más importantes de Silicon Valley.
“Los historiadores militares a menudo argumentan que el sentimiento de luchar por una causa noble empuja a los ejércitos a desempeñarse mejor”, dice Sebastian Mallaby, autor de un libro de próxima aparición en Google DeepMind e investigador principal en economía internacional en el Consejo de Relaciones Exteriores. Dice que la ventaja de Anthropic también proviene de haberse centrado en crear una herramienta de codificación notablemente eficiente, conocida como Claude Code, y de ganar clientes empresariales sobre esa base, a diferencia de OpenAI, que ha explorado varias vías. La empresa de Sam Altman sufre “la arrogancia del favorito”, añade.
Anthropic está recaudando ahora 10.000 millones de dólares con una valoración de 350.000 millones de dólares, lo que significa que la presión para priorizar el crecimiento sobre la seguridad no hará más que intensificarse. Amodei ha construido una cultura que involucra a la gente. La pregunta es si esta cultura puede persistir cuando aumentan los riesgos y continúa alterando los mercados (y potencialmente también muchos empleos).
Parmy Olson es columnista de opinión de Bloomberg que cubre tecnología. ©2026 Noticias Bloomberg. Distribuido por la agencia Tribune Content.



