Los esfuerzos en California para tomar medidas enérgicas contra los gigantes de la IA han dado un giro extraño, después de que el medio hermano de un ejecutivo de su rival Anthropic presentara medidas electorales que parecen apuntar a OpenAI de Sam Altman, según se enteró The Post.
En diciembre, un residente de California llamado Alexander Oldham presentó una serie de medidas que permitirían al estado tomar medidas enérgicas contra las grandes empresas de IA, en parte poniendo especial énfasis en vigilar las “corporaciones de beneficio público”, la estructura corporativa en la que OpenAI recientemente convirtió su brazo con fines de lucro.
“Creo que todos estos son pasos razonablemente sensatos, pero en términos de contexto, no soy nadie”, dijo Oldham. le dijo a politicoY añadió que regular la IA era “algo que me parece interesante”.
Resulta que Oldham es medio hermano de Zoe Blumenfeld, quien desde 2024 ha dirigido las comunicaciones internas en Anthropic, el gigante de la inteligencia artificial de rápido crecimiento que está luchando contra OpenAI por el dominio de la industria, según registros públicos y cuentas de redes sociales revisadas por The Post.
Oldham negó enérgicamente que su relación familiar con Blumenfeld tuviera alguna influencia en su decisión de proponer la medida electoral. Anthropic también negó que ella o Zoe Blumenfeld desempeñaran algún papel en las medidas electorales. Blumenfeld declinó hacer comentarios.
“Anthropic no tuvo participación, coordinación ni conocimiento de las propuestas electorales presentadas por Alexander Oldham, y la compañía no apoya ninguna de las propuestas”, dijo un portavoz de la compañía en un comunicado.
Mientras tanto, Oldham también tiene vínculos con el empresario tecnológico Guy Ravine, mejor conocido por su amarga batalla legal con OpenAI sobre a quién se le ocurrió la idea de iniciar la empresa, dijeron fuentes con conocimiento de la situación.
Las propuestas electorales, que recibieron un título y un resumen de la Oficina del Fiscal General de California la semana pasada, exigen la creación de agencias designadas por el estado que tendrían poder sobre las empresas de IA, una de las cuales tendría el poder de aprobar o rechazar las acciones de las empresas de IA que se reestructuren como corporaciones de beneficio público.
Aunque OpenAI no se nombra explícitamente, la medida “claramente” apunta a Altman, según Perry Metzger, presidente de Alliance for the Future, un grupo de políticas de IA con sede en Washington, DC.
“Esta es la ley ‘Sé malo con Sam Altman porque no me gustas'”, dijo Metzger al Post. “Cualquiera que lea esto y sepa algo sobre los jugadores sabrá inmediatamente que OpenAI es la empresa a la que acudir primero”.
Anthropic también ha sido una corporación de beneficio público desde su creación en 2021, mientras que OpenAI se estructuró inicialmente en 2015 como una organización sin fines de lucro. Los expertos dicen que a Anthropic probablemente le resultaría más fácil cumplir con una comisión centrada en la seguridad que a OpenAI, que recién completó su reestructuración en octubre y a quien los críticos han acusado durante mucho tiempo de priorizar la innovación rápida sobre el bienestar humano.
De hecho, el CEO de Anthropic, Dario Amodei, y su hermana Daniela cofundaron Anthropic después de dejar OpenAI por preocupación de que Altman no se estuviera centrando lo suficiente en la seguridad.
Las presentaciones han provocado una discusión en Silicon Valley, en gran parte porque Oldham no ha donado a ninguna causa política de California y no parece haber trabajado anteriormente en políticas de inteligencia artificial. Politico described Oldham as a “mystery to many in the AI policy space.”
“Permítanme ser muy claro: ni Guy Ravine ni Zoe Blumenfeld están involucrados en esta iniciativa”, dijo Oldham al Post en una declaración escrita. “No he estado en contacto con Guy Ravine desde hace casi una década y no he estado en contacto con Zoé desde hace más de dos años. Esta iniciativa fue presentada, creada y financiada por mí.”
“Empecé esta iniciativa porque estoy interesado en la seguridad de la IA desde 2023”, añadió. “Quería crear un documento público para generar el debate necesario sobre la regulación de la IA y hacer que el público piense en estas ideas”.
Oldham is listed as a resident of Point Richmond, California. Según las cuentas de las redes sociales, Oldham parece haber trabajado durante años en Passage Nautical, una empresa de alquiler de yates fundada y dirigida por su madre, Deborah Reynolds, quien era sentenciado a un año en prisión estatal y tuve que reembolsar 1,3 millones de dólares tras declararse culpable de evasión fiscal en 2022.
Ravine negó con vehemencia haber estado en connivencia con Oldham de alguna manera o tener conocimiento previo de las medidas electorales, sentimiento del que se hizo eco Oldham.
“No participé en su iniciativa”, dijo Ravine. “No he estado en contacto con Alex Oldham durante unos 10 años. Mi única conexión con él es que su madre era inversora en una empresa en la que yo estuve involucrado hace más de una década; una conexión, en el mejor de los casos, tenue”. He also stressed that he “did not have the financial resources to finance electoral initiatives.”
El Post no ha visto evidencia de que Ravine estuviera involucrado en la iniciativa electoral.
La jueza de distrito estadounidense Yvonne Rogers concedió a OpenAI un juicio sumario en el caso en julio pasado, dictaminando que Ravine había infringido su marca registrada e incluso “copiado” a la empresa al lanzar un chatbot y un generador de imágenes meses después de OpenAI.
Enterrado en una nota a pie de página de la decisión que pasó desapercibida, Rogers se refiere nada menos que a Deborah Reynolds, la madre de Oldham. Reynolds, escribió el juez, era “un ‘amigo’ de Ravine que fue anfitrión de Ravine en más de 50 ocasiones e invirtió 450.000 dólares” en una de las empresas de Ravine.
“Ni Alex ni yo hemos visto a Guy en décadas”, dijo Reynolds en un mensaje de texto. “No he visto a Guy en más de una década. He hablado con él varias veces desde 2014. Zoe y Alex no tienen ninguna relación. No hay conexión con su iniciativa”.
Las medidas de Oldham no son las primeras medidas electorales de AI en California que generan controversia. OpenAI tiene que cuestionó públicamente sus planes de reestructuración, de ser una fachada para Elon Musk, quien actualmente está demandando a OpenAI por abandonar su misión sin fines de lucro.
CANI, que ha enfrentado dudas sobre su financiación, apoya una propuesta de votación separada presentada por Poornima Ramarao, la madre de un ex empleado de OpenAI convertido en denunciante que supuestamente se suicidó. Ramarao’s proposal explicitly aims to reverse OpenAI’s restructuring.
En una demanda presentada en 2023, OpenAI alegó que Ravine, que adquirió el nuevo nombre de dominio “open.ai” en marzo de 2015, intentó registrar una marca registrada para “Open AI” un día después del lanzamiento de la empresa para “confundir a los consumidores”.
También envió un correo electrónico de 2022 en el que Ravine le decía a Altman que abandonaría el sitio web si la empresa donaba millones de dólares a una “colaboración académica”.
Ravine respondió, afirmando sensacionalmente que Sam Altman “secuestró” la idea que se convirtió en OpenAI y robó su “receta” para la búsqueda de una IA avanzada. Su respuesta le valió un perfil llamativo en Bloomberg.
Una medida electoral presentada por Oldhamdenominada “Ley de Responsabilidad de la IA de Beneficio Público de California”, crearía una “agencia independiente” de funcionarios estatales para supervisar las corporaciones de beneficio público.
Oldham dijo que “decidió abandonar” la propuesta porque “no estaba redactada adecuadamente”. aunque la AG del Estado ya lo autorizó a circular.
el segundo La medida, titulada Ley de Protección de los Trabajadores de la IA de California, establecería de manera similar una “Comisión de Seguridad de la IA” que establecería reglas para que las empresas de IA protejan a los trabajadores. Tendría el poder de imponer sanciones, realizar auditorías e incluso negar hasta dónde puede avanzar tecnológicamente el sistema de “IA avanzada”.
Si se aprueba, la medida permitiría al estado aplicar “poder de toma de decisiones distribuido” e “independencia de la junta directiva” para evitar “una peligrosa concentración de control sobre las capacidades de la IA”, la principal acusación que la junta directiva de OpenAI hizo contra Altman antes de su infame despido en 2023.
“Si alguien quiere financiarlo, se lo agradecería, pero ese no era el punto”, dijo Oldham.
En California, las propuestas electorales deben reunir casi 550.000 firmas para poder ser votadas en junio. Los expertos estiman que este tipo de campañas de recogida de firmas pueden costar decenas de millones de dólares.
Mientras tanto, algunos conocedores se mostraron escépticos ante la explicación de Oldham sobre sus acciones.
“Obviamente es una tontería. No se presenta una medida electoral en California simplemente porque es un tema que le importa”, dijo al Post un consultor veterano de políticas tecnológicas de California que ha revisado las medidas electorales.
Las dos propuestas electorales de Oldham están redactadas de una manera que permite a los reguladores designados por el estado centrarse en empresas específicas en lugar de establecer estándares para toda la industria, según un análisis legal realizado por CALinnovates.
“Si lees el lenguaje de las métricas, tienes que entrecerrar los ojos e inclinar la cabeza y mirar esto de una manera completamente arrogante, para no ver cómo está dirigido a alguien más que a OpenAI”, dijo Mike Montgomery, director ejecutivo del grupo asesor de políticas tecnológicas CALinnovates.



