El hombre de California detrás de dos medidas electorales relacionadas con la IA que parecían apuntar a OpenAI ha retirado sus propuestas, una medida que se produjo inmediatamente después de que la compañía de Sam Altman pidiera a un organismo de control local que lo investigara.
Como informó exclusivamente The Post, los abogados de OpenAI presentaron una queja ante la Comisión de Prácticas Políticas Justas de California el lunes, haciendo referencia a Alexander Oldham, nativo de East Bay, y citando “preguntas serias” sobre sus posibles motivos.
Oldham, que se describe a sí mismo como un “don nadie” en el mundo de las políticas de IA, presentó propuestas que, de ser aprobadas, habrían facultado a los funcionarios estatales para regular las grandes empresas de IA.
La demanda se presentó después de que The Post revelara que Oldham era medio hermano de Zoe Blumenfeld, un empleado senior de Anthropic, el principal rival de OpenAI, y también tenía vínculos con el empresario tecnológico Guy Ravine, quien libró una amarga batalla legal con OpenAI sobre de quién era la idea de iniciar la empresa.
Oldham dijo que presentó documentos para retirar las medidas el martes “debido a amenazas e intimidación principalmente de OpenAI”, una aparente referencia a la denuncia de la FPPC.
“Fui ingenuo”, dice Oldham dijo en una entrevista con Politico. “No quiero más consecuencias negativas porque fui lo suficientemente estúpido como para pensar que podía presentarle una idea a la gente en el mundo de hoy”.
Oldham también le dijo al medio que simplemente olvidó que su media hermana trabajaba para Anthropic. Negó con vehemencia que Blumenfeld o Ravine estuvieran involucrados en la elaboración de estas medidas.
“Ni siquiera pensé en ella”, dijo Oldham. “Es simplemente una completa coincidencia que ella trabaje para Anthropic, honestamente, ni siquiera grabé eso”.
Oldham le dijo anteriormente al Post que utilizó chatbots de inteligencia artificial para desarrollar las medidas electorales y que no habló con ningún abogado o consultor externo antes de presentarlas ante la oficina del fiscal general de California.
Insistió en que las medidas no estaban dirigidas a OpenAI.
No obstante, en la denuncia presentada ante la FPPC, los abogados de OpenAI alegaron que “parecen estar diseñados para imponer cargas regulatorias complejas e innecesarias a OpenAI”.
“Los expertos han dicho y advertido que el lenguaje de las iniciativas está diseñado quirúrgicamente para apuntar a la estructura corporativa única de beneficio público de OpenAI y podría permitir a los reguladores apuntar a compañías específicas en lugar de establecer estándares para toda la industria, todo mientras mantienen vínculos con un empresario con una larga disputa contra OpenAI. Estos vínculos plantean serias dudas sobre quién está realmente detrás de este esfuerzo”, afirma la denuncia.
OpenAI también pidió al organismo de control que examinara si Oldham tenía vínculos con un organización sin fines de lucro llamada Coalition for AI Nonprofit Integrity (CANI)que apoya públicamente una propuesta de votación separada presentada por Poornima Ramarao, la madre de un ex empleado de OpenAI convertido en denunciante que fue declarado muerto por suicidio, cuyo objetivo es revertir la reestructuración de OpenAI.
OpenAI alega que las tres medidas tenían “similitudes de formato inequívocas, lo que sugiere que fueron escritas por las mismas personas”.
Oldham ha negado cualquier conexión con CANI.
“Básicamente pensé que la gente lo vería y les gustaría, o simplemente no sería… y sería una tontería”, dijo Oldham a Politico. “Lo que más importa es que temo que un gran mundo de IA será un gran mundo sin responsabilidad”
OpenAI acusó previamente a CANI de ocultar su financiación y violar las leyes estatales de cabildeo que exigen divulgaciones públicas. La compañía también acusó a CANI de posiblemente ser una fachada de Elon Musk, quien actualmente está demandando a OpenAI por abandonar su misión sin fines de lucro.
Oldham no respondió a la solicitud de comentarios adicionales del Post.
Cuando se le contactó para hacer comentarios, el abogado de OpenAI, Brian Hauck, dijo que “los informes recientes que cuestionan las conexiones personales y las motivaciones de otros defensores de las medidas electorales de AI son preocupantes”.
“Los votantes no deberían haber jugado a los detectives cuando los donantes misteriosos permanecen en las sombras”, dijo Hauck en un comunicado. “Si no revelan quién está detrás de esto, los votantes no podrán confiar en ellos. Las medidas que no pueden defenderse abiertamente no tienen lugar en la boleta electoral. Pedimos respetuosamente que la FPPC fomente la total franqueza y transparencia para que el público pueda evaluar estos esfuerzos según sus méritos”.
En su declaración original al Post, Oldham dijo que “no había estado en contacto con Guy Ravine en casi una década y yo no he estado en contacto con Zoe en más de dos años. Esta iniciativa fue presentada, creada y financiada por mí”.
Anthropic también negó cualquier conexión, afirmando que “no tuvo participación, coordinación o conocimiento de las propuestas electorales presentadas por Alexander Oldham, y la compañía no apoya ninguna de las propuestas”.
Ravine negó con vehemencia haber estado en connivencia con Oldham de alguna manera o tener conocimiento previo de las medidas electorales, sentimiento del que se hizo eco Oldham.
“No participé en su iniciativa”, dijo Ravine. “No he estado en contacto con Alex Oldham durante unos 10 años. Mi única conexión con él es que su madre era inversora en una empresa en la que yo estuve involucrado hace más de una década; una conexión, en el mejor de los casos, tenue”.



