Hace una generación, vimos a las redes sociales pasar de la novedad a la necesidad, sin suficientes salvaguardias para los más afectados: los adolescentes. Todavía enfrentamos las consecuencias en las aulas, en las salas de estar y en las estadísticas de salud mental de los adolescentes.
Hoy en día, las nuevas tecnologías se están integrando aún más rápidamente en la vida cotidiana. Una vez más, no existen reglas para toda la industria que garanticen la seguridad de los usuarios jóvenes.
Las herramientas de inteligencia artificial pueden ayudar a los estudiantes a aprender, ayudar a las familias a resolver problemas y ayudarnos a hacer más con menos. Los adolescentes de hoy son la primera generación que crece con IA desde el principio y tienen la oportunidad de maximizar los beneficios económicos de la era de la inteligencia. Esto brinda enormes oportunidades y la responsabilidad de evitar repetir los errores que cometimos con las redes sociales para que los adolescentes puedan desarrollar una verdadera cultura de la IA y una relación sana con esta tecnología.
El gobernador Gavin Newsom ha demostrado repetidamente que California puede y será líder en IA y medidas de seguridad para los adolescentes. Ahora existe una nueva oportunidad para aprovechar el liderazgo de California (y establecer un estándar regulatorio nacional de facto sobre IA) mediante el avance de la nueva Ley de IA segura para padres e hijos.
La legislación, que esperamos sea replicada en otros estados, comenzó en California, donde OpenAI se asoció con Common Sense Media, una organización que durante mucho tiempo ha ayudado a las familias a navegar por las nuevas tecnologías, para redactar y publicar la medida.
La idea básica es simple: la IA sabe mucho, pero los padres saben más. La propuesta requeriría que los sistemas de inteligencia artificial que simulen una conversación utilicen una estimación de edad que preserve la privacidad, de modo que las configuraciones de protección infantil entren en vigor para los usuarios menores de 18 años. Daría más poder a los padres al exigir controles parentales fáciles de usar e implementar protecciones más sólidas para los niños menores de 13 años. También exige auditorías independientes de la seguridad infantil, con responsabilidad a través de la aplicación de la ley.
Nos preocupamos profundamente por los derechos de privacidad de los adultos cuando utilizan herramientas de inteligencia artificial. Pero cuando se trata de adolescentes, debemos priorizar la seguridad. Los menores necesitan una protección significativa para poder explotar todo el potencial de la IA, y los padres tienen derecho a tener la seguridad de que existen las salvaguardias adecuadas. Esta medida ofrece ambas cosas.
Apoyar el proyecto de ley también reforzaría el compromiso del Gobernador Newsom de hacer de la seguridad de los adolescentes en línea una máxima prioridad. Ha apoyado medidas para combatir el diseño adictivo de las redes sociales y fortalecer las protecciones de la privacidad, y ha impulsado el aprendizaje sin distracciones en las escuelas limitando el uso de teléfonos inteligentes por parte de los estudiantes en todo el estado.
Más recientemente, California también ha implementado nuevas salvaguardas para la seguridad de los adolescentes en línea, incluido un seguro de edad más estricto y nuevas salvaguardias para los chatbots de IA utilizados por menores, junto con esfuerzos más amplios para ampliar el acceso a la capacitación y los recursos de salud mental para los jóvenes.
California está combinando estas medidas de seguridad para los adolescentes con una inversión pragmática en la capacidad de investigación de IA que las universidades y los investigadores de interés público necesitan para estudiar la IA de manera responsable y contribuir a su desarrollo. A través de CalCompute, el estado está sentando las bases para un grupo de computación pública diseñado para ampliar el acceso a la computación avanzada de modo que la capacidad de evaluar y construir IA segura no se limite a un puñado de actores con buenos recursos.
El marco de transparencia de la IA fronteriza de California ya está empezando a servir como punto de referencia más allá del estado. Nueva York ha decidido alinear su ley RAISE con la SB 53 de California, armonizando las reglas de las dos economías de IA más grandes del país y moviendo al país hacia un estándar nacional de facto.
Si California y Nueva York pueden alinearse para proteger a los jóvenes en lo que respecta a la IA, podemos crear expectativas claras para la industria, herramientas reales para los padres y valores predeterminados más seguros para los jóvenes en todo el país.
Como padre, no se me ocurre nada más importante. El gobernador Newsom ha ayudado a convertir a California en un líder en inteligencia artificial y seguridad de los adolescentes. Impulsar la Ley de IA segura para padres e hijos, desarrollada por primera vez en California, sería el siguiente paso y proporcionaría el tipo de liderazgo que el país necesita en este momento.
Chris Lehane es el Director de Asuntos Globales de OpenAI.


