La Corte Suprema de la India ha amenazado con consecuencias legales después de que un juez dictaminara sobre una disputa inmobiliaria utilizando sentencias falsas generadas por inteligencia artificial.
El tribunal superior, que respondía a una apelación de los acusados, revisará ahora el fallo del tribunal inferior del estado sureño de Andhra Pradesh.
La Corte Suprema calificó el caso de “preocupación institucional” y dijo que las sentencias falsas generadas por IA tenían “un impacto directo en la integridad del proceso judicial”.
El incidente fue noticia y se convirtió en el último de una serie de casos en los que la IA ha perturbado los procedimientos judiciales en la India y en otras partes del mundo.
Los problemas en el caso de Andhra Pradesh surgieron en agosto del año pasado cuando un juez civil del tribunal de magistrados de la ciudad de Vijaywada dictó una orden en un caso que involucraba una propiedad en disputa.
Previamente, el tribunal había asignado a un funcionario para que examinara la propiedad y presentara un informe, algo a lo que se opusieron los acusados en el caso. El juez rechazó su objeción, citando cuatro sentencias anteriores, todas las cuales luego se descubrió que fueron generadas por IA.
Los programas de IA han simplificado enormemente las tareas en el lugar de trabajo, pero los sistemas de IA generativa son conocidos por su capacidad de “alucinar” y afirmar falsedades como hechos, a veces incluso inventando fuentes de información inexacta.
Los acusados impugnaron esta orden ante el tribunal superior del estado, señalando que las órdenes citadas eran falsas. El Tribunal Superior lo reconoció, pero reconoció que el juez civil de menor rango había cometido el error de “buena fe” y aun así aceptó la decisión del tribunal de primera instancia.
En su orden, el Tribunal Superior dijo que “las citaciones pueden ser inexistentes, pero si el tribunal de primera instancia ha considerado los principios correctos del derecho y su aplicación a los hechos del caso también es correcta, la mera mención de decisiones/citas incorrectas o inexistentes en la orden no puede ser motivo para anular la orden”.
El Tribunal Superior también había solicitado un informe del juez junior que utilizó las decisiones generadas por IA. Dijo al tribunal que era la primera vez que utilizaba una herramienta de inteligencia artificial y creía que las citas eran “auténticas”. Ella no tenía la intención de citar ni tergiversar las decisiones y que “el error se produjo únicamente debido a la dependencia de una fuente automatizada”, escribió el tribunal superior.
El Tribunal Superior también abogó por “el ejercicio de la inteligencia real en lugar de la inteligencia artificial”.
Después de esto, los acusados volvieron a apelar y llevaron el caso a la Corte Suprema, que fue menos indulgente con el impacto de la IA.
Objetando severamente las sentencias falsas, el tribunal superior suspendió el viernes pasado la orden del tribunal inferior sobre la disputa de propiedad. Dijo que el uso de la IA para tomar decisiones no era simplemente “un error en la toma de decisiones”, sino un acto de “mala conducta”.
“Este caso plantea considerables preocupaciones institucionales, no por la decisión que se tomó sobre el fondo del caso, sino por el proceso de adjudicación y determinación”, dijo el tribunal superior.
El tribunal dijo que examinaría el asunto con más detalle y envió avisos al fiscal y al procurador general del país, así como al Consejo de Abogados de la India.
En otro caso el mes pasado, la Corte Suprema expresó su preocupación por la tendencia de los abogados a utilizar herramientas de inteligencia artificial para redactar mociones. “Es absolutamente injustificado”, afirma el sitio de información jurídica LiveLaw citado dijo el tribunal.
India no es la única que considera los efectos de la IA en los tribunales.
En octubre, dos jueces federales estadounidenses fueron arrestados por utilizar herramientas de inteligencia artificial que conduce a errores en sus decisiones. En junio de 2025, el Tribunal Superior de Inglaterra y Gales prevenido Los abogados no utilizarán elementos de expediente generados por IA tras una serie de casos citados en decisiones ficticias o parcialmente inventadas.
Las instituciones jurídicas indias están luchando, junto con otras instituciones de todo el mundo, para determinar cómo regular y monitorear el uso de la IA en los tribunales.
El año pasado, la Corte Suprema publicó un libro blanco sobre la IA en el poder judicial indio, en el que enumeraba las mejores prácticas y directrices para el uso de la IA por parte de instituciones judiciales, abogados y registradores.
La Corte enfatizó la necesidad de supervisión humana y la importancia de mantener las salvaguardias institucionales “firmemente implementadas”.



