Entrevista a Antonio José Sánchez Sáez, Catedrático de la Universidad de Sevilla, realizada por Jesús Álvarez, y publicada en el ABC de Sevilla del 26 de octubre de 2025
El sevillano, experto en Derecho Administrativo, dirige la primera cátedra de Inteligencia Artificial y Derecho Público creada en España.
Antonio José Sánchez dirige el departamento de Derecho Administrativo de la Universidad de Sevilla y tomará posesión en noviembre 2025 de la cátedra Soltel de Inteligencia Artificial y Derecho Público, pionera en España. Premio Extraordinario de Doctorado, este catedrático sevillano ha recibido varios reconocimientos de excelencia docente y realizado estancias en Estados Unidos. Alemania e Italia. Fue discípulo de Alfonso Pérez Moreno y es el último representante de la brillante Escuela de Sevilla de administrativistas creada hace más de medio siglo por Manuel Clavero Arévalo.
-La Facultad de Derecho de Sevilla ha sido históricamente una de las mejores de toda España. ¿Lo sigue siendo?
-Creo que sí. Seguimos siendo la tercera de España en número de alumnos. En cuanto a investigaciones, somos la segunda, por detrás de la Complutense. Estamos en el top tres de España junto con la Universidad Autónoma de Barcelona. Y nuestro prestigio se ha demostrado una vez más con la creación de la primera cátedra de Inteligencia Artificial gracias al impulso de nuestro decano, don Femando Llano. Y también se ha creado el primer máster oficial de Inteligencia Artificial.
-¿Por qué una cátedra de Inteligencia Artificial y Derecho Público?
-Porque el Derecho Público sufre el impacto de la Inteligencia Artificial; el privado también, pero creo que menos. Esta cátedra estará muy centrada en el Derecho Administrativo. Constitucional. Tributario y Procesal. El interés general se ve afectado por la implantación de la Inteligencia Artificial y le pongo varios ejemplos: el control biométrico de personas por las calles, el control de la emigración ilegal que llega a España en la frontera. Se pueden poner cámaras para controlar quién tiene antecedentes penales o quién no. Llegará un momento —y no va a lardar mucho- en el que para acceder a los servicios públicos, al médico de familia o a una subvención del Ministerio de Vivienda se hará un control y una discriminación conforme a una Inteligencia Artificial que va a discriminar según renta, según capacidad económica, etcétera Soltel, una empresa sevillana de Inteligencia Artificial de las más importantes de España. con sede en varios continentes y 500 personas en plantilla, ha sido consciente de este impacto y ha apoyado la creación de esta cátedra que puede proporcionar seguridad jurídica a la hora de elaborar sus productos. Se puede incurrir en infracciones administrativas o en problemas éticos por el uso inadecuado de esta poderosa herramienta.
-Simón Johnsson. premio Nobel de Economía 2024, sostiene que el progreso no beneficia automáticamente a todos y que se necesitan instituciones y contrapesos a las elites para que eso ocurra. Y añade que sin salvaguardas, esos avances siempre tendrán víctimas. ¿Puede ser el caso de la IA?
-Sí. la regulación es totalmente necesaria. lo que los ingleses llaman el hard power’. el poder duro, no el soft power’. que ahora se estila de recomendaciones o instrucciones que no salvaguardan el interés general. La Unión Europea ha intentado regular el uso de la Inteligencia Artificial desde un enfoque de riesgo, es decir, prohíbe algunos sistemas de Inteligencia Artificial que son claramente lesivos, por ejemplo. los que explotan la vulnerabilidad de los jóvenes para convencerlos a hacer compras indiscriminadas o en materia de juegos y apuestas. Prohíbe sistemas que usan técnicas subliminales para convencerte sin que te des cuenta. También prohíbe el uso dato bio- métricos en tiempo real que es algo que hace China. Allí tienen cámaras en todas las calles y si una persona ha puesto algo en el internet chino en contra del partido, se le quitan puntos y no puede acceder a un servicio público o a una ayuda para una vivienda. Y la Unión Europea marca líneas rojas que no pueden ser usadas y permite algunos sistemas que son de alto riesgo en los que establece controles que son controles ex-antes y ex-post
-¿Por ejemplo?
-Una empresa que use una IA para seleccionar empleo público. O la propia Administración del Estado o la propia Universidad. Como la IA es un sistema de alto riesgo, porque puede haber sesgos que discriminen entre sexos o ideología. El algoritmo puede estar sesgado porque está mal entrenado desde el origen, y ese sesgo produce daños en personas. Se somete a este sistema a un control y una autorización. Hay otro sistema de autocontrol de las propias empresas y después está la Agencia Española de Supervisión de la Inteligencia Artificial, que se encarga de establecer un control por parte de un organismo público de autorización. Puede sancionar, incluso puede establecer la retirada de un sistema si es inadecuado.
-¿El Derecho puede ser una de esas salvaguardas que reclama Johnsson?
-Como decía mi maestro, el profesor Pérez Moreno, el Derecho es la quilla de la nave. El derecho administrativo es el que establece la dirección por donde se tiene que ir en materia de interés general. Hay que ir por un sistema de IA que sea seguro y eficaz, y que no dañe los derechos fundamentales ni el interés general El reglamento europeo es un enfoque de mínimos, pero es que las competencias de la Unión Europea sobre mercado interior son las que son. Ha regulado una especie de semáforos sobre lo que no se puede hacer, lo que se puede hacer y lo que se puede hacer con ciertas limitaciones.
-¿Creeque la IA puede poner en peligro a la democracia?
-Sí. por supuesto. De hecho, uno de los sistemas prohibidos de 1A por la Unión Europea son los que pueden afectar a las decisiones democráticas. Imaginemos un conflicto entre Rusia y la Unión Europea por el que Rusia mete un sistema que puede modificar la conducta electoral de la gente. Priorizando resultados en Google puede lograr que se difundan noticias falsas que lleven a la gente a tener un estado mental propicio para votar determinadas opciones que a los rusos les interesen. Puede hacerse para otras cosas que amenazan también las grandes cuestiones democráticas
-¿Por ejemplo?
-El uso de un algoritmo opaco por parte del Ministerio de Transición Ecológica para la concesión del bono eléctrico a determinadas personas. Una sentencia del Tribunal Supremo de septiembre del año pasado refleja esta realidad. Los aspirantes metían sus requisitos en una caja negra que era el algoritmo y salía quién recibía y quién no el bono eléctrico. Una asociación sin ánimo de lucro llamada Civio lo recurrió porque no se sabia la motivación de ese acto. La Audiencia Nacional denegó el acceso al algoritmo, pero el Supremo le corrigió y estableció que tene¬mos que tener también una democra¬cia digital y que el algorit mo que pro¬duzca un efecto desfavorable en un ad¬ministrado tiene que ser transparente. Por tanto, la transparencia está por en¬cima de la propiedad intelectual que alegaba el Ministerio. La democracia no puede ser opaca. No le puedo poner una nota a un alumno por un algoritmo.
-Los algoritmos marcan ya la concesión o no de una hipoteca a una persona.
-Yo no le puedo denegar a alguien una vivienda con un algoritmo Ni le puedo denegar la entrada en España a nadie por un algoritmo. Si usamos algoritmos para todas estas decisiones, resulta que estamos en manos de un oráculo que no ha hecho el pueblo sino una empre¬sa en Palo Alto (California). Un algorit¬mo que nadie conoce y que acaba afec¬tando las decisiones esenciales y criti¬cas de una democracia occidental.
-En Estados Unidos, que es donde más se está avanzando en sistemas de IA. junto con China, ya están surgiendo muchas voces criticas que están ad¬virtiendo de que estos algoritmos opa¬cos pueden acabar con la democracia. -Efectivamente. Europa tiene un pro¬blema que es que en China no hay re¬gulación. China está mucho más desarrollada a nivel de IA porque tienen dinero ilimitado. Y Estados Unidos, que tiene la tecnología, pero no tiene regulación, porque tanto demócratas como republicanos son liberales. Lo más que han tenido es una orden pre-sidencial de Biden que prohibía los deep fakes’ y la manipulación electo-ral. Todo lo demás lo permitía.
-¿Dónde queda Europa?
-Nosotros no tenemos tecnología y carecemos de un campeón digital. Tampoco tenemos dinero ilimitado como China. El papel de Europa, eso se llama efecto Bruselas, se limita a ser el pionero en la regulación de ca-lidad. Y el reglamento europeo de IA está siendo copiado en algunos esta-dos de los Estados Unidos y asiáticos, porque entienden que es la mejor re¬gulación posible para desarrollar de formar segura y eficiente su respecti¬vos sistemas de IA. Ese es el papel eu¬ropeo ahora mismo.
-¿Estamos perdiendo el tren de la I A?
-Nosotros no tenemos campeones di-gitales para competir. Telefónica está en una tercera liga y no juega contra ChatGPT. OpenAI o Google.
-¿La regulación de la IA desincentiva la innovación en Europa?
-La ventaja de nuestra regulación es que los fabricantes europeos saben a qué atenerse, y tienen muy clara la se-guridad jurídica de lo que pueden y no pueden hacer. El problema está cuan-do el producto se fabrica fuera porque ese fabricante no tiene las obligaciones que tiene un fabricante europeo. Res¬pondiendo la pregunta, no vamos a in¬centivar grandes campeones europeos con un sistema garantista como el que tenemos. Pero podría decir que el re¬glamento europeo se acaba aplicando a las empresas norteamericanas, se tie¬nen que acabar sometiendo porque el mercado europeo son 300 millones de habitantes con alto poder adquisitivo.
-Todavía...
-Sí. Esperemos que dure un poco más. -Simón Johnsson asegura que todas las civilizaciones que alcanzaron una tecnología que consideraron defini¬tiva acabaron hundiéndose y cita al Imperio Romano, el mundo árabe o la China anterior al comunismo. ¿Po-demos estar ante una situación pa-recida ahora en el mundo con la IA? -Aún no hemos llegado al límite que los investigadores llaman la singula¬ridad. es decir, la autoconciencia por parte de la IA de que es una entidad por si misma, independiente y pode¬rosa por encima del ser humano. No hemos llegado a eso pero Sam Altman. por ejemplo, ya ha avisado de que la IA no tardará mucho en llegar a tener autoconciencia. y en ese momento pue¬de no obedecer las órdenes de los hu¬manos que la crearon. Entonces ten-dríamos un problema.
-Un problema grave...
-Por eso habría que obligar a las em-presas que fabrican algoritmos de Inte-ligencia Artificial a que impidan esa ca-pacidad de la propia IA de tener auto- conciencia. La empresa no se quiere aulolimitar porque quiere crear una IA tan libre que le ofrezca opciones al usua¬rio que ni siquiera él ha pensado. Tene¬mos un problema aquí de choque de in¬tereses entre las empresas y las regula¬dores. Imagínese una IA que entra en el sistema de guiado de armas nucleares. Llegará un momento en que la 1A será inevitable y se va a meter en cuestiones criticas como redes eléctricas, servicios esenciales, cuestiones militares y con¬trol de la población.