Entrevista con Miguel Ortego

Alberto Orellana
Redactor de Comunicación del Grupo Educativo CEF.- UDIMA
Entrevista
Doctor en Derecho, abogado especialista en derecho de empresas, protección de datos, ciberseguridad y delitos informáticos (entre otros) en su propio bufete, así como árbitro internacional y profesor del Máster en Práctica de la Abogacía y la Procura en CEF.-.
“La IA no sustituirá al abogado, pero deberá integrarla en su formación para aportar valor añadido al cliente”
Hablamos con Miguel Ortego de privacidad, de dónde puede realmente aportar la IA en los despachos y dónde habrá que andarse con ojo, también desde la propia regulación, para que no sea un lastre.
El resplandor de la IA y todo lo que se supone que haremos con ella se ha ido concretando en cada sector profesional en apenas unos meses. ¿Cómo está afectando a la abogacía desde su experiencia? ¿Usa habitualmente herramientas con IA en sus labores diarias como abogado?
Desde luego la IA no es algo futuro, es una realidad, algo que ya está pasando en varios ámbitos, y la abogacía es uno de ellos. Es verdad que el Derecho es una materia que se resiste mucho por esa tradición y ese precedente a intentar no implementar las cosas hasta que no estén bastante desarrolladas.
Pero prácticamente todos los despachos y abogados utilizamos algún tipo de IA, bien sea ChatGPT, bien sea Ross (un sistema que utilizan por ejemplo algunos despachos grandes como Garrigues o Uría), u otras como Luminance, que incluso se comercializan.
La IA existe, hay que abordarla, abrazarla y desde el punto de vista jurídico no es que genere un impacto tan grande como se espera, porque tiene todavía muchos fallos. Se sabe de casos en los que la IA se inventa sentencias, texto… Hay una resolución del Tribunal Supremo que condenó a un abogado a pagar dinero por inventarse entrecomillados que no existen, que probablemente fuesen de la IA.
Pero es verdad que en el medio plazo va a tender a reemplazar a mucha mano de obra. Tanto desde el punto de vista de los abogados como de los operadores jurídicos: jueces, administraciones...
¿Cuáles son las principales ventajas que los despachos de abogados encuentran en la IA para agilizar su trabajo diario?
Que tienes unificado en un único lugar la fuente de información (o en dos si contamos con la china DeepSeek, la otra más grande junto con ChatGPT; luego hay más enfocadas a tareas concretas como fotografía). Antiguamente el abogado tenía que ir a diferentes fuentes y buscar diferentes cosas, y ahora la IA te da desde un punto unificado unas primeras ideas de por dónde pueden ir los tiros del caso. Pero creo que hay que ser muy cautelosos, porque todavía no es un sustitutivo de un abogado. Probablemente no lo sea 100 % nunca, pero no es tan fiable como lo que la gente intenta poner en sus manos.
Desde su experiencia en privacidad, protección de datos y ciberseguridad, ¿cuáles son los principales riesgos que plantea la IA en estos ámbitos?
La IA es una pieza más del gran problema global: la privacidad. Creemos estar protegidos por leyes que en realidad no llegan. Casos como el de Snowden muestran que lo que dicta la ley es solo la punta del iceberg, mientras que debajo hay un control de la información donde tendemos casi hacia un Gran Hermano.
Durante 25 años, las grandes tecnológicas han operado sin restricciones para desarrollar la IA, pero el verdadero avance llegó con el big data. Aún hoy, gran parte del tratamiento de datos escapa al control. Sentencias como las de Facebook, y las de Schrems I y II han demostrado que, pese a los acuerdos con Estados Unidos, la privacidad sigue siendo complicada.
Es el gran reto, mirar para otro lado no soluciona nada, pero todavía nos queda mucho camino que recorrer en la implementación. Y sobre todo en el cumplimiento de normativas que sean eficaces para la protección de la privacidad y la intimidad de las personas.
Un aspecto positivo y un impacto negativo (aunque no sea intencionado) que destacar del Reglamento Europeo de Inteligencia Artificial en el sector legal, en estos primeros seis meses tras entrar en vigor.
El aspecto más positivo es evidente: que ya se regule la IA es bueno. Como toda herramienta potente, puede ser beneficiosa o peligrosa, y figuras como Raymond
Kurzweil advierten de un futuro donde la IA pueda superar a la humanidad. Así que legislar es necesario.
El problema es que regular sin desarrollar nos deja atrás. Europa quiere liderar, pero sin grandes tecnológicas propias, solo regula a terceros. Deberíamos fomentar la inversión en IA antes de restringir. Mientras Estados Unidos apuesta por desregular y crecer rápido, nosotros ponemos trabas que ahuyentan a emprendedores e inversores. Es un enfoque más romántico que práctico, y nos deja fuera de la carrera tecnológica.
Europa siempre ha sido el nido de los derechos fundamentales y el Estado de bienestar, pero al final a lo mejor nos pasamos de proteccionistas. Estamos generando una aversión a los inversores y emprendedores para venir a Europa y crear cosas aquí, porque todo son dificultades y sanción. Desde el punto de vista legal está fenomenal porque da trabajo a los que nos dedicamos a esto, pero desde el punto de economía y mundo, estamos muy atrás en la carrera.
¿Qué responsabilidad asumen los abogados al confiar en la IA para preparar documentos legales sin verificarlos exhaustivamente? Ahora tienen la obligación de etiquetar documentos legales elaborados con IA. ¿Qué implicaciones puede tener el no hacerlo, para abogado y cliente?
Europa y España caen en la hiperregulación y la exigencia de indicar si un documento ha sido generado con IA es un ejemplo más. Los abogados han usado modelos de contratos toda la vida sin necesidad de aclararlo. Al final el responsable de un documento es quien lo firma, sin importar si lo ha escrito desde cero, lo ha copiado de un modelo o lo ha generado con IA. Obligar a señalarlo introduce una presunción de culpabilidad. Es como decir: este documento probablemente no esté bien hecho.
Como siempre, hiperregulamos por miedo a lo desconocido. En el sector legal la IA podría traer avances significativos, pero las instituciones siguen imponiendo barreras. Un caso claro es la jurimetría, el análisis masivo de sentencias para identificar patrones y mejorar la seguridad jurídica. Si dos casos iguales tienen fallos distintos en diferentes regiones, la IA podría señalar esas incoherencias. Sin embargo, órganos como el Consejo General del Poder Judicial no permiten este tipo de estudios, porque evidenciarían las diferencias en los criterios judiciales.
El acceso a bases de datos judiciales también está restringido. Solo las editoriales con derechos sobre ciertas sentencias pueden analizarlas, pero no existe una conexión abierta para que una IA específica haga estudios exhaustivos. Parece que hay un temor a que los jueces queden retratados.
Mientras tanto, en países como Estonia la IA gestiona casos de menos de 200 euros porque son muy básicos. Cuesta más poner a trabajar a una oficina judicial de ocho personas, más un juez y un letrado de la Administración de Justicia para 200 euros, que poner a una IA, que te puede decir con base en la norma si sí o si no.
¿Cómo deberían adaptar su formación las instituciones jurídicas para que los abogados utilicen la IA de forma responsable?
La formación es clave, y centros como CEF.- UDIMA juegan un papel esencial en adaptarla a la IA. No se puede prohibir su uso en educación porque es un retroceso social, sino incorporarla a los planes de estudio. Como ocurrió con la transición del papel al ordenador (ahora los exámenes incluso se pueden autocorregir) la IA debe integrarse en el aprendizaje, porque el cambio al ordenador a nadie le pareció una crisis impresionante del modelo educativo.
Los alumnos, más que intentar engañar al profesor o hacer trabajos basados en la IA sin decir la verdad, tienen que utilizarla pero aportando la parte que les corresponda. Igual que en medicina las IA ya analizan radiografías, en el derecho pueden automatizar tareas repetitivas, permitiendo a los abogados enfocarse en la estrategia jurídica en lugar de en revisiones rutinarias.
No tiene sentido que yo esté revisando la ortografía de un documento, o una cláusula que he hecho ya cuarenta veces, cuando a lo mejor lo que tengo que hacer es enfocar mucho mejor un procedimiento judicial o una negociación con el abogado contrario con base en ese documento.
El verdadero valor añadido está en las habilidades humanas que la IA no puede suplir. Como un piloto que deja volar al avión en piloto automático pero interviene cuando es necesario. Los profesionales deben aprender a delegar en la IA las tareas mecánicas para centrarse en lo esencial de su trabajo. Respuestas fáciles a clientes, dudas concretas… cuestiones muy sencillas, la IA ya las puede resolver.
¿Puede haber conflicto de intereses para un bufete si acuden a él las dos partes de un caso por recibir asesoría de este chatbot?
Puede ocurrir, pero los despachos deben identificar claramente cuándo una respuesta proviene de un chatbot. En el ámbito jurídico, donde la colegiación es obligatoria, un robot no puede prestar asesoramiento legal sin infringir la Constitución. Nosotros no utilizamos IA para este fin porque el servicio jurídico se basa en la confianza, como ocurre con la medicina; la relación con el cliente es clave, más allá de la resolución técnica del caso.
Lo esencial es informar que un sistema automático solo puede ofrecer respuestas generales, nunca asesoramiento profesional. Frases como “debería contactar con un abogado penalista” o “esto parece un asunto civil” pueden servir para orientar, pero sin reemplazar la labor del abogado.
Cuestiones básicas, como dónde encontrar un abogado de oficio o cómo acceder al servicio de orientación jurídica, sí pueden resolverse con IA. Sin embargo, un asesoramiento como tal, que algunas plataformas low cost de servicios jurídicos pueden estar dando con estas herramientas… creo que eso es peligroso.
¿Cómo influirá la creación de la Oficina Europea de Inteligencia Artificial en la regulación y control del uso de estas tecnologías en el sector legal? ¿Qué aspecto deberían tener en cuenta que, a usted, por ejemplo, le pueda afectar en su día a día como abogado?
Probablemente los reguladores impongan estándares de cumplimiento y auditorías en el uso de la IA en el ámbito jurídico, aumentando las exigencias y posibles sanciones. Esto es positivo si garantiza servicios adecuados para el ciudadano, pero preocupa que se convierta en un lastre desproporcionada frente a la dificultad que tiene invertir en este tipo de tecnología.
Si no, ocurrirá (y es muy probable) que solo los grandes despachos puedan permitirse estas innovaciones, concentrando el mercado y dejando atrás a los más pequeños, como ha sucedido en otros sectores con gigantes como Amazon. La abogacía no desaparecerá, pero como plantea Richard Susskind en su libro Tomorrow’s Lawyer, los abogados se van a hibridar, combinando conocimientos para ser también algo de ingenieros, vendedores de marketing o de médicos.
La Oficina Europea de Inteligencia Artificial es una buena idea, siempre que tenga los medios suficientes y no se convierta en otra institución con restricciones difíciles de asumir (como en la Agencia Española de Protección de Datos, donde los recursos no llegan y se queda en una idea muy bonita). Si va a ser otro sistema de multas y limitaciones, complicará incluso la pluralidad de servicios, porque la competencia se reduce si dichos servicios se concentran en pocos despachos.
¿Qué medidas están adoptando los organismos judiciales en España para regular el uso de IA en el ejercicio legal?
Las normas europeas, como el Reglamento de Inteligencia Artificial, son de aplicación directa en los Estados miembros, mientras que las directivas requieren transposición. En España, vamos rezagados en estos avances. Apenas hace un año se empezó a aplicar con más rigor el Reglamento Europeo de Protección de Datos en la Justicia, estableciendo medidas como la entrega de expedientes solo a través de la Oficina Digital o la anonimización de casos.
El cambio más reciente, aunque con poco impacto en la IA, es la Ley de Eficiencia Procesal, que exige el expediente digital. Sin embargo, su aplicación es deficiente: los abogados aún deben acudir a los juzgados a fotocopiar documentos, y muchos jueces siguen denegando vistas telemáticas pese a que la ley las prioriza.
Hay intentos y buenas intenciones, pero el problema principal sigue siendo la falta de medios. La Justicia está infradotada, hasta el punto de que en muchos juzgados ni siquiera tienen equipos básicos para digitalizar documentos. En este contexto, la inteligencia artificial aún parece un objetivo lejano.
¿Qué principales avances o cambios va a experimentar la abogacía en este año 2025? ¿Dejará de ser la abogacía como la entendemos a raíz de a la IA?
Las empresas, incluidos los despachos, se dividirán entre quienes adopten la tecnología y quienes no, y estos últimos desaparecerán. La IA se integrará en todo, incluso los clientes la usarán para verificar lo que se les dice. Sin embargo, este año no será un factor diferencial para los despachos, aunque sí lo será la tecnología en eficiencia y gestión administrativa, reduciendo costes y permitiendo dedicar más tiempo al cliente.
En el ámbito de la IA, hay diferentes niveles. Grandes despachos ya utilizan plataformas como Luminance, pero su alto coste (30.000-40.000 euros anuales) solo es rentable con un volumen de clientes elevado.
Aún falta recorrido, pero a lo mejor en tres años hay grandes despachos que tienen que reducir un tercio de la plantilla, que sí será un ahorro importante. Garrigues puede pasar de 2.000 a 1.500 empleados perfectamente, y que el resto lo haga una IA.
Los despachos pequeños y especializados, como el mío, dependen menos de la IA, ya que todos somos sénior y ofrecemos un servicio personalizado. En cambio, en aquellas empresas en las que van cinco abogados, tres junior, uno medio, y luego el socio… a lo mejor con el socio y el sénior… y te quitas los tres junior que te pueden hacer el
trabajo de campo.