El protocolo de los algoritmos de la IA en la lógica de las comunidades indígenas de la Zona 3 del Ecuador.
The protocol of AI algorithms in the logic of indigenous communities in Zone 3 of Ecuador.
Rafael Díaz Moya[1]
Universidad Nacional de Educación a Distancia. Madrid (España)
rafael.diaz@der.uned.es
Recepción: 28/11/2024 Revisión: 12/12/224 Aceptación: 13/12/2024 Publicación: 30/12/2024
DOI; https://doi.org/10.5944/eeii.vol.11.n.21.2024.43518
Resumen
La Inteligencia Artificial (IA) es más que una herramienta tecnológica. Representa un sistema epistémico y normativo arraigado en contextos socioculturales dominantes. Este trabajo analiza las implicaciones de los algoritmos en las lógicas excluyentes hacia las comunidades indígenas de la Amazonía ecuatoriana, centrándose en las fallas epistemológicas y normativas que subyacen en la implementación global de la IA. Se argumenta que los protocolos de los sistemas de IA no son neutrales, sino que reflejan los valores y prioridades de las sociedades que los crean, a menudo en detrimento de los conocimientos y las estructuras sociales de las comunidades marginadas. Finalmente, se proponen principios éticos y metodológicos para la integración de perspectivas locales en la gobernanza de la IA. La transparencia en los algoritmos, la gestión de sesgos y la formación continua de los profesionales del derecho en tecnologías emergentes son fundamentales para garantizar una implementación justa y responsable de la IA.
Palabras clave: protocolo, Inteligencia Artificial, indígenas, ley, ética
Abstract
Artificial Intelligence (AI) is more than a technological tool. It represents an epistemic and normative system rooted in dominant socio-cultural contexts. This paper analyses the implications of algorithms in exclusionary logics towards indigenous communities in the Amazon, focusing on the epistemological and normative failures that underlie the global implementation of AI. It is argued that the protocols of AI systems are not neutral but reflect the values and priorities of the societies that create them, often to the detriment of the knowledge and social structures of marginalized communities. Finally, ethical and methodological principles for integrating local perspectives into AI governance are proposed. Transparency in algorithms, bias management and continuous training of legal professionals in emerging technologies are essential to ensure a fair and responsible implementation of AI.
Keywords: Protocol Artificial Intelligence, indigenous, law, ethics.
Sumario
1. INTRODUCCIÓN
2. DEFINICIÓN CONCEPTUAL
2.1. La concepción de indígena.
2.2. El término “colonialidad”
3. EL INDIGENISMO ANTE LOS ALGORITMOS EN EL DERECHO
3.1. Fallas epistemológicas.
3.2. Fallas normativas.
4. LA ABOGACÍA EN LA LÓGICA INDÍGENA DE LA LEGALTECH
5. DESAFÍOS ÉTICOS Y LEGALES.
6. PERSPECTIVAS FUTURAS.
7. CONCLUSIONES
8. BIBLIOGRAFÍA.
1. INTRODUCCIÓN
La IA en el ámbito jurídico está redefiniendo la forma en que los profesionales del derecho gestionan, analizan y resuelven situaciones jurídicas tanto básicas como complejas desde una segunda colonialidad digital pero que afecta en los mismos términos, si no en mayor grado, con la que se produjo a partir de la independencia de España de los territorios de lo que hoy es el Ecuador.
La independencia de los territorios americanos —en el Ecuador se produjo el 24 de mayo de 1822 mediante la batalla de Pichincha—, supuso la promulgación de una “masa legislativa desordenada” debido al conflicto con la “farragosa” normativa española —Recopilación de Indias, Novísima recopilación castellana— y la que se fue promulgando, aunque siguió rigiendo el complicado sistema jurídico colonial, de ahí la importancia de la codificación civil. En el Ecuador, el primer Código Civil que se implantó fue en 1859, siendo una copia exacta del Code de Napoleón —no del español como algunos sostienen— que a su vez heredó muchas disposiciones del código chileno de 1855 redactado por el jurista Andrés Bello, el cual “insistió en la necesidad de una codificación civil para clarificar el Derecho aplicable a la nueva situación a raíz de la Independencia” (MORÁN MARTÍN, 2010: 278-286).
La desaparición política e institucional, que afectó sobremanera a las comunidades indígenas, creó una crisis de identidad que derivó en un regionalismo que contribuyó a crear una política ecuatoriana complicada, de tal manera que fue la característica principal de la división política y territorial produciendo en el siglo XIX hasta cinco guerras civiles. Aunque el Ecuador era una república constitucional, la fuerza fue el método para conservar el poder donde las elecciones libres no consistían en elegir a sus representantes sino para confirmar en el poder al que lo había conseguido por la fuerza, por lo que, el estilo de gobierno desarrollado fue el autoritarismo, al margen de la codificación civilista, siendo la política personalista la realidad dominante que no confluyó en la ausencia de un concepto de nación sino de región gobernada por la élite blanca terrateniente y militar donde el descontento campesino indígena que se sublevaba localmente era reprimido con dureza sin reconocimiento de derecho alguno, especialmente hacia la mujer indígena (RODRÍGUEZ, 1984: 17-35).
Por ello, considerando estos acontecimientos, se plantea la hipótesis de la existencia de un conjunto de circunstancias que, en similitud con la historia del Ecuador, por diferentes coyunturas, está conduciendo a determinados sectores poblacionales a las mismas condiciones de invisibilidad caracterizadas por su distinción con el resto de los grupos sociales y culturales en el contexto de las ciencias de la computación mediante la creación de programas informáticos con el fin de “ejecutar operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”(REAL ACADEMIA DE LA LENGUA, 2024).
A pesar de las normas constitucionales, hay que considerar en primer lugar que las élites asumieron unos principios sólo para los adultos varones, en clara significación con el inicio de las relaciones laborales en España en el siglo XIX. Si en nuestro país, el germen de la familia tradicional estaba enfocada hacia la ausencia de reconocimiento de derechos de la mujer y los hijos, quedando reducida a las funciones domésticas, y con gran resistencia a su incorporación laboral, en el Ecuador las contradicciones de las élites, principalmente por parte de los criollos, imaginaron una comunidad sobre la base de una actuación miserable e ignorante sobre el indígena a la que había que cerrar la puerta a todos derechos, bajo la orden o premisa obligatoria de su “civilización” (PRIETO, 2004: 24) aunque llevaba aparejado el complemento del esclavismo. En tal sentido, el primer concepto que se debe definir es el de indígena.
2.1. La concepción de indígena
Desde un punto de vista genérico existen referencias como “grupos de descendientes directos de los pueblos que habitaban Iberoamérica a la llegada de los españoles y portugueses en el siglo XV que poseen una lengua y cultura propias y que comparten formas de vida y cosmovisiones particulares, diferenciadas de las occidentales”. Desde un punto de vista político, se define como el “reflejo extremo de la situación de dominación colonial a la que ha estado sometido un determinado grupo humano. Tal categoría conjuga simultáneamente aspectos biológicos (raciales) y culturales” (ÁLVARO BELLO, 2002: 40).
Considero el concepto de indígena como una categoría que no se puede incluir en ningún grupo establecido, sino que tiene una propia heredada en la que su característica principal no son sus rasgos físicos diferenciados sino la particular relación comunitaria entre sus miembros y con el entorno que les rodea, la cual, internamente estigmatiza a la mujer y, externamente, con otros sectores del sistema social, se mantiene una relación permanente de colonizado, incluso hoy en día.
El principal acontecimiento étnico del siglo XX en el Ecuador fue el rápido crecimiento de la población mestiza. El número de blancos “puros” disminuía y el concepto de raza blanca pasó a ser comprobable con dificultad científica en la misma proporción relativa que se redujo el indígena “puro”. El mestizo ocupó el peldaño intermedio del sistema de estratificación social y económica identificándose cada vez más —también en la actualidad— con las pujantes clases medias ecuatorianas (STAVENHAGEN, 1988: 19).
También existe una realidad diferente en la definición del término indígena que no se ha tenido en cuenta en numerosos análisis, y es la influencia del diferente entorno en la concepción de cada pueblo y nacionalidad. La interacción con el medio ambiente determina unos rasgos de diferenciación tan profundos que sus condiciones existenciales modifican el concepto de su propia comunidad y de ellos mismos. Cada una de ellas resulta un sujeto titular de derechos colectivos influenciado por aquel medio y también por sus raíces ancestrales, por lo que no es correcto equiparar el concepto de pueblo indígena con nacionalidad. Debo disentir con los autores que defienden que los términos son equivalentes, ya que una nacionalidad podría agrupar a varios pueblos (WRAY ESPINOSA, 2002: 50).
Asimismo, poco se ha analizado sobre lo que Dussel denominó la “alteridad del Otro”, la cual vendría a significar un proceso de constitución de la subjetividad moderna en la construcción de un ego “centro” de la historia en la “justificación de una praxis irracional” por la que el otro, el sujeto de la alteridad debe ser controlado, sometido y excluido. Esta teoría se define como el “mito de la modernidad” o base de la concepción de los sujetos indígenas en su mejor definición. En tal sentido, la “modernidad” se define como la justificación de aquella praxis irracional que se caracteriza por las siguientes características:
· La civilización moderna está más desarrollada y es superior por lo que, esta superioridad obliga a desarrollar a los más primitivos como exigencia moral.
· Si el primitivo se opone a un proceso civilizador debe ejercerse la violencia. Esta dominación produce víctimas como acto inevitable, en la que, el primitivo tiene la culpa que permite a la “modernidad” situarse como emancipadora de esa culpa.
· El carácter civilizador de la “modernidad” presenta a los sacrificios como un coste de la “modernización” de los pueblos indígenas inmaduros, de otras razas “esclavizables”, además del otro sexo —el femenino— ya más debilitado por la propia idiosincrasia indígena (DUSSEL, 1994: 208-209).
En esta teoría, los indígenas no son reconocidos como otro, distinto al europeo, sino como lo mismo europeo, pero en un estado primitivo e irracional, sin acceso a la mayoría de edad, sumado a una visión histórica sin alma que propugnaban las organizaciones religiosas. Negar al otro la posibilidad de ser, a partir de una definición propia de indígena, creó un proceso de exclusión de los pueblos sin posibilidad histórica de crear una “comunicación” intercultural porque no se quiso tomar en serio la situación asimétrica del excluido, del otro:
La "Filosofía de la Liberación” que parte desde la Alteridad, desde el "excluido" (la cultura dominada y explotada), de lo concreto-histórico, trata de mostrar esas condiciones de posibilidad del dialogar, desde la afirmación de la Alteridad, y, al mismo tiempo, desde la negatividad, desde su imposibilidad empírica concreta, al menos como punto de partida, de que "el-Otro-excluido" y "dominado" pueda efectivamente intervenir, no digo en una argumentación", ni siquiera en una “conversación" (DUSSEL, 1994: 11).
Difiero de la opinión de Bello cuando afirma que el concepto de indígena se define desde el parámetro de la dominación colonial, sino que la construcción conceptual debe partir de la negación del otro en la posibilidad de poder ser, teniendo en cuenta su propia definición y afirmación de sí mismo, de su propio ser, por lo que el parámetro base correcto de la concepción exige comprender el proceso de exclusión de los pueblos indígenas, al margen de la dominación colonial. De ahí que la justificación moral y jurídica de la conquista haya establecido un estatus social y jurídico en la nueva sociedad conquistadora —criollos— con el fin de otorgarle un pretexto de racionalidad.
La aplicación del concepto de indígena en el derecho natural vino determinada por esa condición de bárbaro, la cual, le excluyó de la aplicación del derecho de gentes que rigen las relaciones de los pueblos, por lo que se les consideraron al margen de la humanidad, en la que la superioridad biológica determinaba la protección del aquel derecho[2]:
“El ius naturae = ius gentium primarium restringido a los países civilizados, es donde radica el punto de partida de su especial visión americanista, ya que de esta manera es posible situar a los indios al margen de las elementales condiciones de vida jurídica indispensables para el respeto de los demás pueblos […] por la violación de los preceptos de la ley natural […] siendo la fuente de tal concepción un Derecho Natural impreso por la ley eterna en la criatura racional”.
Finalmente, se presenta un argumento divergente con la definición de indígena por parte de CHISAGUANO cuando expresa que se configuró mediante sus prácticas y vivencias culturales y la relación con la naturaleza, siendo la autoidentificación de la persona como indígena el elemento esencial de su aceptación a sí mismo como tal (CHISAGUANO, 2006: 10-11).
En resumen, considero que los pueblos indígenas se reconocen con una racionalidad diferente radicando el concepto en su propia taxonomía, es decir, en no clasificar esa racionalidad como “subdesarrollada”. Se debe entender desde las relaciones de poder que sustentan la lógica de lo mismo, en la que no puede caber la diferencia y por la que el reconocimiento de la alteridad significa la aceptación de otros saberes, prácticas y formas de relación[3]:
“Para el poder de lo Mismo, el Otro es enemigo, es una figura a la que hay que negar o destruir. El status de la Alteridad es un status que entraña peligro porque su reconocimiento implica la relativización de los alcances civilizatorios, y de todas sus prescripciones normativas y analíticas”.
2.2 El término "colonialidad"
El concepto de colonialidad se refiere a las formas persistentes de dominación cultural, epistémica y política que sobreviven al colonialismo formal (QUIJANO Y ENNIS, 2000: 533). En el caso de la IA, los algoritmos pueden actuar como agentes de colonialidad, imponiendo modelos de conocimiento y valor que son ajenos a las comunidades indígenas. En las comunidades amazónicas investigadas, donde los sistemas de conocimiento indígena están profundamente entrelazados con el entorno natural y las cosmovisiones comunitarias, esta imposición tiene consecuencias devastadoras. Se refiere a la perpetuación de sistemas de poder postcoloniales, esta vez sobre la base de los nuevos protocolos algorítmicos, que organizan las relaciones sociales, culturales y epistémicas, incluso después del fin del colonialismo formal (QUIJANO y ENNIS, 2000: 540).
En el caso de la inteligencia artificial, esta colonialidad se manifiesta en algoritmos que reproducen estructuras de dominación, priorizando sistemas de conocimiento occidentales y deslegitimando epistemologías alternativas donde la tecnología moderna no es neutral, sino que opera como un "vehículo de poder", reproduciendo dinámicas que invisibilizan las epistemologías y culturas no europeas. Es decir, cómo el “Otro”, en este caso, los pueblos indígenas, son reducidos al estatus de objeto en la narrativa de dominación, cimentando una estructura de exclusión cultural y epistémica. Este marco se relaciona directamente con debates actuales sobre la colonialidad de los algoritmos, donde las epistemologías indígenas son sistemáticamente ignoradas en los sistemas basados en IA (DUSSEL, 1994: 94-99).
La colonialidad de los datos informáticos se refiere al proceso mediante el cual los datos son extraídos de contextos locales y reinterpretados a través de marcos de valor externos. En la Amazonía ecuatoriana ocurre cuando las corporaciones tecnológicas recopilan datos territoriales o biométricos sin el consentimiento adecuado de las comunidades indígenas. Estos datos luego se utilizan para desarrollar aplicaciones que rara vez benefician a las comunidades de la Zona 3 del Ecuador, como hemos observado[4].
“Reformulando el propio término -colonialismo- cuyas formas históricas generaron originalmente la posición de Sudamérica, en la actualidad lo que falta en los perspicaces relatos recientes sobre Big Data es un marco más amplio para dar sentido a todo el proceso social en curso. Ese marco es el colonialismo, utilizado aquí no como mera metáfora, ni como eco o simple continuación de formas históricas de colonialismo territorial, sino para referirse a una nueva forma de colonialismo distintivo del siglo XXI: el colonialismo de datos”[5].
Coincido con EUBANKS en que el impacto de las tecnologías automatizadas en las poblaciones vulnerables se enfoca particularmente a perpetuar las desigualdades existentes. Estas tecnologías, aunque presentadas como neutrales y eficientes, a menudo refuerzan dinámicas de exclusión y opresión estructural al implementar sistemas que priorizan la eficiencia burocrática sobre las necesidades humanas.
Valga el ejemplo del caso donde la automatización de la elegibilidad para beneficios sociales bajo un contrato con IBM resultó en una gestión desastrosa que denegó más de un millón de solicitudes, con tasas de error triplicadas y un aumento de documentos perdidos en un 2473% (EUBANKS, 2018: 51). Esto ilustra cómo los algoritmos, diseñados sin considerar las realidades sociales, agravan problemas preexistentes en lugar de solucionarlos donde un algoritmo predictivo para la protección infantil determinó en las investigaciones automáticas basadas en datos parciales un conjunto de decisiones que comprometían la salud de las personas (EUBANKS, 2018: 72).
Estos hallazgos subrayan la necesidad de revisar el diseño y uso de sistemas de IA en contextos sociales para evitar que se perpetúen desigualdades y refuercen narrativas opresivas (EUBANKS, 2018: 116) que constituye, no sólo una violación ética, sino que también dirige la seguridad de las personas hacia el "extractivismo de datos", un fenómeno paralelo al extractivismo petrolífero y de metales de la Zona 3 del Ecuador que históricamente ha afectado a la región.
En este contexto de cambio, tanto la inestabilidad como la incertidumbre de las sociedades postindustriales sitúa a los pueblos indígenas en diferentes tipos de espacios con diferentes posibilidades. Para muchos líderes indígenas estas posibilidades, aunque consideran inocentemente que pueden ser esperanzadoras para ellos, en el proceso de cambios globales, no dejan de ser más que espectadores pasivos. Quizás sea este posicionamiento el que ofrece mayores dificultades para su supervivencia porque, aunque el lenguaje postcolonial ha cambiado, los lugares son los mismos. Pero ahora, la lucha por la validez de los conocimientos ancestrales indígenas se configura como la necesidad de demostrar la autenticidad y el control de las propias formas de conocimiento. En debates sobre los derechos de propiedad intelectual y cultural del conocimiento ancestral como valor añadido, si se quiere ser tenido en cuenta por la IA, la lucha tiene que dirigirse a otra serie de interpretaciones culturales que preserven el valor añadido mediante nociones de autenticidad científica de la propiedad (SMITH, 2020: 104).
Para COULDRY y MEJIAS (2018: 2), en el concepto de "colonialidad de los datos" la información sensible recolectada por sistemas de IA obvia los contextos locales, imponiendo un marco interpretativo alternativo que desconoce las dinámicas culturales concretas actuando tanto externamente, a escala mundial, como internamente sobre sus propias poblaciones de origen. Las élites del colonialismo de datos se benefician de la colonización en ambas dimensiones, y las divisiones Norte-Sur y Este-Oeste ya no importan de la misma manera.
Las consideraciones éticas que surgen cuando los miembros de comunidades marginadas no pueden participar en la toma de decisiones sobre los contenidos que crean hace que circulen entre un público mucho más amplio y ajeno a ellos. Este es el tipo de cuestiones a las que se enfrenta la digitalización de los conocimientos indígenas, la cual, escapa al control del sujeto, siendo el problema más acuciante su ignorancia por las consecuencias a largo plazo de lo que significa tenerlo todo fuera de contexto y de control. (NOBLE, 2018: 132).
Los sistemas de IA diseñados en contextos urbanos e industrializados rara vez consideran las complejidades de las epistemologías indígenas, como las que predominan en la Amazonía ecuatoriana. Estas epistemologías están profundamente interconectadas con las dinámicas socioambientales, espiritualidades y prácticas de reciprocidad[6]:
“Abrazar el estatus ontológico del conjunto de ciudades como entornos post naturales de diferencia junto con regímenes de ordenación y desorden (lo formal y lo informal, lo informativo y lo metabólico, lo industrial y lo postindustrial, lo espectacular y lo oculto). De ello se desprende la propuesta de una visión muy diferente del post urbanismo”.
Sin embargo, los algoritmos suelen operar bajo supuestos cuantitativos que invisibilizan las formas de conocimiento indígena y su filosofía ancestral como demuestra el uso de sistemas de IA en el monitoreo ambiental. Las métricas de deforestación utilizadas por plataformas como Global Forest Watch rastrean el carbono almacenado en los árboles, ignorando el conocimiento ecológico de las comunidades amazónicas sobre la biodiversidad y el manejo sostenible. La innovación metodológica de los agroecosistemas basados en los enfoques participativos “primero el agricultor” (CHAMBERS et al., 1989; THOMPSON y SCOONES, 2009 en LEACH et al., 2020: 32) hacían cada vez más hincapié en la participación como elemento central del diagnóstico determinando un diseño del desarrollo rural considerando los “conocimientos técnicos indígenas” (RICHARD, 1985 en LEACH et al., 2020: 32) como elementos centrales de cualquier análisis.
Por otra parte, la colonialidad restringida al modelo algorítmico descrito emerge cuando aquellos datos se diseñan y entrenan bajo marcos epistémicos occidentales que marginan otras formas de conocimiento. Las comunidades indígenas de la Zona 3 del Ecuador se han enfrentado con permanentes despojos históricos que ahora se trasladan al ámbito digital, pero con el agravante que no saben manejar por un déficit de acceso a la cultura digital por falta de medios. Por ejemplo, sistemas de IA destinados a la vigilancia ambiental han sido utilizados para justificar políticas de extracción, priorizando intereses económicos sobre las voces indígenas en la gobernanza de sus territorios. Como señala FLORIDI (2023: 75), al igual que el dumping ético, la evasión ética tiene raíces históricas y a menudo sigue esquemas geopolíticos. Es más probable que los actores practiquen el dumping ético y la elusión de la ética en contextos en los que exista un alto porcentaje de poblaciones desfavorecidas como los indígenas, instituciones sin seguridad jurídica, regímenes corruptos, distribuciones injustas del poder y otros males económicos, jurídicos, políticos o sociales. No es inusual trazar, correctamente las dos malas prácticas a lo largo de la línea divisoria entre el Norte Global y el Sur Global, o considerar que ambas afectan a los países de renta baja y media. El pasado colonial europeo sigue influenciando intrínsecamente estas malas prácticas.
Además, el uso de IA en la identificación de patrones en territorios indígenas ha generado controversias. Proyectos como el monitoreo de deforestación mediante datos satelitales a menudo excluyen la participación directa de los pueblos amazónicos, perpetuando la invisibilidad de sus derechos y conocimientos en la toma de decisiones (CULTURAL SURVIVAL, 2023). Esto refuerza una narrativa donde la IA opera como una herramienta de poder, más que como una vía para la justicia social.
Esto refuerza narrativas que ven a las comunidades indígenas como "ineficientes" o como obstáculos para el progreso, como denuncian las propias comunidades y pueblos indígenas visitados del Puyo, traduciéndose en la invisibilización de sus saberes locales, pero, paradójicamente, se enfrentan, sin saberlo, a enfoques extractivistas de datos que benefician a empresas tecnológicas y gobiernos[7]:
“Los algoritmos diseñados en contextos urbanos y globalizados tienden a priorizar patrones de datos cuantificables que desatienden los matices del conocimiento indígena. ‘Los algoritmos reflejan los prejuicios de sus creadores, reproduciendo jerarquías sociales preexistentes’".
Es por ello, que el conjunto de aplicaciones que engloban la denominada IA se ha convertido en una herramienta poderosa para transformar diversos sectores, y el Derecho ecuatoriano, no es la excepción. Su potencial para analizar grandes cantidades de datos legales, identificar patrones y optimizar la eficiencia de procesos legales está siendo cada vez más reconocido. La IA representa un cambio de paradigma en la aplicación del derecho indígena en relación con la justicia ordinaria, donde la resolución de disputas y la interpretación de la ley se ven enriquecidas por el uso de algoritmos avanzados, aunque condicionados. Hoy en día las ADR y ODR incluso ya están incorporando nuevos elementos tecnológicos para el desarrollo del arbitraje (CALDERON MARENCO, et. al., 2023: 532)
Para superar estas dinámicas, es fundamental adoptar un enfoque descolonizador en el diseño y la implementación de los protocolos algorítmicos. Esto implica no solo incluir a las comunidades indígenas en el desarrollo tecnológico, sino también reconocer y valorar sus formas de conocimiento mediante una metodología que cuestione las estructuras de poder que subyacen en la tecnología, permitiendo que las comunidades participen como agentes epistémicos plenos (SMITH, 2021: 95). En caso contrario, este grupo de herramientas y aplicaciones web colisionan con la ética del derecho condicionando las perspectivas futuras tanto positiva como negativamente de las comunidades y pueblos indígenas.
3. EL INDIGENISMO ANTE LOS ALGORITMOS EN EL DERECHO
Uno de los desarrollos más importantes de la IA en el derecho es el uso de algoritmos para analizar y prever resultados legales. ASHLEY (2017: 87) sostiene que los sistemas de IA, mediante el aprendizaje automático y el procesamiento de lenguaje natural, pueden "identificar patrones en las decisiones judiciales previas, permitiendo a los abogados anticiparse a los posibles resultados de un caso". Esto no solo mejora la preparación de los casos, sino que también facilita un uso más estratégico del tiempo y los recursos, aunque puede quedar condicionado por narrativas de "ineficiencia indígena" que afectan a la epistemología y normativa en el contexto global, como ocurre con las prácticas en el manejo sostenible llevadas a cabo por las comunidades indígenas[8]:
“Repensar el “desarrollo” y “la economía” surge como una tarea igualmente importante para la ontología política, especialmente en el contexto del avance de formas de entender el individuo, la economía y lo real que, cada vez más, erosionan el sistema de interrelaciones que hacen posibles los mundos relacionales”.
La tecnología nunca es neutra. Los conocimientos, las instituciones y las tecnologías están profundamente arraigados en contextos socioculturales específicos. Para HARAWAY (1988: 591), en todo el campo de los significados que constituyen la ciencia, uno de los puntos comunes se refiere al estatus de cualquier objeto de conocimiento y de las afirmaciones relacionadas sobre la fidelidad de los relatos a un “mundo real”, independientemente de lo mediado que esté para las comunidades indígenas y de lo complejo y contradictorio que sean estos mundos.
Por ello, las comunidades indígenas que se han mostrado más activas y críticas han rehuido las doctrinas de la objetividad científica, en parte debido a la sospecha de que un «objeto» de conocimiento es algo pasivo e inerte porque los relatos de tales objetos pueden parecer o bien apropiaciones de un mundo fijo y determinado, reducido a recurso para proyectos instrumentalistas de sociedades occidentales destructivas, o bien pueden verse como máscaras de intereses, por lo general dominantes. La IA, aunque se presenta como un avance universal, está impregnada de valores de las sociedades que la desarrollan. Esta realidad pone en evidencia dos tipos principales de fallas: epistemológicas y normativas que afectan profundamente a la aplicación de la justicia indígena reconocida por la Constitución del Ecuador de Monte Cristi de 2008, con relación a la justicia ordinaria.
3.1. Fallas epistemológicas
La falla epistemológica de la IA radica en la priorización de formas específicas de conocimiento donde su hegemonía deslegitima otras formas de saber, silenciando la no occidental, por no ser fácilmente cuantificable o digitalizable dado su diferente significado[9]:
“Tanto en quechua como en aymara, Pacha se refiere principalmente a la luz del día, más que a un espacio concreto, el espacio donde vuelan los pájaros. Pero, por supuesto, el espacio donde vuelan los pájaros es donde notamos que la luz del día ocurre en el espacio, desde el amanecer hasta el atardecer. La luz del día o el espacio donde vuelan los pájaros es, pues también el espacio del tiempo. El espacio del tiempo es lo mejor que puedo hacer para expresar la conexión entre acontecimiento y movimiento, que, en aymara o quechua, no se expresaba con la palabra tiempo como distinta de espacio, sino con una palabra espacio y el tiempo. Y eso era precisamente Pacha”.
Esto se traduce en la exclusión del concepto de la ancestralidad indígena porque mientras que los modelos de aprendizaje automático valoran patrones replicables y cuantificables donde los algoritmos dependen de grandes volúmenes de datos homogéneos y estructurados, las narrativas orales, las tradiciones simbólicas y las prácticas rituales que son fundamentales para muchas comunidades indígenas, no se insertan en estos parámetros. Es decir, en la tradición oral indígena las historias nunca pueden descontextualizarse del narrador. Son agentes activos en un mundo relacional, fundamentales para comprender un fenómeno. Los relatos orales nacen con el mundo y, por tanto, se narran de forma relacional y sientan las bases de la continuidad con las generaciones futuras. (KOVACH, 2009: 94), de ahí la dificultad de comparar la justicia indígena con la ordinaria, aunque aquella esté reconocida por la Constitución del Ecuador.
La marginalización se produce cuando los sistemas informáticos de inteligencia superponen datos y conocimientos provenientes de culturas dominantes ignorando los de las indígenas, como ocurre con la interpretación de sus prácticas de justicia debido a la falta de precisión achacable a conjuntos de datos desbalanceados, “a pesar de que la recuperación de conjuntos de datos lo suficientemente grandes como para revelar los desequilibrios incrustados en los modelos son lo suficientemente grandes como para revelar aquellos desequilibrios” (O’NEIL, 2016: 178) donde la falta de interés en su consideración radica el mayor de los contrapesos.
Esto no solo excluye a las comunidades indígenas de los beneficios tecnológicos, sino que también las convierte en víctimas de discriminación algorítmica, porque los problemas de clasificación en un conjunto de entrenamiento de la IA no representan transacciones de datos lícitas con todos los patrones posibles sino con un grupo de modelos de validación positiva y otros negativos que sean representativos, subdividiéndose además en muestras de entrenamiento y validación con el fin de cometer los menores errores posibles. Sin embargo, estos comportamientos son contrarios a la paridad, puesto que las métricas del modelo en el conjunto de validaciones disminuyen la sensibilidad en el conjunto de patrones para evitar falsos positivos, ocasionando que se reduzca la precisión, llegando a conclusiones en las que se advierte que la “justicia indígena atenta contra los derechos humanos”.
Tampoco es efectiva la técnica denominada oversampling consistente en elegir aleatoriamente patrones de la clase minoritaria e incorporarlos al conjunto hasta que ambas clases prevean el mismo número de representantes, aunque este procedimiento no consigue un mejor aspecto en los resultados de la IA a costa de reducir el tamaño de la clase mayoritaria, sólo empeora la precisión, al no especificar la clase minoritaria (SORIA OLIVAS, 2023: 168-171) provocando que la apropiación de estos datos para fines comerciales genere preguntas éticas fundamentales.
Valga el ejemplo del conocimiento indígena sobre biodiversidad de las comunidades Shuar, reconocido por su precisión y sostenibilidad, el cual es ignorado en los modelos de IA. Esto se refleja en proyectos que digitalizan patrones culturales, como textiles o lenguas indígenas, sin consentimiento previo ni participación significativa de los pueblo indígenas GONZÁLEZ ZEPEDA y MARTÍNEZ PINTO, 2023).
Las comunidades indígenas de la Amazonía tienen conocimientos detallados sobre la regeneración forestal, pero estos saberes rara vez se integran en los algoritmos utilizados para la gestión ambiental puesto que el conocimiento tradicional es considerado como folclore, y no un recurso para el cambio, lo que evitaría un mejor entendimiento entre la justicia indígena y la justicia ordinaria por parte de la justicia ecuatoriana, a la agrobiodiversidad como sostenibilidad y resiliencia del sistema y al mejor entendimiento de la cultura, sistema de valores y su organización estructural y social en el entendimiento de su cosmovisión específica (CORPORACIÓN DE ASOCIACIONES DE LA CHAKRA AMAZÓNICA, 2023: 85).
La comunidad indígena del Puyo nos señala un sistema que presenta los sistemas de monitoreo ambiental basados en prácticas tradicionales de manejo sostenible, pero la IA la considera "ineficientes" o "no científicas”, porque no se centran en medir la deforestación a través de métricas como el carbono almacenado en los árboles. Esto refuerza una lógica que deslegitima las formas de conocimiento local en favor de narrativas tecnológicas globales que en muchas ocasiones son ineficientes. Ya se trate de la IAs en torno a los sistemas de los recursos hídricos, el diseño de sistemas sanitarios o de cultivo de semillas, un modelo concreto desarrollado para una parte del mundo puede aplicarse en otras partes del mundo. Sin embargo, con demasiada frecuencia estos modelos fracasan ante los beneficiarios previstos porque no consideran su cosmovisión (LEACH, et al., 2010: 20).
Otro ejemplo que alumbra luz a la diferenciación consiste en la divergencia entre el aprendizaje automático que ofrece el proyecto Wildfire AI Sentinel, que apuesta por predecir incendios forestales en la Amazonía basándose en datos satelitales y modelos climáticos globales y, en concreto, en su “nariz electrónica”, que identifica el olor a quemado y ayuda a la prevención del fuego y a la detección de los incendios ya en marcha (MOEVE, 2024: 1) y la experiencia ancestral. Comunidades indígenas como los Ashaninka en el Perú han desarrollado sistemas de alerta temprana previa al incendio basados en señales ambientales como cambios en los patrones de viento y migración de aves. Estos conocimientos locales no se integran en los modelos algorítmicos, perpetuando una lógica extractivista que desvaloriza el conocimiento no cuantificable provocando errores en los sistemas de predicción de catástrofes en los mismos términos que las comunidades indígenas del Puyo, en la provincia de Pastaza.
COULDRY Y MEJÍAS (2018: 8-10) defienden que una de las razones por las cuales estas experiencias se encuentran al margen de la IA reside en que no producen un nuevo tipo “social” para el capital, es decir, lo social como forma que puede ser continuamente rastreada, capturada, clasificada y contabilizada para obtener valor como "datos" mediante la anexión de la vida al capital bajo el colonialismo de datos debido a que la ancestralidad de los datos y conocimientos se transportan por medio de la oralidad.
En las comunidades indígenas de la Zona 3 del Ecuador, el conocimiento es profundamente relacional y holístico, basado en la interacción con el entorno natural y las cosmovisiones compartidas. Sin embargo, el análisis de datos masivo de la IA no está equipado para procesar estas epistemologías. La ecología política construye su identidad teórica y política en un mundo de mutaciones, impulsado por una crisis ambiental: una crisis del “ser en el mundo vivo”. Sin embargo, a través de los intersticios abiertos en las grietas de la racionalidad monolítica y el pensamiento totalitario, la complejidad medioambiental arroja nueva luz sobre el futuro que se avecina como “algo que emerge como necesidad de emancipación o voluntad de vivir”. Para que este algo se cultive, se necesita una nueva epistemología ecológica, una en la que la sostenibilidad se convierta en el horizonte de los propósitos basada en un diálogo de saberes y culturas (ESCOBAR, 2018: 124), no estando al alcance de la IA.
Por lo tanto, esta no comprende y representa de manera fiel las visiones epistemológicas indígenas, particularmente aquellas arraigadas en la cosmovisión de la Pachamama. Estas visiones no son un producto fragmentado o "desde arriba" —como lo es la perspectiva predominante en los marcos occidentales que suelen evaluar la cultura desde una óptica hegemónica—, sino que derivan de una epistemología colectiva y holística. La filosofía indígena considera la interacción de sus miembros como un sujeto colectivo que articula significados y realidades dentro de un tejido de relaciones con la naturaleza y las comunidades en una unión de visiones parciales y voces de sus miembros en una posición de sujeto colectivo que promete una visión de los medios que encarna su realidad dentro de los propios límites y contradicciones de visiones de aquella —la Pachamama— (HARAWAY, 1988: 590).
Pero, sobre todo, las fallas epistemológicas son evidentes en la priorización de ciertos tipos de conocimiento sobre otros. La injusticia epistémica ocurre cuando se excluyen voces y formas de saber de los procesos de toma de decisiones tecnológicas donde “percibimos aquí un tufillo de cómo esa construcción causal podría parecer una justificación para el prejuicio de la credibilidad original en la justificación de algunos —prejuicios— para autorrealizarse (FRICKER, 2007: 88). Esto es particularmente relevante en contextos indígenas como en San Pablo de Gramapamba, en Guamote (Chimborazo), pueblo Panzaleo (Cotopaxi), las comunidades Huaorani, Achuar, Shuar en el Puyo en la Amazonía (Pastaza) o las comunidades Salasakas (Tungurahua), donde las epistemologías locales son deslegitimadas impidiéndoles la introducción de algunos de sus productos en el mercado[10].
3.2. Fallas normativas
En el ámbito normativo, las estructuras de gobernanza global de la IA tienden a homogenizar las reglas de gestión de datos, sin considerar las particularidades locales. Esto plantea preguntas fundamentales: ¿a quién pertenece el conocimiento almacenado en los sistemas de IA? ¿Quién decide qué datos son relevantes? Según EUBANKS (2018: 194), "los sistemas tecnológicos tienden a reforzar las desigualdades estructurales preexistentes […] El vertedero digital alberga ambos tipos de equidad. Reproduce los prejuicios culturales y debilita el procedimiento del debido proceso, socavando la equidad como igualdad de trato".
La falta de regulación adecuada de la IA agrava las desigualdades porque se ha centrado principalmente en las necesidades de las corporaciones tecnológicas dejando de lado las voces de las comunidades marginadas. Esto crea un ecosistema normativo en el que los flujos de información transnacionales responden más a intereses económicos que a las necesidades locales de los pueblos indígenas. Sin embargo, más datos por sí solos no conducen a una mayor precisión ni representatividad. Por el contrario, pueden exacerbar problemas de datos no concluyentes al permitir que se encuentren correlaciones donde realmente no las hay. En palabras de RUHA BENJAMIN, “la profundidad computacional sin profundidad histórica o sociológica no es más que aprendizaje superficial” [no aprendizaje profundo]” que afecta al desarrollo normativo (FLORIDI, 2018: 97).
Es por ello por lo que los sistemas de IA también enfrentan a problemas de interpretación cultural que choca con la justicia indígena reconocida en la Constitución del Ecuador. Los algoritmos tienden a interpretar patrones culturales desde una perspectiva occidental, lo que conduce a malentendidos y exclusiones debido a que las “identidades culturales y de género son tergiversadas en los motores de búsqueda” (NOBLE, 2018: 44). Un ejemplo denunciado en la visita a la Amazonía coincide con el análisis de HARAWAY, donde los proyectos de cartografía digital sobre la propiedad de las tierras del Páramo, que posteriormente son tratados mediante IA, definen categorías de tierra "vacía" o "no desarrollada" a la posesión territorial indígena, en los mismos términos que sus usos rituales y las reservas comunitarias[11]:
“Abogo por políticas y normativas de localización, posicionamiento y de situación, donde la parcialidad, y no la universalidad, es la condición de ser escuchado para hacer afirmaciones racionales de conocimiento sobre la vida de las personas. Yo defiendo la visión desde el cuerpo, siempre complejo, contradictorio, estructurante y estructurado frente a la visión desde arriba, desde ninguna parte, desde la simplicidad”.
La gobernanza de la IA carece de marcos transnacionales inclusivos que reconozcan las particularidades culturales y derechos de los pueblos indígenas. En la Amazonía ecuatoriana, la falta de políticas que protejan los datos sensibles de las comunidades ha permitido el uso indebido de información genética y cultural, como en casos de biopiratería digital (DIFUSIÓN CON CAUSA, 2023). Además, la primera ley ecuatoriana de protección de datos, aprobada en 2021 (LOPD, 2021), carece de directrices específicas que garanticen la representación equitativa de las comunidades indígenas en los ecosistemas digitales, es decir, como ocurre con la mayor parte de la normativa, ante la falta de desarrollo normativo que contenga una base presupuestaria que lo sustente se convierte en “papel mojado” [12] (MONTENEGRO, 2006: 1)
4. LA ABOGACÍA EN LA LÓGICA INDÍGENA DE LA LEGALTECH
La inteligencia artificial (IA) ha facilitado la aparición de herramientas de tecnología legal que optimizan la práctica del derecho, ayudando a abogados en tareas como la gestión de documentos, el análisis de jurisprudencia y la predicción de sentencias transformando el ámbito jurídico, detallando sus aplicaciones, beneficios y los retos éticos que plantea en el sector. La adopción de IA en el ámbito jurídico, a través de soluciones Legaltech, ha transformado profundamente la práctica de la abogacía porque permite realizar tareas complejas de análisis y automatización que, en otros tiempos, requerían un esfuerzo manual exhaustivo. No solo se optimiza la labor de los abogados, sino que redefine la práctica jurídica en un entorno digital cada vez más competitivo. SUSSKIND, (2013: 24) es de la opinión que considerar el trabajo jurídico como hecho a medida es una ficción poco útil, aunque a menudo romántica. Se acepta que algunas cuestiones jurídicas que surgen exigen soluciones a medida, pero hay mucho menos trabajo jurídico que requiera de esa necesidad. Es más, sostiene que “emplear técnicas a medida en muchos casos equivale a adoptar métodos de la industria artesanal cuando ya se dispone de técnicas de producción y personalización en masa que permiten prestar un servicio menos costoso y aún mejor”.
La automatización de estos procesos libera a los abogados de trabajos mecánicos y les permite concentrarse en tareas de mayor complejidad y valor. La IA trastornará no sólo el mundo de los abogados en ejercicio, sino también la percepción común del proceso jurídico. SUSSKIND (2013: 49), La virtualidad jurídica del asesoramiento y la creación de asistentes virtuales como los Chatbots legales, "responden a consultas legales básicas y pueden guiar al usuario en sus primeros pasos en un proceso legal". Aunque estos sistemas no reemplazan a los abogados, la IA hace que las tareas se modelen utilizando instrucciones deductivas e instrucciones basadas en datos donde el tratamiento de la información, cuando la estructura es evidente, busca en una base de datos jurídica opiniones de un juez o tribunal concreto, pero sin tener en cuenta ninguna especificidad, por el momento (REMUS Y LEVY, 2016: 9)
Si bien la IA está cada vez más presente en los sistemas judiciales, aún existen limitaciones importantes en su uso, especialmente por parte de las comunidades indígenas. La necesidad de combinar un enfoque que incluya tanto las ventajas como sus inconvenientes, evitando posturas radicales debe evolucionar hacia una "herramienta de apoyo" y no como un sustituto del juicio humano, especialmente en contextos judiciales donde la "persuasión y la ética" son fundamentales. Las utilidades de la IA en el Derecho son muy variadas desde el ámbito de los tribunales, valoración de la pruebas periciales, la gestión documental automatizada, el análisis predictivo y estudio de la jurisprudencia, así como el modelo de asistente legal virtual y Chatbot Legal personalizado donde se suprime en parte la figura del abogado presencial. En tal sentido, existen diferentes aplicaciones principales, las cuales pueden ofrecer un manejo eficiente de documentos legales, la búsqueda de jurisprudencia y la selección de documentos, que agilizan el proceso judicial. Sin embargo, se subraya que, aunque la IA puede simplificar ciertos procedimientos, no puede reemplazar el "juicio interpretativo" humano que implica un análisis ético y contextual de los casos[13]:
“ Y es que para juzgar, y sobre todo para entender con precisión lo que es el juicio, es necesario tener en cuenta que un juez va a utilizar heurísticos, naturalmente, a la hora de evaluar las normas aplicables y la prueba, y guiado por los mismos realizará las interpretaciones de hechos y leyes que le parezcan más acertadas […] Pero la ayuda que presten las herramientas de inteligencia artificial solo será global si logran interconectarse unos resultados con otros en una red neuronal tan compleja como un cerebro humano”.
En cuanto a la gestión documental automatizada, el procesamiento de documentos mediante IA agiliza la búsqueda de información relevante, permitiendo a los abogados encontrar precedentes y detalles clave de manera inmediata. Herramientas como Indigo han sido adoptadas por múltiples firmas de abogados para mejorar la eficiencia y precisión en la revisión de contratos y documentos administrativos (ASHLEY, 2017: 69) donde la revisión documental permite reducir errores humanos, lo cual es crucial en el manejo de información sensible y confidencial en el ámbito legal, pero la pregunta es clave: ¿Estamos formando a los aspirantes a abogados para que se conviertan en abogados tradicionales, individuales, personalizados, cara a cara? (SUSSKIND, 2020: 135).
Sea o no para la gestión documental o el análisis predictivo el uso de algoritmos para prever el resultado de casos judiciales "permite a los abogados y jueces anticiparse a las decisiones con base en patrones históricos de sentencia". En un estudio sobre el Tribunal Europeo de Derechos Humanos, los investigadores demostraron que un modelo de IA podía predecir con un 79% de precisión los fallos en base a las características del caso (ALETRAS, et al., 2016: 98). Herramientas como HYPO utilizan IA para facilitar el análisis de jurisprudencia y decisiones judiciales pasadas, proporcionando a los abogados información estratégica sobre la probabilidad de éxito de sus casos[14]:
“HYPO permite dos respuestas diferentes a un caso citado: proporcionar un contraejemplo y distinguir el caso. Proporcionar un contraejemplo que «triunfe» es el movimiento más fuerte porque incluirá otro caso en la teoría de un oponente para autorizar las preferencias de reglas de tal forma que la teoría resultante explicará tanto el caso contraejemplo como el citado además de dar al caso actual el resultado deseado por la parte que cita. Por tanto, gana en poder explicativo”.
Los asistentes virtuales y los Chatbots legales representan una aplicación creciente de la IA en el ámbito jurídico, facilitando el acceso a la información básica y respondiendo a consultas frecuentes. Los Chatbots como DoNotPay han sido diseñados para guiar a los usuarios en los procedimientos simples, como reclamaciones por multas, brindando un servicio rápido y accesible sin la intervención directa de un abogado. Sin embargo, la inclusión de las comunidades indígenas, tanto de su epistemología como de su cosmovisión y justicia es un desafío tanto ético como legal que, junto con la transparencia en la toma de decisiones automatizadas es fundamental considerar para asegurar la equidad y la justicia. Muchos sistemas de IA, en particular los de aprendizaje profundo, son opacos, dificultando la comprensión de los razonamientos detrás de sus conclusiones, hecho que actualmente no es posible garantizar si no se consideran numerosos desafíos éticos y legales.
Finalmente, coincido con FLORIDI Y COWLS (2019: 10) en el desarrollo y el uso de la IA, pudiendo tener un impacto tanto positivo como negativo en la sociedad, aliviar o amplificar las desigualdades existentes, curar viejos problemas o causar otros nuevos, amplificar las desigualdades existentes, curar viejos problemas o causar otros nuevos. Trazar el camino socialmente preferible dependerá no sólo de una regulación bien elaborada y de normas comunes, sino también de la utilización de un marco de principios éticos en el que se puedan situar las acciones concretas. El debate actual debe servir de valiosa arquitectura para garantizar resultados sociales positivos de la tecnología de la IA y avanzar hacia una sociedad más justa mediante resultados sociales transformando los buenos principios a las buenas prácticas.
5. DESAFÍOS ÉTICOS Y LEGALES
La responsabilidad en las decisiones automatizadas es uno de los problemas centrales en la implementación de IA en el derecho porque atenta contra la determinación de responsabilidad en caso de errores o perjuicios. ¿Quién debería responder por una decisión judicial incorrecta tomada por un sistema de IA? CASEY Y NIBLETT (2017: 48) argumentan la esencialidad de desarrollar marcos legales que asignen responsabilidad en el uso de la IA, sugiriendo que "sin una clara delimitación de la responsabilidad, el uso de la IA en el derecho puede llevar a una falta de confianza en estos sistemas", como está pasando actualmente.
En caso contrario, las observaciones realizadas hasta ahora conducen a la muerte de las reglas y normas de la práctica del derecho a medida que los legisladores adopten leyes que se traduzcan y comuniquen a los ciudadanos como simples microdirectivas interpretables por la IA. Es probable que los litigios disminuyan, mientras que el papel de un abogado como lobista o asesor político cambiará drásticamente. En la actualidad, el abogado sirve de intermediario que asesora al cliente sobre la mejor manera de cumplir normas complejas o vagos estándares. Parte de la experiencia de un abogado consiste en predecir cómo aplicará probablemente un juez la norma pertinente a un determinado conjunto de hechos. La IA reducirá la necesidad de estos abogados. Simplemente se dirá directamente al ciudadano si su comportamiento cumple la ley o no. No será necesario consultar a un abogado. Del mismo modo, los litigantes ya no tendrán que discutir sobre la aplicación de ciertas normas ambiguas, y los jueces ya no tendrán que interpretarlas, sino sancionar la deriva actuaria del litigante. No obstante, todavía queda un espacio de maniobra hasta la total especialización jurídica de la IA, debido a sus errores actuales. Por ejemplo, un nacional ecuatoriano, haciendo caso a la IA puede programar un viaje a España sin obtener un visado de turista porque le ha informado de que para ingresar en territorio Schengen no se requiere de un visado, simplemente un pasaporte en vigor, como está informando, provocándole una pérdidas económica cuantiosas, sin que exista responsable a quien pedir responsabilidad civil o penal.
Por otra parte, la IA tiene el potencial de reproducir sesgos presentes en los datos con los que fue entrenada, lo cual puede generar resultados discriminatorios en el ámbito jurídico. WACHTER et al. (2017: 81) advierten que "los algoritmos de IA, al basarse en datos históricos, pueden perpetuar y amplificar prejuicios que existían en esos datos". Esto es especialmente preocupante en el derecho penal, donde decisiones sesgadas pueden afectar gravemente la vida de las comunidades indígenas en lo que respecta, por ejemplo, al tratamiento de la mujer en la justicia indígena.
Actualmente estamos asistiendo a un marcado aumento en el uso de herramientas de toma de decisiones algorítmicas. Si bien los problemas se articulan de diversas maneras, se pueden reducir a dos grandes categorías: preocupaciones basadas en la eficiencia y la equidad. En el contexto de este debate, estos problemas suelen estar vinculados a dos atributos destacados de los procesos algorítmicos: su naturaleza opaca y automatizada. Por lo tanto, el procesamiento masivo de datos personales es fundamental para la efectividad de los sistemas de IA, pero esto plantea desafíos éticos y legales en términos de privacidad por lo que es necesario regular de manera estricta el uso de datos personales en sistemas de IA en el ámbito legal, ya que cualquier violación de la privacidad tiene consecuencias graves (ZARSKY ,2016: 120) por lo que, la IA en el derecho debe implementar prácticas sólidas de protección de datos para evitar violaciones de derechos de privacidad, que ahora no puede cumplir.
Uno de los mayores desafíos de la IA en el derecho es la transparencia de los algoritmos y la capacidad de explicar sus decisiones. Es importante destacar la importancia del contexto jurídico en los protocolos de la IA donde la rendición de cuentas y la justicia dependen de una comprensión clara de cómo se llega a una decisión. Tengamos en cuenta que cuando aceptamos los criterios de la IA cedemos voluntariamente parte de nuestro poder de decisión a los “artefactos tecnológicos”. Por lo tanto, afirmar el principio de autonomía en el contexto de la IA significa encontrar un equilibrio entre el poder de decisión que conservamos para nosotros mismos y el que delegamos en ella, con el peligro que ello conlleva (FLORIDI Y COWLS, 2019: 15).
Los modelos de IA, especialmente los de aprendizaje profundo, pueden ser difíciles de interpretar, lo que genera preocupación en el ámbito jurídico en cuanto a la validez y justificación de sus predicciones. Urge sentar las bases de un proceso para definir y evaluar rigurosamente la “interpretabilidad”. Quedan muchas cuestiones pendientes en la creación de vínculos formales entre las aplicaciones, la ciencia de la comprensión humana y los regularizadores de aprendizaje automático con la ciencia de la comprensión humana más tradicional (DOSHI-VELEZ Y KIM, 2017: 9) especialmente atendiendo a los grupos desfavorecidos como las comunidades indígenas. Es por ello por lo que el sesgo en los algoritmos de IA es un grave problema que plantea retos en el ámbito legal, más aún en el tratamiento de los protocolos de la cosmovisión indígena. Los algoritmos entrenados con datos históricos tienden a perpetuar los sesgos presentes en esos datos, lo cual puede llevar a decisiones discriminatorias. Si se aborda sin cuidado, la extracción de aquellos puede reproducir pautas de marginación existentes, heredar los prejuicios de los responsables de la toma de decisiones anteriores o simplemente reflejar los prejuicios generalizados que persisten en la sociedad. Incluso puede producir el resultado perverso de exacerbar las desigualdades existentes al sugerir que los grupos históricamente desfavorecidos merecen, en realidad, un trato menos favorable porque la IA parta de una falacia construida por sus protocolos algorítmicos[15]:
“Los algoritmos pueden mostrar estas tendencias, aunque no hayan sido programados manualmente para ello, ya sea a propósito o por accidente. La discriminación puede ser un artefacto del propio proceso de extracción de datos, y no el resultado de que los programadores asignen un peso inadecuado a determinados factores. Tal posibilidad ha pasado desapercibida para la mayoría de los académicos y responsables políticos, que tienden a temer intenciones ocultas y nefastas o los efectos pasados por alto de la parcialidad humana o el error en la codificación manual de los algoritmos”.
Por otra parte, se ha observado que la IA, al basarse en patrones históricos, también refuerza ciertos sesgos preexistentes en el sistema judicial por lo que la preservación de los derechos de las comunidades indígenas y la "autonomía del juez" en la toma de decisiones, debe evitar que los protocolos determinen la culpabilidad sin supervisión humana (NIEVA, 2018: 127-153) al considerar la justicia indígena como inferior a la ordinaria, a pesar de estar reconocida por la Constitución de 2008 del Ecuador, sin entrar en otros pronunciamientos.
Hasta el momento, la IA ha centrado sus esfuerzos en la recopilación de datos provenientes de resoluciones judiciales en determinados ámbitos para identificar patrones en las decisiones. Se evidencia que los jueces tienden a fallar a favor de un demandante en un 70% de los casos, o que entre el 70% y el 80% de los acusados reciben condena. Estas estadísticas podrían complementarse con información adicional del proceso, como el importe de los honorarios, la edad de los litigantes, el lugar del juicio, el ámbito judicial, así como el perfil personal de los acusados y las víctimas en el contexto penal. Sin embargo, si se llevara a cabo este enfoque, que es lo que se está finalizando, los resultados pueden seguir una lógica fundamentalmente bayesiana. Esto implica que, aunque los resultados puedan ser correctos en ciertas ocasiones, se olvidan por completo los aspectos más significativos del caso particular, los cuales no son susceptibles de ser analizados mediante cálculos estadísticos. En esencia, un proceso judicial no se reduce a una cuestión de azar, sino que representa un acontecimiento histórico con todos sus matices y particularidades porque en la administración de justicia ciertos elementos subjetivos y éticos no pueden ser replicados por una máquina (NIEVA, 2018: 56), por lo que, para minimizar estos riesgos, es esencial implementar controles y revisiones éticas muy estrictas en su aplicación del derecho, como la urgencia por la supervisión de la delimitación de las desigualdades donde la IA la considera como una cuestión “no elegida”, o las que pueda determinar merecida o elegida. Definir un principio que pueda delimitar estas desigualdades es una perspectiva delicada, aunque ha molestado a los igualitaristas (BINNS, 2018: 7), en caso contrario quedan en “papel mojado” (MONTENEGRO, 2006: 1)[16].
El problema más importante de los demandados por las organizaciones indígenas en la implantación de la IA es la generación de sesgos que excluyen a las comunidades en cuanto a la aplicación de su normativa intrínseca reconocida en la Constitución del Ecuador de 2008. La carencia de sensibilidad cultural en los algoritmos es un tema abordado, especialmente cuando impacta a comunidades vulnerables, incluidas las indígenas. Los algoritmos mal diseñados tienden a reflejar sesgos de sus creadores, ignorando valores, idiomas y contextos locales como han señalado NOBLE (2018) y EUBANKS (2018), en los siguientes términos:
En primer lugar, la falta de representación de las lenguas indígenas como el kichwa y el shuar en los sistemas de procesamiento de lenguaje natural limita su uso en aplicaciones digitales esenciales, como traductores automáticos y asistentes virtuales[17].
En segundo lugar, el desarrollo de la IA privilegia los conocimientos codificados en datos digitales, excluyendo saberes intangibles y contextuales. Por ejemplo, los sistemas de reconocimiento de imágenes son incapaces de interpretar prácticas culturales específicas, como los diseños de cerámica en comunidades amazónicas, que tienen significados sociales y espirituales profundos como su conexión con la Pachamama y sus relaciones espirituales profundamente significativas. La IA no puede preguntar sobre un conjunto más amplio de juicios sobre criterios como, por ejemplo: ¿Es claro su espíritu? ¿Tiene buen corazón?, etc. (SMITH, 2020: 10).
En tercer lugar, la denominada injusticia normativa y epistémica se refiere a la exclusión sistemática de las voces indígenas en el discurso legítimo del conocimiento, lo que le impide su participación política puesto que le afecta tanto en las formas de conocimiento como en la producción de dicho conocimiento. En el contexto de la IA, esta exclusión se manifiesta en la invisibilización de formas de conocimiento indígena y en la perpetuación de sistemas algorítmicos que reproducen prejuicios culturales. Por ejemplo, la IA no presenta una capacidad racional que comprende virtudes inculcadas al sujeto a través de un proceso de socialización, y que permite la corrección y el ajuste continuos a la luz de la experiencia y la reflexión crítica de la capacidad racional de la epistemología propiamente dicha, pero que tiene un antiguo precedente en la epistemología moral, o “segunda naturaleza” epistémica (FRICKER, 2007: 85)
En cuarto lugar, los sistemas de IA suelen asumir que el conocimiento válido es universal y replicable. Sin embargo, esto entra en conflicto con epistemologías y normativas que valoran lo local, lo contextual y lo relacional concluyendo que es la característica inherente de los sistemas de conocimiento modernos, que deslegitiman otras formas de saber. Siguiendo a ILYA y PRIGOGINE (1980, 1997) y PRIGOGINE y STENGERS (1979), la “bifurcación” de las sociedades de las comunidades indígenas actuales, al diferenciarse de lo general, produce en los sistemas inestables cambios cualitativos de forma imprevisible y caótica. Esta súbita explosión de expresiones modificadoras de la realidad de los algoritmos crea tremendas turbulencias y deja al sistema en un estado de vulnerabilidad irreversible. En ella reside la debilidad que afecta a la IA (DE SOUSA SANTOS, 2014: 134-135).
En quinto lugar, se cumple lo que DE SOUSA SANTOS (2014: 149) denomina el epistemicidio de la comunidad indígena caracterizado por eliminar activamente formas de saber no alineadas con la racionalidad occidental, más bien anglosajona. En el caso de la IA, los algoritmos no están diseñados para integrar narrativas orales, mitologías o formas de conocimiento rituales. En este sentido, la energía que impulsa la hermenéutica diatópica procede de una imagen desestabilizadora o epistemicidio, es decir, el asesinato del conocimiento. Los intercambios desiguales entre culturas siempre han implicado la muerte del conocimiento de la cultura subordinada. Esta pérdida de confianza epistemológica que aflige actualmente la ciencia moderna ha facilitado la identificación del alcance y la gravedad de los epistemicidios perpetrados por la modernidad eurocéntrica hegemónica. Cuanto más consistente es la práctica de la hermenéutica diatópica, más desestabilizadora se presenta la imagen de los saberes y conocimientos de una etnia o pueblo originario no occidental, provocando inmediatamente su marginación, jerarquización y destrucción sistemática, total o parcial, como ocurre con la comunidad kichwa de la Sierra ecuatoriana, más concretamente la de la provincia de Chimborazo, como denuncian.
Por ejemplo, muchas comunidades amazónicas tienen sistemas complejos de clasificación de la biodiversidad que incluyen categorías simbólicas y espirituales que son ignoradas por sistemas de IA entrenados en taxonomías científicas occidentales que, asociado al término creado por SOUSA SANTOS, definido como aquel “etnocidio se da con el exterminio de las normas protectoras de los pueblos indígenas” (DE AZEBEDO GONZAGA y LABRUNA, 2021: 25), hace que sean ignoradas por la IA[18]:
“Algunas tradiciones espirituales indígenas con sus cosmologías tradicionales tienen formas de difundir el esencialismo a través de prácticas y rituales particulares, pero a menudo a través de prácticas cotidianas mundanas de interser. Cambiar esta existencia (cuerpos, mentes y almas) hacia una ontología relacional desafía cualquier noción objetiva de lo real”.
Por todo ello, la exclusión sistemática en la IA de las comunidades indígenas no solo perpetúa las desigualdades actuales, sino que también contribuye a la desaparición de sus formas de conocimiento ancestrales y de su propia cosmovisión indígena en la aplicación de la justicia que le es inherente produciéndose lo que se denomina la “paradoja de la IA”[19]:
“Justo cuando las cosas se están volviendo más complejas, surgen narrativas influyentes, apoyadas por instituciones poderosas, con el objetivo de cerrar opciones y oscurecer o eliminar caminos alternativos”.
6. PERSPECTIVAS FUTURAS
Muchos abogados confunden estandarización con mercantilización, creo que esta última se limita más al trabajo jurídico rutinario que se puede poner a disposición, en espíritu de código abierto, en la Web. Reconozco que los abogados no se beneficiarán comercialmente de la mercantilización de los servicios jurídicos de la IA, pero creo que será fundamental para aumentar radicalmente el acceso a la justicia para aquellos que actualmente no pueden pagar sus servicios.
La IA en el ámbito jurídico promete no solo mejorar la eficiencia, sino también democratizar el acceso a la justicia. Sin embargo, los abogados y juristas deben adaptarse a una nueva mentalidad para integrar la tecnología de forma ética y responsable considerando todas las cosmovisiones específicas de las comunidades Esto implica una revisión continua de los marcos regulatorios, así como el fomento de la educación en IA y ética dentro del campo del derecho (SUSSKIND, 2020: 84).
En este sentido, el diseño de IA en el derecho debe ser proactivo en abordar los desafíos de transparencia, privacidad y equidad, asegurando que la tecnología sirva a la justicia, tanto ordinaria como indígena y no comprometa a ambas, en los siguientes términos, puesto que “sus mecanismos son a menudo invisibles o ininteligibles para todos, excepto (en el mejor de los casos) para los observadores más expertos”. (FLORIDI Y COWLS, 2019: 8).
En primer lugar, es importante señalar que las desigualdades de género comienzan en las primeras fases de conceptualización y diseño de los sistemas de IA. La disparidad de género en los campos técnicos es bien conocida y evidente (HICKS, 2018), desde las diferencias salariales hasta los ascensos (BRINDED, 2017). Esto se conoce generalmente como la “tubería agujereada”, con una participación femenina en la tecnología y la ingeniería que cae un 40% entre el momento en que los estudiantes se gradúan y en el que se convierten en abogados en ejercicio (WHEELER, 2018). La baja proporción de mujeres, especialmente indígenas donde la fuerza de trabajo de IA es inexistente —y en el desarrollo de habilidades digitales en general— significa que sus voces no están representadas en los procesos de toma de decisiones en el diseño y desarrollo de sistemas. Como resultado, la IA se está autorreplicando solo para algunos grupos demográficos (CRAWFORD, 2016), (UNESCO COMEST, 2019: 21)
En segundo lugar, el desarrollo de IA debe incorporar la consulta previa, libre e informada con las comunidades afectadas. Iniciativas para integrar el conocimiento indígena en sistemas de gestión ambiental han demostrado que la co-creación puede generar beneficios mutuos (CULTURAL SURVIVAL, 2023).
En tercer lugar, es esencial un marco normativo que regule la IA de manera equitativa y global. La UNESCO ha liderado propuestas para salvaguardar la soberanía de datos indígenas, promoviendo el consentimiento informado y la protección de derechos culturales en el ámbito digital (DIFUSIÓN CON CAUSA, 2023).
En cuarto lugar, fomentar la alfabetización tecnológica en las comunidades indígenas es fundamental para cerrar brechas digitales. El primer paso consiste en identificar y tratar los prejuicios de la ciencia y tecnología occidentales, vinculados a los proyectos en el tercer mundo que han relegado, reducido e invalidado los saberes indígenas. Valorar estos conocimientos no dominantes y expandir los paradigmas en los que se implementan las tecnologías emergentes posibilita diversificar la habilidad para responder a problemas mundiales desde puntos de vista locales sensibles culturalmente. Así pues, una IA orientada a las comunidades indígenas se puede apoyar en sus saberes, vivencias y sistemas éticos para su propia mejora (UNESCO, 2023: 42-43).
En quinto lugar, se deben incluir datos culturalmente relevantes y representativos de las comunidades indígenas en los conjuntos de datos que alimentan los algoritmos. Esto implica un enfoque colaborativo donde estas comunidades tengan voz en el diseño de los protocolos de los sistemas, pero para ello, es necesario que la normativa ecuatoriana reconozca explícitamente los derechos digitales de las comunidades indígenas, exigiendo que las tecnologías respeten su autonomía cultural y territorial (UNESCO, 2021: 23).
7. CONCLUSIÓN
La colonialidad de los algoritmos de IA en Ecuador refleja un problema global, pero sus implicaciones locales son particularmente graves para las comunidades indígenas. Superar estas dinámicas exige no solo ajustes técnicos, sino también transformaciones profundas en cómo entendemos y aplicamos la tecnología, priorizando la justicia social y la equidad cultural.
Por lo tanto, la IA se ha consolidado como una herramienta poderosa en el ámbito jurídico, permitiendo la optimización de procesos y la predicción de resultados legales. Sin embargo, su uso también plantea desafíos éticos y legales que afectan a la confianza del usuario con el mundo del derecho por varios aspectos clave: la transparencia, la rendición de cuentas y la protección de datos son áreas que deben ser abordadas para garantizar que la IA en el derecho se implemente de manera justa y ética. El ámbito jurídico requiere una evolución en la formación de los profesionales del derecho, así como un marco regulatorio que garantice la integridad de la justicia con la participación de la IA, pero no al revés, al menos por el momento, considerando la equivalencia de la justicia indígena con la ordinaria
Para la implementación de los puntos anteriores, si no se establecen protocolos diligentes en los sistemas de IA relativos a la conservación, la mejora, entendimiento, fomento, administración y acceso al patrimonio cultural material, documental e inmaterial de las comunidades, como por ejemplo los idiomas indígenas del Ecuador, que es el medio de comunicar su cosmovisión, se reforzará la exclusión de estas lenguas contribuyendo a su extinción, en igual forma que sus conocimientos únicos sobre biodiversidad, prácticas sostenibles y cultura inmaterial provocando, indirectamente, la limitación de la capacidad de la IA para contribuir a la sostenibilidad cultural y ambiental.
Finalmente, la profesión del abogado en el futuro está seriamente comprometida si el profesional no se acerca a la tecnología emergente actualmente de la IA. Sin embargo, los elevados costes de la IA como el Chatgpt Plus con un precio de 22 USD mensuales, impide su generalización, siendo inalcanzable para las comunidades indígenas del Ecuador.
8. BIBLIOGRAFÍA
Aletras, N., Tsarapatsanis, D., Preoţiuc-Pietro, D., & Lampos, V. (2016). Predicting judicial decisions of the European Court of Human Rights: A Natural Language Processing perspective. PeerJ Computer Science, 2, e93. https://doi.org/10.7717/peerj-cs.93
Alexandre Rodríguez, L. (1984). Política y poder en el Ecuador, 1830-1925. Revista Quinto Centenario, 7.
Anaya, J. (2005). Los pueblos indígenas en el derecho internacional. Madrid: Editorial Trotta.
Ashley, K. D. (2017). Artificial intelligence and legal analytics: New tools for law practice in the digital age. Cambridge University Press.
Barocas, S., & Selbst, A. (2016). Big data's disparate impact. California Law Review, 104(3), 671–732. https://doi.org/10.15779/Z38BG31
Bello, Á., & Rangel, M. (2002). La equidad y la exclusión de los pueblos indígenas y afrodescendientes en América Latina y el Caribe. Revista de la CEPAL, 76.
Bench-Capon, T., & Sartor, G. (2003). A model of legal reasoning with cases incorporating theories and values. Artificial Intelligence, 150(1-2), 97–143. https://doi.org/10.1016/S0004-3702(03)00108-5
Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. In Proceedings of the 2018 Conference on Fairness, Accountability, and Transparency. https://doi.org/10.1145/3287560.3287585
Calderón Marenco, E., Torres Buelvas, J. E., González Rivera, T. V., Iriarte, J. L. Á., & Mena Mosqueda, M. (2023). Online dispute resolution (ODR): Estándares éticos en el ciberespacio. REEI, 46. https://doi.org/10.36151/reei.46.18
Casey, A., & Niblett, A. (2017). The death of rules and standards. Indiana Law Journal, 92.
Chambers, R., Pacey, A., & Thrupp, L. A. (1989). Farmer first: Farmer innovation and agricultural research. London: Intermediate Technology Publications. En Leach, M., Scoones, I., & Stirling, A. (2010). Dynamic sustainabilities: Technology, environment, social justice. NY: Earthscan.
Chisaguano, S. (2006). La población indígena del Ecuador. Análisis de estadísticas sociodemográficas. Quito: INEC.
Corporación de Asociaciones de la Chakra Amazónica. (2023). La Chakra Amazónica, un sistema agroforestal tradicional gestionado por comunidades indígenas en la provincia de Napo – Ecuador. Napo: SIPAM.
Couldry, N., & Mejias, U. (2018). Data colonialism: Rethinking big data’s relation to the contemporary subject. LSE Research Online. https://eprints.lse.ac.uk/89511/
Cultural Survival. (2023). La inteligencia artificial y las realidades de los pueblos indígenas. https://www.culturalsurvival.org/es/publications/cultural-survival-quarterly/la-inteligencia-artificial-y-las-realidades-de-los-pueblos
Dávalos, P. (2005). Movimientos indígenas en América Latina: El derecho a la palabra. En AA.VV. Pueblos indígenas, estado y democracia. Buenos Aires: CLACSO.
De Azevedo Gonzaga, A. L. T., & Labruna, F. (2021). Normaticidio indígena. Revista CartaCapital, 1,158.
De Sousa Santos, B. (2014). Epistemologies of the South: Justice against epistemicide. NY: Routledge.
Difusión con Causa. (2023). UNESCO lanza informe y guías para salvaguardar soberanía de datos indígenas en la inteligencia artificial. https://difusionconcausa.com
Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608. https://doi.org/10.48550/arXiv.1702.08608
Dussel, E. (1994). El encubrimiento del otro. Quito: Editorial Abya Yala.
Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press.
Escobar, A. (2014). Sentipensar con la tierra: Nuevas lecturas sobre desarrollo, territorio y diferencia. Medellín: Ediciones UNAULA.
Escobar, A. (2018). Designs for the pluriverse: Radical interdependence, autonomy, and the making of worlds. Durham and London: Duke University Press.
Floridi, L. (2023). The ethics of artificial intelligence: Principles, challenges, and opportunities. Oxford University Press.
Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review. https://doi.org/10.2139/ssrn.3831321
Fricker, M. (2007). Epistemic injustice: Power and the ethics of knowing. Oxford University Press.
Ginés de Sepúlveda, J. (1987). Tratado sobre las justas causas de la guerra contra los indios. México: Fondo de Cultura Económica.
González Zepeda, L. E., & Martínez Pinto, C. E. (2023). Inteligencia artificial centrada en los pueblos indígenas: Perspectivas desde América Latina y el Caribe. Montevideo: UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000387814
Haraway, D. (1988). Situated knowledges: The science question in feminism and the privilege of partial perspective. Feminist Studies, 14(3), 575–599. https://www.jstor.org/stable/3178066
Kovach, M. (2009). Indigenous methodologies: Characteristics, conversations, and contexts. Toronto: University of Toronto Press.
Leach, M., Scoones, I., & Stirling, A. (2010). Dynamic sustainabilities: Technology, environment, social justice. NY: Earthscan.
Ley Orgánica de Protección de Datos Personales (LOPD). (2021). Registro Oficial Suplemento 459, 26 de mayo de 2021. https://www.finanzaspopulares.gob.ec/wp-content/uploads/2021/07/ley_organica_de_proteccion_de_datos_personales.pdf
Mignolo, W. (2011). The darker side of western modernity: Global futures, decolonial options. Durham: Duke University Press.
Moeve. (2024, 26 de septiembre). Una nariz con inteligencia artificial es capaz de detectar incendios forestales antes que nadie. https://www.moeveglobal.com/es/planet-energy/innovacion-sostenible/prevencion-incendios-nariz-ia-deteccion-fuego
Montenegro, A. (2006). La frase “esto es papel mojado.” Centro Virtual Cervantes. https://cvc.cervantes.es/el_rinconete/anteriores/febrero_06/23022006_01.htm
Morán Martín, R. (2011). Tradiciones y rupturas en el derecho de las Independencias. En Peña González, M. A. (Coord.), El Mundo Iberoamericano antes y después de las Independencias: Actas del V Simposio Internacional del Instituto de Pensamiento Iberoamericano. Salamanca: Universidad Pontificia de Salamanca.
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NY Press.
Nieva, J. (2018). Inteligencia artificial y proceso judicial. Marcial Pons.
O’Neil, C. (2016). Weapons of math destruction. Crown Publishing.
Prieto, M. (2004). Liberalismo y temor: Imaginando los sujetos indígenas en el Ecuador postcolonial 1895-1950. FLACSO Ecuador y Abya Yala.
Quijano, A., & Ennis, M. (2000). Coloniality of power, eurocentrism, and Latin America. Nepantla: Views from South, 1(3), 533-580. https://muse.jhu.edu/article/23906
Real Academia Española. (n.d.). Inteligencia artificial. Diccionario de la lengua española (23.ª ed.). Recuperado de https://dle.rae.es
Remus, D., & Levy, F. (2016). Can robots be lawyers? Computers, lawyers, and the practice of law. Georgetown Journal of Legal Ethics, 30(3).
Richards, P. (1985). Indigenous agricultural revolution: Ecology and food production in West Africa. Hutchinson. Citado en Leach, M., Scoones, I., & Stirling, A. (2010). Dynamic sustainabilities: Technology, environment, social justice. Earthscan.
Smith, L. T. (2008). Decolonizing methodologies: Research and indigenous people. Otago Press.
Stavenhagen, R. (1988). Derecho indígena y derechos humanos en América Latina. Instituto Interamericano de Derecho Humanos.
Soria Olivas, E., et al. (2023). Sistemas de aprendizaje automático. Ra-ma.
Susskind, R. (2013). Tomorrow’s lawyers: An introduction to your future. Oxford University Press.
Susskind, R. (2020). Online courts and the future of justice. Oxford University Press.
Thompson, J., & Scoones, I. (2009). Addressing the dynamics of agri-food systems: An emerging agenda for social science research. Environmental Science and Policy, 12. Citado en Leach, M., Scoones, I., & Stirling, A. (2010). Dynamic sustainabilities: Technology, environment, social justice. Earthscan.
UNESCO. (2023). Inteligencia artificial centrada en los pueblos indígenas: Perspectivas desde América Latina y el Caribe. Montevideo.
UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. Recuperado de https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
UNESCO COMEST. (2019, febrero 29). Preliminary study on the ethics of artificial intelligence. Recuperado de https://unesdoc.unesco.org/ark:/48223/pf0000367823
Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, 7(2). https://doi.org/10.1093/idpl/ipx005
Wray Espinosa, A. (2002). Justicia indígena: Sus límites constitucionales. Revista IURIS DICTIO, 3(6).
Zarsky, T. (2016). The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness in automated and opaque decision making. Science, Technology, and Human Values, 41(1).
This work is licensed under a Creative
Commons Attribution 3.0 Unported License
[1] FPI postdoctoral en el Departamento de Servicios Sociales y Fundamentos Histórico-jurídicos de la Facultad de Derecho de la UNED de Madrid. Doctor con Mención Internacional en Derecho y Ciencias Sociales con la calificación de sobresaliente Cum Laude con propuesta de premio extraordinario. Ganador de una beca predoctoral en 2018 y una estancia de investigación internacional de movilidad internacional del Banco Santander en 2022, tres libros publicados y numerosas publicaciones. La trayectoria investigadora se ha realizado en la UNED y en la Universidad Nacional de Chimborazo (UNACH) de Ecuador con cuatro estancias internacionales en 2022, 2023 y 2024. Ha participado como jurado calificador y como comité científico en la I Feria Científica “Fernando Daquilema Guamán” en enero de 2023. Ha investigado en el Centro I+D de la UNACH las necesidades de las nacionalidades indígenas con el fin crear un programa marco dirigido al Gobierno del Ecuador que garantice los derechos de atención prioritaria de estos pueblos en las provincias de Chimborazo, Tungurahua, Cotopaxi y Pastaza (Amazonía).
[2] GINÉS DE SEPÚLVEDA, J. Tratado sobre las justas causas de la guerra contra los indios. Fondo de Cultura Económica, México, 1987, pp. 11-12.
[3] DÁVALOS, P., “Movimientos indígenas en América Latina: El derecho a la palabra”, AA.VV. Pueblos indígenas, estado y democracia. Buenos Aires, CLACSO, 2005, p. 24.
[4] Investigación realizada en el mes de diciembre de 2023 en la Zona 3 del Ecuador.
[5] COULDRY, N. & MEJIAS, U.,” Data colonialism: rethinking big data’s relation to the contemporary subject”, LSE Research Online, julio 2018, p. 1. Traducido del inglés.
[6] ESCOBAR, A., Designs for the pluriverse: Radical interdependence, autonomy, and the making of worlds. Durham and London: Duke University Press, 2018, p. 121. Traducido del inglés.
[7] Noble, S. U., Algorithms of oppression : How search engines reinforce racism. NY Press, 2018, p. 21. Traducido del inglés.
[8] ESCOBAR, A., Sentipensar con la tierra: Nuevas lecturas sobre desarrollo, territorio y diferencia, Medellín: Ediciones UNAULA, 2014, pp. 129-130.
[9] MIGNOLO, W., The darker side of western modernity: Global futures, decolonial options, Durham: Duke University Press, 2011, p. 157. Traducido del inglés.
[10] Pueblo Puruhá (Cachas, Coltas, Lictos, Guamotis) el día 11 de diciembre de 2023; Provincia de Cotopaxi: Pueblo Panzaleo el día 12 de diciembre de 2023; Provincia de Pastaza: Pueblos Kichwa Amazonia, Huaorani, Achuar, Shuar los días 13 al 15 de diciembre de 2023; Provincia de Tungurahua: Pueblo Chibuleo, Kisapincha y Salasaka los días 18 al 19 de diciembre de 2023.
[11] HARAWAY, D., “Situated knowledges: The science question in feminism and the privilege of partial perspective”, Feminist Studies, vol 14, nº 3, 1988, pp. 575–599, p. 589. Traducido del inglés.
[12] Aunque parezca surgido del código civil, el origen de expresión es literario. El fabulista parece recurrir al dicho cuando se le traba la lengua y ha de rubricar el final de su historia. En este punto, lo mismo le sirve a ese cuentista decir colorín, colorado que eran de papel, y mojóse y acabóse. Esa era, justamente, la fórmula usada por ciertos relatores del siglo XVII, y con ella remataban su ingenioso discurso a la espera del siguiente.
[13] NIEVA, J., Inteligencia artificial y proceso judicial, Marcial Pons, Madrid, 2018, p. 57.
[14] BENCH-CAPON, T., & SARTOR, G., “A model of legal reasoning with cases incorporating theories and values”, Artificial Intelligence, vol. 150, nº. 1-2, 2003, pp. 115-116. Traducido del inglés.
[15] BAROCAS, S., & SELBST, A., “Big data's disparate impact”, California Law Review, vol. 104, nº. 3, 2016, p. 674. Traducido del inglés.
[16] Término “papel mojado” explicado en la cita nº 11.
[17] Entrevistas realizadas del 11 al 18 de diciembre de 2023 a las comunidades indígenas de la Zona 3 del Ecuador.
[18] ESCOBAR, A., Designs for the Pluriverse…, p. 212. Traducido del inglés.
[19] LEACH, M., & SCOONES, I., STIRLING, A., Dynamic Sustainabilities Technology, Environment, Social Justice, earthscan, NY, 2010, p. 125.