Algoritmos y Derechos Humanos

28 de Mayo del 2021
Algoritmos y Derechos Humanos

Palabras clave: Algoritmos, Covid-19, derechos humanos, inteligencia artificial.

Con motivo de la pandemia del Covid-19, desde el 2020 en el mundo se ha incrementado el uso del internet, debido a que millones de personas han debido guardar cuarentenas obligatorias y/o voluntarias en casa. Con las consecuencias que la pandemia ha tenido en la vida laboral, comercial, educativa, recreativa, y sanitaria, entre otras, se ha incrementado el uso de las computadoras, portátiles, tabletas y celulares inteligentes; para buscar, registrar, procesar, recibir y transmitir información. 

Estas circunstancias han estrechado la relación de las personas con sus equipos tecnológicos, generando un impacto en el mercado de las nuevas tecnologías por el desarrollo de nuevos equipos, programas y servicios informáticos, como por el alza de la demanda de plataformas, programas y conectividad. Como consecuencia de ello, las personas en sus relaciones con el mercado y el Estado han registrado cada vez más sus datos personales de forma electrónica y/o biométrica, para obtener un documento de identidad, un pasaporte, proceder a pagar impuestos, interponer una demanda judicial, realizar una compra online o solicitar un servicio de taxi por aplicativos, entre otras.

El desarrollo de estos y demás servicios se basa en la inteligencia artificial que permite que un algoritmo se exprese en un lenguaje de programación para realizar esas actividades registradas y procesadas por máquinas inteligentes –computadoras, Smartphone, tablets, etc.-. Es decir que una máquina reemplaza las funciones cognitivas de los funcionarios del Estado o los empleados de las empresas maximizando sus objetivos y tareas. Así, en este proceso, las máquinas inteligentes sustituyen a las capacidades humanas para percibir, razonar, decidir, aprender y resolver problemas; interpretando adecuadamente los datos captados y procesados. 

El peligro para el Estado de Derecho y los derechos humanos es que el proceso de recolección, procesamiento y resultado de datos, se ajustan únicamente a criterios tecnológicos, sin considerar el marco constitucional e internacional de los derechos humanos. De allí que, se vengan produciendo afectaciones y violaciones a los derechos fundamentales en el mundo –como en los casos que se comentan más adelante-, en la medida que no existen fundamentos      y/o límites al desarrollo tecnológico y en particular de los algoritmos. Pero, en el fondo no son los algoritmos en sí mismos, sino los procesos de toma de decisiones en torno a los algoritmos los que deben ser analizados en términos de cómo afectan los derechos fundamentales.

Por ello, en un Estado de Derecho el uso de los algoritmos, en el marco del desarrollo de la inteligencia artificial, debe contar con una regulación básica para cautelar los derechos humanos. Así, en Australia y Nueva Zelanda se ha establecido que las “máquinas tragamonedas” deben contender algoritmos “justos, seguros y auditables”; de modo que, los desarrolladores de tales máquinas deben enviar sus sistemas algorítmicos a los reguladores antes de que puedan ser presentados a los consumidores.

En los Estados Unidos en el caso State v. Loomis , 2016, la Corte Suprema de Wisconsin revisó la sentencia condenatoria de seis años de prisión de Loomis, por cuanto el juzgado aplicó referencialmente una herramienta basada en algoritmos para la evaluación de riesgos en base a  perfiles de gestión de delincuentes correccionales para sanciones alternativas (Correctional Offender Management Profiling for Alternative Sanct –COMPAS–), por su participación en un tiroteo. Si bien la Corte  confirmó la sentencia, señaló en relación al uso de dicho sistema COMPAS que: 1. Se desconocían los factores de riesgo exactos utilizados; 2. La identificación de los grupos de alto riesgo no brinda un perfil determinante para individuos específicos; 3. Algunos datos podrían tener prejuicios raciales; 4. No había sido validado o normalizado en una muestra de Wisconsin; y 5. No había sido desarrollado para su uso en una sentencia.

En China, los algoritmos se vienen implementando a través de las “Cortes de Internet” con el uso de jueces robots diseñados con inteligencia artificial para resolver disputas sobre comercio electrónico y propiedad intelectual, mediante el uso de la tecnología del blockchain      que almacena evidencia segura y evita el uso del papeleo. Lo anterior, bajo la premisa de que la justicia demorada es justicia negada”. Más aún, un Tribunal de Nanshan de la provincia de Guangzhou reconoció derechos de autor a un artículo escrito por un algoritmo dreamwritter de inteligencia artificial  desarrollado por la empresa Tencen y, la Corte de Internet de Beijing reconoció el derecho de propiedad intelectual a la “creación” de un software hecho por inteligencia artificial gracias a la  información acumulada en bases de datos.

En Holanda, un tribunal de La Haya dictó un fallo en el 2020, anulando la recopilación de datos y la elaboración de perfiles de riesgo de ciudadanos para detectar fraudes a la seguridad social a través de SyRI (System Risk Indication). Este instrumento legal se usa para combatir el fraude en áreas como la seguridad social y los impuestos; para lo cual recopila datos sobre ingresos, pensiones, seguros, tipo de vivienda, impuestos, multas, integración, educación, deudas o prestación por desempleo de los contribuyentes para luego calcular, con base en      algoritmos, quién tiene más probabilidades de defraudar a la Administración

Estos perfiles de riesgo de los ciudadanos se obtienen      a través      de algoritmos. En otras palabras, el sistema va delineando qué ciudadanos tienen más probabilidades de cometer fraude. Ahora bien, el tribunal de La Haya señaló que el sistema de SyRI no cumplía con los requisitos del artículo 8, párrafo 2 del Convenio Europeo de Derechos Humanos sobre el respeto de la privacidad, para justificar la recopilación e intercambio mutuo de datos personales.

Un tribunal italiano de Bolonia en el 2019 determinó que el algoritmo utilizado por la aplicación europea de entrega de alimentos Deliveroo para clasificar y ofrecer turnos a los trabajadores temporales era discriminatorio. Lo anterior, por cuanto el algoritmo determinaba la “confiabilidad” de un ciclista que trabaja para la empresa, con fundamento en la existencia o no de cancelaciones de turnos previamente reservados a través de la aplicación al menos 24 horas, sin considerar que podía deberse a una emergencia o enfermedad grave, en cuyo caso tendrían menos oportunidades de trabajo en el futuro. El hecho de que el algoritmo no tenga en cuenta los motivos de una cancelación equivale a una discriminación y penaliza injustamente a los trabajadores con motivos legalmente legítimos para no trabajar; por eso, el tribunal y ordenó a Deliveroo pagar 50.000 € a los demandantes.

Los derechos humanos son universales, indivisibles, interdependientes e interrelacionados;      pero, en la actualidad se ven potencialmente desintegrados por el uso de tecnologías en particular algorítmicas. Ello debido a que, la inteligencia artificial involucra tecnología que percibe elementos de su propio entorno humano –incluidos los valores y prejuicios-, con la esperanza de lograr con éxito algún objetivo específico, generalmente a través de la réplica de al menos una de las cuatro nociones de inteligencia: desempeño humano, razonamiento, procesos de pensamiento o en la búsqueda de una noción idealizada de racionalidad.     

Por eso, el Estado de Derecho como garante del interés general, sin perjuicio de los legítimos intereses de los Estados y de las empresas proveedoras de plataformas digitales, debe asegurar tanto las creaciones y el desarrollo del internet en beneficio de todos, como también,      regular los algoritmos en aras de proteger los derechos de la persona humana y el respeto de su dignidad. 

Citación académica sugerida: Landa, César: Algoritmos y Derechos Humanos, Agenda Estado de Derecho, 2021/05/28, https://agendaestadodederecho.com/algoritmos-y-derechos-humanos

Comparte este artículo en...
Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp
ACERCA DEL AUTOR
César Landa

Ex Presidente del Tribunal Constitucional del Perú. Profesor de Derecho Constitucional en la Pontificia Universidad Católica del Perú.

Artículos Relacionados