Argentina aprobó una guía de recomendaciones para una Inteligencia Artificial ética y centrada en las personas

La Subsecretaría de Tecnologías de la Información aprobó las “Recomendaciones para una Inteligencia Artificial Fiable”. Con esta iniciativa, nuestro país busca garantizar el desarrollo responsable y beneficioso de la IA fortaleciendo el ecosistema científico y tecnológico

Argentina se suma así a los esfuerzos internacionales en materia de ética de la IA, tomando en cuenta antecedentes como la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO, la Conferencia de Asilomar, las reuniones del Consejo de Ministros de la OCDE y la reunión ministerial sobre Comercio y Economía Digital del G20. 

El documento, que consta de unas 30 páginas, y está dirigido principalmente a quienes formen parte del sector público, resume una serie de principios éticos que deben guiar el desarrollo e implementación de IA. Luego, elabora ciertas recomendaciones específicas a tener en cuenta en cada etapa del ciclo de vida de estas tecnologías. 

A continuación destacamos las cuestiones que, desde Legal HUB, consideramos más importantes en nuestra misión de brindar asesoramiento, acompañamiento y desarrollo de tecnología de punta a los operadores jurídicos y departamentos legales.

Inteligencia artificial centrada en el ser humano

El documento identifica el enfoque de IA centrada en el ser humano con la exigencia de que los respectivos actores respeten el Estado de Derecho, los derechos humanos y los valores democráticos durante todo el ciclo de vida del sistema de IA. Estos valores incluyen la libertad, la dignidad y la autonomía, la privacidad y la protección de datos, la no discriminación y la igualdad, la diversidad, la equidad, la justicia social y los derechos laborales reconocidos internacionalmente.

En Legal HUB trabajamos con este enfoque en todos nuestros productos y servicios, en la creencia de que poner al humano en el centro, tiene implicancias concretas, específicas y técnicas de gran importancia. Priorizar los derechos de las personas y la ética de los sistemas inteligentes, no implica sujetar la innovación, sino encontrar soluciones disruptivas y sofisticadas que deriven en una inteligencia aumentada

Actualmente, analizamos la implementación de la técnica de aprendizaje por refuerzo a partir de la retroalimentación humana, que además de comprender la reducción de datos y costos necesarios para entrenar un sistema inteligente, permite alinear las salidas del sistema con ciertos criterios introducidos por personas humanas, ubicándolos en el bucle, como se explica a continuación. 

Human-in-the-loop

El documento menciona dos tipos de modelos sobre los que se puede optar para adoptar inteligencia artificial. Uno de ellos es la automatización, en el cual la intervención humana se limita al control del sistema. Este paradigma es el que se encuentra más asociado a la idea de reemplazo de las capacidades de las personas por las nuevas funciones de la IA. 

El segundo es el de human-in-the-loop, que implica la colaboración humano-máquina para resolver problemas. En este, se incluye de manera selectiva la participación de las personas, para aprovechar los beneficios o los aspectos más eficientes de ambos componentes que desemboquen en una solución de inteligencia aumentada. 

Equipos diversos y multidisciplinarios

Antes de comenzar el ciclo de vida de la IA, el documento recomienda conformar equipos diversos y multidisciplinarios. En Legal HUB, siempre hemos sido capaces de percibir y aprovechar los beneficios de nuestro grupo de trabajo, que resulta ser heterogéneo en atención a varios factores. 

Contamos con programadores o científicos de datos, además de abogados o personas cuya formación originaria es la economía o la administración de empresas. Esta convivencia y diálogo constante entre perfiles técnicos y perfiles propios de humanidades nos permiten arribar a soluciones creativas a los problemas que se van presentando.

Por otro lado, los profesionales que integran la empresa trabajan desde distintas provincias de nuestro país e incluso desde países limítrofes. La modalidad de trabajo virtual impulsada por plataformas tecnológicas nos permiten sortear la distancia y trabajar en conjunto. Nuestro equipo, además de ser multigeneracional, está conformado por similar porcentaje de hombres y mujeres, que son capaces de contribuir al desarrollo de soluciones y tomar decisiones en pie de igualdad. 

Por último, nuestra empresa mantiene canales de comunicación constantes con otras instituciones como universidades, la academia, y el empresariado.

Tendencia a antropomorfizar la IA

Cuando se trata de IA, es fácil distraerse con escenarios hipotéticos e imaginar lo que la tecnología podría hacer en el futuro. Pareciera que, cuanto más amarillista, dramático y apocalíptico, mejor; ya sea que hablemos del mercado de trabajo o hasta de una superinteligencia descontrolada, entre otros riesgos que se han planteado.

Estos miedos, se explican en parte, por la tendencia que tenemos las personas de antropomorfizar la IA. ChatGPT y otros modelos de PLN se han vuelto tan buenos imitadores, que dan a los usuarios la ilusión de estar interactuando con algo distinto a un programa informático. Cuando esto ocurre, las expectativas se desajustan. Se alimenta la idea equivocada de que los sistemas de IA son más capaces y sensibles de lo que son, y por lo tanto, que pueden reemplazarnos

Coordinemos un Workshop para entender las necesidades de tu equipo, encontrar las herramientas adecuadas y establecer un roadmap para la transformación digital de tu departamento legal.