No hace tanto tiempo que nos hubiera parecido ciencia ficción, pero los proyectos a través de inteligencia artificial han llegado para quedarse y hoy en día son una realidad.
La inteligencia artificial, según Wikipedia, fue una expresión acuñada por John McCarthy en 1956 y se podría decir que es un proceso por el que un ordenador realiza tareas como, por ejemplo: «percibir», «razonar», «aprender» y «resolver problemas».
Hace unos meses leí que China y Estonia se encuentran a la cabeza del desarrollo de “jueces virtuales” basados en la Inteligencia Artificial (IA).
El gigante asiático presentó recientemente un robot-juez, de apariencia femenina, con expresiones faciales, voz y gestos y que incluso respira, la cual resolverá litigios simples, aunque en una primera fase funcionará de apoyo a los jueces de verdad. Las partes presentan sus demandas y sus pruebas en formato digital y con ellos el juez de inteligencia artificial, analizará la documentación y, en una primera fase, ayudará a emitir una sentencia.
El sistema está dotado de un algoritmo de custodia que garantiza que las pruebas no son alteradas y puede consultar online miles de casos de jurisprudencia que le ayuden a tomar decisiones.
Por otra parte, en Estonia, uno de los tres países bálticos, con una población de 1,3 millones de habitantes, se ha puesto a la cabeza de la investigación en lo que allí han denominado “jueces robots” de los que se espera, en esencia, lo mismo que en China.
De hecho, se espera que sus jueces de inteligencia artificial comiencen a operar a finales de este año en la resolución de demandas de cantidad hasta un máximo de 7.000 euros.
A grandes rasgos, el sistema funciona de la misma forma que la de los chinos; se podrán acelerar cientos de casos retrasados y si alguna de las partes disiente con el resultado siempre se podrá presentar un recurso ante un juez humano.
Los defensores de este proyecto afirman que el uso de algoritmos conlleva mejoras de eficiencia, rapidez y seguridad ya que se eliminan los aspectos subjetivos que pueden afectar a la toma de decisiones; para ellos se elimina la posibilidad de interferencia de prejuicios o creencias.
Sin embargo, la aplicación de esta tecnología, plantea peligros éticos y limitaciones técnicas en cuanto a cómo se construye el algoritmo, pues el propio programador puede incorporarle sus propios sesgos aún de manera inconsciente. Y este es uno de los retos pendientes más importantes dada la repercusión que puede tener en la vida de las personas.
Es más, existe el peligro de la manipulación del propio algoritmo que programa el robot para conseguir un efecto determinado. Así sucedió con Tay, un robot que tardó más en aprender a mantener una conversación que en ser retirada del mercado; fue creado por Microsoft para Twitter en 2016, bajo el nombre de usuario @TayandYou, como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos
Se trataba de un programa informático diseñado para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años, según explicó la compañía en su página web. Pero la gran apuesta del gigante tecnológico en la inteligencia artificial, acabó convirtiéndose en un fracaso estrepitoso ya que bastó un solo día para que los usuarios de Twitter lograran que Tay acabara convertido en un algoritmo neonazi racista y enloquecido por el sexo.
Otro caso a comentar es el algoritmo COMPAS utilizado en los juzgados estadounidenses desde 1998; se trata de un sofisticado algoritmo al que se atribuye la capacidad de predecir la probabilidad de que un delincuente vuelva a delinquir en el futuro. Este software, tiene como objetivo predecir el riesgo de que un acusado cometa un delito dentro de los dos años posteriores a su evaluación teniendo en cuenta 137 parámetros diferentes del individuo, entre los que se encuentran sus antecedentes penales.
Sin embargo, entregar el control de algo tan crucial como el futuro de la vida de una persona a las máquinas puede resultar peligroso, porque, según los resultados de un nuevo análisis el algoritmo falla tanto como una persona elegida al azar y que tenga pocos o ningún conocimiento en el ámbito criminalístico. Y es que, aunque los parámetros empleados por COMPAS no incluyen la raza de los sujetos, otros de los datos que recopila y que están correlacionados con esta característica conducen a que el algoritmo pueda caer en un sesgo racista por el que se ven perjudicados los individuos afroamericanos.
Para terminar, quiero hablar de una coalición llamada The Public Voice, establecida en 1996 por el Centro de Información de Privacidad Electrónica (EPIC, siglas en Ingles) que promueve la participación pública en decisiones relativas al futuro de Internet, y abordó diversos temas, desde privacidad y libertad de expresión hasta protección al consumidor y gobernanza de Internet. «Directrices universales para la Inteligencia Artificial» es el nombre del trabajo publicado en su portal, en él intervinieron sociedades científicas, grupos de reflexión, ONG y organizaciones internacionales. Si bien el concepto de Inteligencia Artificial es amplio e impreciso, considera aspectos de aprendizaje automático, toma de decisiones según reglas y otras técnicas de computación. El debate actual incluye la disputa sobre si la IA es posible. Considerando este contexto, las directrices deben incorporar estándares éticos, adaptarse a normativas nacionales, acuerdos internacionales e incorporar diseño de sistemas.
Directrices universales para la IA
1. Derecho a la transparencia. Toda persona tiene derecho a conocer la base de una decisión de IA que les concierne, incluye el acceso a los factores, la lógica y las técnicas que produjeron el resultado.
2. Derecho a la determinación humana. Toda persona tiene derecho a una determinación final hecha por una persona.
3. Obligación de identificación. La institución responsable de un sistema de IA debe darse a conocer al público.
4. Obligación de imparcialidad. Las instituciones deben garantizar que los sistemas de IA no reflejen un sesgo injusto ni tomen decisiones discriminatorias inadmisibles.
5. Evaluación y obligación de rendición de cuentas. Un sistema de IA debe implementarse solo después de una evaluación adecuada de su propósito y objetivos, sus beneficios y sus riesgos. Las instituciones deben ser responsables de las decisiones tomadas por un sistema de IA.
6. Exactitud, confiabilidad y obligaciones de validez. Las instituciones deben garantizar la exactitud, confiabilidad y validez de las decisiones.
7. Obligación de calidad de los datos. Las instituciones deben establecer la procedencia de los datos y garantizar la calidad y relevancia para la entrada de datos en los algoritmos.
8. Obligación de seguridad pública. Las instituciones deben evaluar los riesgos de seguridad pública que surgen del despliegue de sistemas de IA que dirigen o controlan dispositivos físicos, e implementan controles de seguridad.
9. Obligación de ciberseguridad. Las instituciones deben proteger los sistemas de IA contra las amenazas de ciberseguridad.
10. Prohibición de perfiles secretos. Ninguna institución establecerá o mantendrá un sistema secreto de perfiles.
11. Prohibición de puntuación unitaria. Ningún gobierno nacional establecerá o mantendrá una puntuación de propósito general en sus ciudadanos o residentes.
12. Obligación de terminación. Una institución que ha establecido un sistema de IA tiene una obligación afirmativa de terminar el sistema si ya no es posible el control humano del sistema.