domingo, 12 de abril de 2020

Reconocimiento facial y ética



Una de las utilidades, a nivel práctico, que nos ofrece la Inteligencia Artificial, gracias a lo que llamamos redes neuronales, es el reconocimiento facial. Antes de estudiar sus implicaciones y riesgos, desarrollaremos un poco cómo funciona. Mediante un lector capaz de analizar las características del rostro estas se seleccionan, y dependiendo de lo que queramos hacer o se comparan con el resto de características faciales de otras personas dentro de una base de datos o se comparan con los propios datos que tenía esa persona guardados sobre ella en la base de datos. Este tipo de programas funcionan ya en nuestra vida diaria: nuestra cámara del móvil nos avisa si alguien sale parpadeando cuando tomamos una foto, o podemos también activar la opción de que no se desbloquee si no reconoce nuestra cara en vez de inserta un PIN; o también se usan como método de seguridad para autorizar la entrada a determinados lugares o para identificar a sospechosos (esto lo podemos ver en infinidad de películas policiacas). Todo esto funciona mediante el deep learning: vamos aportando datos para que el programa pueda relacionarlos e ir aprendiendo por él solo, identificando las caras aunque se vean desde distinto ángulos o con distintas expresiones.

Cuando subimos nuestras fotos a redes sociales, por ejemplo, estamos cediendo nuestros datos no se sabe muy bien a quién. Cuando marcamos las casillas de que aceptamos las condiciones de uso, cedemos nuestra privacidad e intimidad sin haber leído en qué ocurrirá.  Literalmente no tenemos ni idea de que absolutamente toda nuestra información es usada por empresas para lucrarse a costa de nuestro desconocimiento.

Por supuesto, podemos encontrar buenas intenciones y buenos usos. En redes sociales, se nos puede notificar cuando alguien sube una foto en la que aparecemos aun sin que esta persona nos avise (así podemos dar o no nuestro consentimiento para que permanezca ahí). O también hay sistemas capaces de detectar los síntomas físicos de sueño en un conductor (movimientos o expresiones faciales) y por tanto mejorar la seguridad al volante.

Pero después del escándalo de 2018 donde se utilizaron los datos de las personas con cuenta en Facebook sin su consentimiento deberíamos al menos estar alerta, ya que Facebook no ha sido el único caso (o los únicos, más bien, ya que cuenta con varias demandas por las mismas causas). Cuando Mark Zuckerberg compadeció, no supo o no fue capaz de explicar cómo funcionaban los algoritmos que recopilaban información para posteriormente ser usada en campañas electorales como la de Trump; y esta falta de explicación va en contra del Libro Blanco sobre la Inteligencia Artificial publicado por la Unión Europea. Y algo parecido ocurrió también en 2018 cuando se descubrió que el FBI estaba encubriendo deliberadamente que almacenaba fotos de personas aunque no tuvieran antecedentes ni formasen parte de ninguna investigación.

En cualquier caso, los programas de reconocimiento fácil no funcionan actualmente con toda la precisión con la que podrían, sobre todo si no somos hombres blancos. El Instituto Nacional de Estándares y Tecnología de EEUU analizó a noventa y nueve grandes desarrolladores, como Microsoft e Intel, y concluyó que había una tasa de error considerable al identificar rostros de personas negras, asiáticas o nativas americanas. Esto no ocurre con los algoritmos desarrollados en países asiáticos, aunque el estudio no entra a analizar el porqué. Las consecuencias de los falsos positivos en el reconocimiento facial pueden ir desde fallos en sistemas de seguridad hasta falsas acusaciones. Otro fallo, este más curioso, se dio en EEUU con el programa Risker, el cual debía servir para analizar y prevenir hospitalizaciones. El sistema concluyó que las personas negras norteamericanas requerían menos tratamientos médicos, cuando la realidad era que llegó a este resultado porque en general cuentan con peores seguros médicos y peores salarios que las personas blancas, por lo que hacen menos uso del sistema sanitario.

Actualmente no faltan ideas ni proyectos para el futuro desarrollo e implantación del reconocimiento facial a nivel usuario. Se planean supermercados donde la caja se active para efectuar el cobro mediante el reconocimiento facial (y  no hace falta irnos demasiado lejos para esto, ya que lo planean Nestlé con CaixaBank en el estado español), o donde ocurra lo mismo con los cajeros automáticos, dejando el PIN como un  sistema del pasado.

No es difícil imaginarnos un futuro cercano donde la tecnología de reconocimiento facial esté ampliamente implantada. Algunos medios dicen que, debido a la Crisis del coronavirus, en China se han utilizado drones y robots capaces de tomar la temperatura de las personas a distancia y, mediante técnicas de reconocimiento facial, identificarla. Así, en segundos, se puede saber qué recorrido tiene derecho a hacer cada uno, además de poder saber si ha estado cerca de otras personas sanas o contagiadas. Ahora ya tenemos cámaras de seguridad en nuestras ciudades, pero no sería de extrañar que cada vez más los espacios públicos se llenen de ellas. Sería muy fácil obtener en poco tiempo información de cualquier persona que camine por la calle: por qué barrios se mueve, dónde trabaja, dónde viven sus amigos y familiares…, solo con eso ya se podrían hacer análisis sobre su situación socioeconómica, ideas políticas, estado sentimental y un largo etcétera. Y si las empresas acceden a esta información les será muy fácil adaptar su trato a nosotros de manera que obtengan el mayor beneficio económico posible porque no seremos más que eso: fuentes de datos sociales gratuitos esperando a ser analizados.

A nivel legal, contamos con consejos o recomendaciones para las empresas sobre qué hacer con toda esta información que recogen, pero todas se quedan en el marco de la ética: no hay una regulación expresa que permita a los usuarios exigir el cumplimiento de nada. Y lo que es más, si el coronavirus no hubiese asaltado el normal desarrollo de los acontecimientos, se iría a haber celebrado en junio la cumbre de la Organización Mundial del Comercio, donde se pretendían blindar los algoritmos y el Big Data; es decir, no se podrá exigir a las empresas que revelen con qué información de los usuarios cuentan.

Las leyes con las que hemos contado hasta ahora se quedan cortas a la hora de abarcar todo lo que deberían, no nos garantizan lo necesario, y las empresas más grandes del mundo como Google o Apple acceden a mucha de nuestra información porque nosotros mismos se la contamos. ¿Podrían vendérsela a otras empresas? ¿A empresas que tengan que decidir si nos conceden un préstamo o un seguro médico?

Los estereotipos sociales son perpetuados por los datos que el deep learning genera. Quienes programan esto deben darse cuenta de que la tecnología no es neutra, sino que el programador incluye en ella sus propios bagajes éticos. Y como el aprendizaje profundo se basa en la información que recoge de la sociedad, no es una herramienta útil para transformar sus puntos débiles como el racismo o el machismo, sino que fácilmente los perpetuará. 



Fuentes: 


García, J. (2019). Los algoritmos de reconocimiento facial y el sesgo racial: la mayoría tienen problemas al identificar a personas no caucásicas. Xataka. Recuperado de aquí.
 
Gozzer, A. (2018). Por qué la inteligencia artificial puede ser racista y machista y cómo puede evitarse. BBC. Recuperado de aquí

Redacción de BBC News (2018). El algoritmo de Amazon al que no le gustan las mujeres. BBC. Recuperado de aquí

Simón, P. (2020). El control sin control. La Marea. Recuperado de aquí.


No hay comentarios:

Publicar un comentario