Una de las utilidades, a nivel práctico,
que nos ofrece la Inteligencia Artificial, gracias a lo que llamamos redes
neuronales, es el reconocimiento facial. Antes de estudiar sus implicaciones y
riesgos, desarrollaremos un poco cómo funciona. Mediante un lector capaz de
analizar las características del rostro estas se seleccionan, y dependiendo de
lo que queramos hacer o se comparan con el resto de características faciales de
otras personas dentro de una base de datos o se comparan con los propios datos
que tenía esa persona guardados sobre ella en la base de datos. Este tipo de
programas funcionan ya en nuestra vida diaria: nuestra cámara del móvil nos avisa
si alguien sale parpadeando cuando tomamos una foto, o podemos también activar la
opción de que no se desbloquee si no reconoce nuestra cara en vez de inserta un
PIN; o también se usan como método de seguridad para autorizar la entrada a
determinados lugares o para identificar a sospechosos (esto lo podemos ver en
infinidad de películas policiacas). Todo esto funciona mediante el deep
learning: vamos aportando datos para que el programa pueda relacionarlos e
ir aprendiendo por él solo, identificando las caras aunque se vean desde
distinto ángulos o con distintas expresiones.
Cuando subimos nuestras fotos a redes
sociales, por ejemplo, estamos cediendo nuestros datos no se sabe muy bien a
quién. Cuando marcamos las casillas de que aceptamos las condiciones de uso,
cedemos nuestra privacidad e intimidad sin haber leído en qué ocurrirá. Literalmente no tenemos ni idea de que
absolutamente toda nuestra información es usada por empresas para lucrarse a costa
de nuestro desconocimiento.
Por supuesto, podemos encontrar buenas
intenciones y buenos usos. En redes sociales, se nos puede notificar cuando alguien
sube una foto en la que aparecemos aun sin que esta persona nos avise (así
podemos dar o no nuestro consentimiento para que permanezca ahí). O también hay
sistemas capaces de detectar los síntomas físicos de sueño en un conductor
(movimientos o expresiones faciales) y por tanto mejorar la seguridad al
volante.
Pero después del escándalo de 2018 donde
se utilizaron los datos de las personas con cuenta en Facebook sin su consentimiento
deberíamos al menos estar alerta, ya que Facebook no ha sido el único caso (o
los únicos, más bien, ya que cuenta con varias demandas por las mismas causas).
Cuando Mark Zuckerberg compadeció, no supo o no fue capaz de explicar cómo
funcionaban los algoritmos que recopilaban información para posteriormente ser
usada en campañas electorales como la de Trump; y esta falta de explicación va
en contra del Libro
Blanco sobre la Inteligencia Artificial publicado por la Unión Europea. Y
algo parecido ocurrió también en 2018 cuando se descubrió que el FBI estaba
encubriendo deliberadamente que almacenaba fotos de personas aunque no tuvieran
antecedentes ni formasen parte de ninguna investigación.
En cualquier caso, los programas de
reconocimiento fácil no funcionan actualmente con toda la precisión con la que
podrían, sobre todo si no somos hombres blancos. El Instituto Nacional de Estándares
y Tecnología de EEUU analizó a noventa y nueve grandes desarrolladores, como
Microsoft e Intel, y concluyó que había una tasa de error considerable al
identificar rostros de personas negras, asiáticas o nativas americanas. Esto no
ocurre con los algoritmos desarrollados en países asiáticos, aunque el estudio
no entra a analizar el porqué. Las consecuencias de los falsos positivos en el reconocimiento
facial pueden ir desde fallos en sistemas de seguridad hasta falsas
acusaciones. Otro fallo, este más curioso, se dio en EEUU con el programa Risker,
el cual debía servir para analizar y prevenir hospitalizaciones. El sistema
concluyó que las personas negras norteamericanas requerían menos tratamientos médicos,
cuando la realidad era que llegó a este resultado porque en general cuentan con
peores seguros médicos y peores salarios que las personas blancas, por lo que
hacen menos uso del sistema sanitario.
Actualmente
no faltan ideas ni proyectos para el futuro desarrollo e implantación del reconocimiento
facial a nivel usuario. Se planean supermercados donde la caja se active para
efectuar el cobro mediante el reconocimiento facial (y no hace falta irnos demasiado lejos para
esto, ya que lo planean Nestlé con CaixaBank en el estado español), o donde ocurra lo mismo con los
cajeros automáticos, dejando el PIN como un
sistema del pasado.
No
es difícil imaginarnos un futuro cercano donde la tecnología de reconocimiento facial
esté ampliamente implantada. Algunos medios dicen que, debido a la Crisis del
coronavirus, en China se han utilizado drones y robots capaces de tomar la
temperatura de las personas a distancia y, mediante técnicas de reconocimiento
facial, identificarla. Así, en segundos, se puede saber qué recorrido tiene
derecho a hacer cada uno, además de poder saber si ha estado cerca de otras
personas sanas o contagiadas. Ahora ya tenemos cámaras de seguridad en nuestras
ciudades, pero no sería de extrañar que cada vez más los espacios públicos se
llenen de ellas. Sería muy fácil obtener en poco tiempo información de
cualquier persona que camine por la calle: por qué barrios se mueve, dónde
trabaja, dónde viven sus amigos y familiares…, solo con eso ya se podrían hacer
análisis sobre su situación socioeconómica, ideas políticas, estado sentimental
y un largo etcétera. Y si las empresas acceden a esta información les será muy fácil
adaptar su trato a nosotros de manera que obtengan el mayor beneficio económico
posible porque no seremos más que eso: fuentes de datos sociales gratuitos esperando
a ser analizados.
A
nivel legal, contamos con consejos o recomendaciones para las empresas sobre
qué hacer con toda esta información que recogen, pero todas se quedan en el
marco de la ética: no hay una regulación expresa que permita a los usuarios
exigir el cumplimiento de nada. Y lo que es más, si el coronavirus no hubiese
asaltado el normal desarrollo de los acontecimientos, se iría a haber celebrado
en junio la cumbre de la Organización Mundial del Comercio, donde se pretendían
blindar los algoritmos y el Big Data; es decir, no se podrá exigir a las empresas
que revelen con qué información de los usuarios cuentan.
Las
leyes con las que hemos contado hasta ahora se quedan cortas a la hora de abarcar
todo lo que deberían, no nos garantizan lo necesario, y las empresas más grandes
del mundo como Google o Apple acceden a mucha de nuestra información porque
nosotros mismos se la contamos. ¿Podrían vendérsela a otras empresas? ¿A
empresas que tengan que decidir si nos conceden un préstamo o un seguro médico?
Los
estereotipos sociales son perpetuados por los datos que el deep learning
genera. Quienes programan esto deben darse cuenta de que la tecnología no es
neutra, sino que el programador incluye en ella sus propios bagajes éticos. Y como
el aprendizaje profundo se basa en la información que recoge de la sociedad, no
es una herramienta útil para transformar sus puntos débiles como el racismo o
el machismo, sino que fácilmente los perpetuará.
Fuentes:
García, J.
(2019). Los algoritmos de reconocimiento facial y el sesgo racial: la mayoría
tienen problemas al identificar a personas no caucásicas. Xataka.
Recuperado de aquí.
Gozzer, A.
(2018). Por qué la inteligencia artificial puede ser racista y machista y cómo
puede evitarse. BBC. Recuperado de aquí.
Redacción
de BBC News (2018). El algoritmo de Amazon al que no le gustan las mujeres.
BBC. Recuperado de aquí.
Simón, P.
(2020). El control sin control. La Marea. Recuperado de aquí.
No hay comentarios:
Publicar un comentario