sábado, 4 de abril de 2020

Críticas al deep learning


En general, las críticas que expertos y científicos hacen del deep learning son bastante parecidas, coincidiendo en varios puntos.

La primera de ellas: las decisiones tomadas mediante el aprendizaje profundo no son transparentes. El hecho de que haya miles de neuronas conectadas entre ellas y trabajando convierte a la toma de decisiones en una especie de caja negra. No es como en la programación mediante código que podemos analizar todo el proceso, aquí el razonamiento que se ha seguido no es del todo accesible para nosotros. No hay una justificación clara de por qué los datos que se obtienen como respuesta son exactamente esos. Por este motivo, aunque las redes neuronales son ampliamente usadas por, por ejemplo, entidades bancarias, utilizan también otros sistemas como los Sistemas Experto en cuanto a la evaluación de riesgos.

Otro de sus grandes problemas consiste en la cantidad de datos que necesita para poder funcionar. Para intentar solucionar esto, se están poniendo en práctica bibliotecas de deep learning, ya que lo que este tipo de redes necesita para aprender son ejemplos y más ejemplos; y si no tenemos los suficientes probablemente no alcancemos buenos resultados. Esto conlleva otros dos problemas más: primero, la cantidad de tiempo que se necesita para enseñar a este tipo de sistemas de aprendizaje profundo puede ser mayor que el requerido para otros; y segundo, la exigencia respecto a la capacidad de procesamiento.

Deep Mind, el sistema que Google creó para poder ganar en un juego de go (un juego oriental de estrategia, más complicado que el ajedrez), muestra cómo el deep learning no se adapta bien a los cambios. Lo que ocurrió fue que Deep Mind, practicando contra sí mismo, jugaba en un tablero con unas medidas determinadas, sin darse cuenta de que el tamaño del tablero no es el mismo en cada partida. Con un tablero de nuevas dimensiones, todo el anterior aprendizaje no servía. Esto pone de relieve la falta de cambios adaptativos, la dificultad para desenvolverse sin unas reglas concretas que marquen todas las pautas de acción.

Surgen también ciertos problemas cuando queremos aplicar el aprendizaje profundo al habla o a la comunicación humana. Al no distinguir las diferentes relaciones entre componentes, pone todos en el mismo nivel. Esto se ve en el análisis de oraciones, donde las subordinadas no son fácilmente distinguibles al no establecer el deep learning una jerarquía. También son complicadas para él las inferencias abiertas, el tener que adivinar intenciones o ideas ocultas que no se expresan claramente. 
 Además, esto no es tanto una crítica sino más un punto débil: la calidad de los resultados que el deep learning aporta depende directamente con la calidad y los detalles que tuviera su programación. Los errores en este primer punto pueden invalidar el resultado entero. Un ejemplo aquí, sobre fallos en el análisis de terremotos y cómo se gestionaron.


Una crítica interesante se basa en la fama que se ha creado alrededor de las palabras  “inteligencia artificial”, la cual, según Arvind Narayanan, profesor de informática de Princeton, se utiliza como propaganda sin estar realmente a la altura de lo que se vende, aunque muchos de estos sistemas utilicen el deep learning. Lo que Narayanan explica es que cuando se tienen que analizar datos sobre temas sociales, es mucho más fácil que este tipo de IA no nos de los resultados óptimos. Pone el ejemplo de algunos programas de reconocimiento de imagen que ciertas empresas usan para elegir o descartar a posibles candidatos en base a su postura corporal o la velocidad con la que habla, y se lamenta de que las secciones de recursos humanos de las empresas sean tan crédulas como para aceptar este tipo de programas, solo por el renombre de la Inteligencia Artificial. 

Estas posturas de Narayanan son criticadas aquí, aunque esto ya sea una contracrítica a las críticas sobre el aprendizaje profundo. Ben Taylor apunta que, respecto al ejemplo de los programas de reconocimiento de imagen para seleccionar candidatos a un puesto, la selección humana y no la IA se puede dejar llevar por ideas inconscientes que todos llevamos dentro; en concreto habla sobre el racismo en este artículo, el cual me ha parecido muy interesante.



Por todos estos motivos, muchos expertos no consideran el aprendizaje profundo como el éxito definitivo en cuanto a IA sino que creen que se encontrarán nuevas ideas y soluciones también basadas en el cerebro humano, pero de las cuales el deep learning será solo una parte.

No hay comentarios:

Publicar un comentario