En general, las críticas que
expertos y científicos hacen del deep learning son bastante parecidas,
coincidiendo en varios puntos.
La primera de ellas: las
decisiones tomadas mediante el aprendizaje profundo no son transparentes. El
hecho de que haya miles de neuronas conectadas entre ellas y trabajando convierte
a la toma de decisiones en una especie de caja negra. No es como en la programación
mediante código que podemos analizar todo el proceso, aquí el razonamiento que
se ha seguido no es del todo accesible para nosotros. No hay una justificación
clara de por qué los datos que se obtienen como respuesta son exactamente esos.
Por este motivo, aunque las redes neuronales son ampliamente usadas por, por
ejemplo, entidades bancarias, utilizan también otros sistemas como los Sistemas
Experto en cuanto a la evaluación de riesgos.
Otro de sus grandes
problemas consiste en la cantidad de datos que necesita para poder funcionar.
Para intentar solucionar esto, se están poniendo en práctica bibliotecas de deep
learning, ya que lo que este tipo de redes necesita para aprender son
ejemplos y más ejemplos; y si no tenemos los suficientes probablemente no
alcancemos buenos resultados. Esto conlleva otros dos problemas más: primero, la
cantidad de tiempo que se necesita para enseñar a este tipo de sistemas de
aprendizaje profundo puede ser mayor que el requerido para otros; y segundo, la
exigencia respecto a la capacidad de procesamiento.
Deep Mind, el sistema que Google creó para poder ganar en un
juego de go (un juego oriental de estrategia, más complicado que el ajedrez),
muestra cómo el deep learning no se adapta bien a los cambios. Lo que
ocurrió fue que Deep Mind, practicando contra sí mismo, jugaba en un tablero
con unas medidas determinadas, sin darse cuenta de que el tamaño del tablero no
es el mismo en cada partida. Con un tablero de nuevas dimensiones, todo el
anterior aprendizaje no servía. Esto pone de relieve la falta de cambios adaptativos,
la dificultad para desenvolverse sin unas reglas concretas que marquen todas
las pautas de acción.
Surgen también ciertos
problemas cuando queremos aplicar el aprendizaje profundo al habla o a la
comunicación humana. Al no distinguir las diferentes relaciones entre
componentes, pone todos en el mismo nivel. Esto se ve en el análisis de
oraciones, donde las subordinadas no son fácilmente distinguibles al no establecer
el deep learning una jerarquía. También son complicadas para él las
inferencias abiertas, el tener que adivinar intenciones o ideas ocultas que no
se expresan claramente.
Además,
esto no es tanto una crítica sino más un punto débil: la calidad de los
resultados que el deep learning aporta depende directamente con la
calidad y los detalles que tuviera su programación. Los errores en este primer
punto pueden invalidar el resultado entero. Un ejemplo aquí,
sobre fallos en el análisis de terremotos y cómo se gestionaron.
Una
crítica interesante se basa en la fama que se ha creado alrededor de las
palabras “inteligencia artificial”, la
cual, según Arvind
Narayanan, profesor de informática de Princeton, se utiliza como propaganda
sin estar realmente a la altura de lo que se vende, aunque muchos de estos
sistemas utilicen el deep learning. Lo que Narayanan explica es que
cuando se tienen que analizar datos sobre temas sociales, es mucho más fácil
que este tipo de IA no nos de los resultados óptimos. Pone el ejemplo de
algunos programas de reconocimiento de imagen que ciertas empresas usan para
elegir o descartar a posibles candidatos en base a su postura corporal o la
velocidad con la que habla, y se lamenta de que las secciones de recursos
humanos de las empresas sean tan crédulas como para aceptar este tipo de
programas, solo por el renombre de la Inteligencia Artificial.
Estas posturas de Narayanan son criticadas aquí, aunque esto ya sea una contracrítica a las críticas sobre el aprendizaje profundo. Ben Taylor apunta que, respecto al ejemplo de los programas de reconocimiento de imagen para seleccionar candidatos a un puesto, la selección humana y no la IA se puede dejar llevar por ideas inconscientes que todos llevamos dentro; en concreto habla sobre el racismo en este artículo, el cual me ha parecido muy interesante.
Estas posturas de Narayanan son criticadas aquí, aunque esto ya sea una contracrítica a las críticas sobre el aprendizaje profundo. Ben Taylor apunta que, respecto al ejemplo de los programas de reconocimiento de imagen para seleccionar candidatos a un puesto, la selección humana y no la IA se puede dejar llevar por ideas inconscientes que todos llevamos dentro; en concreto habla sobre el racismo en este artículo, el cual me ha parecido muy interesante.
Por
todos estos motivos, muchos expertos no consideran el aprendizaje profundo como
el éxito definitivo en cuanto a IA sino que creen que se encontrarán nuevas ideas
y soluciones también basadas en el cerebro humano, pero de las cuales el deep
learning será solo una parte.
No hay comentarios:
Publicar un comentario