

Descubra más de 📬 Newsletter SEO / IA en Español
#32 Filosofía de la Inteligencia Artificial
Esta edición va ser una suerte de monográfico y me he basado en la excelente ponencia que impartió Carlos M. Madrid Casado el día 13 de marzo en la Universidad de Oviedo.
Quiero dedicar esta newsletter por completo a una lección impartida el pasado lunes 13 de marzo en la Escuela de Filosofía de Oviedo (Fundación Gustavo Bueno), bajo el título: “Filosofía de la Inteligencia Artificial”. El ponente fue Carlos M. Madrid Casado, investigador asociado de la Fundación Gustavo Bueno. Licenciado en Matemáticas y Doctor en Filosofía por la Universidad Complutense de Madrid, donde ha ejercido de profesor de Estadística.
Me ha parecido de extraordinario interés y, aunque os pegaré el vídeo hacia el final del texto, he querido tomarme un rato para diseccionar la ponencia (dura en torno a dos horas y otra más de preguntas) para, desde mi humilde altavoz, darla a conocer un poco más si es posible.
En el contexto actual, vivimos abrumados por un tsunami de noticias diarias acerca de las IAs, de las nuevas capacidades que ofrecen y esa cuarta revolución industrial en ciernes que ya oteamos en el horizonte.
Frente a esto, la lección de Carlos M. Madrid nos invita a dar un paso atrás y fijarnos en el cuadro completo, a ser reflexivos en torno a este fenómeno y hacernos preguntas relevantes.
Introducción y estructura de la lección
La exposición que hace Carlos podríamos dividirla en tres grandes bloques: gnoseología, ontología y ética de la Inteligencia Artificial.
Tampoco se olvida de dedicar unos minutos, al inicio de la ponencia, para desmenuzar el famoso “mito de la IA”, una escatología de tintes apocalípticos, con fuertes raíces en la ciencia ficción, impulsada por los transhumanistas y otros futurólogos.
Gnoseología de la IA
Tras una somera pero muy entretenida fase inicial, en la que hace un repaso histórico de la evolución de esta (¿ciencia?) que llamamos Inteligencia Artificial, entramos de lleno en análisis gnoseológico.
Ante la pregunta de si la IA es una ciencia, una técnica o una tecnología, en rigor habría que decir que es una pluralidad de tecnologías, ya que en ella se concitan disciplinas como las matemáticas, la estadística, la informática, ingeniería y otras.
En este plano gnoseológico, hay que decir que todos los esfuerzos de esta tecnología se orientan hacia un mismo fin, esto es, construir una máquina capaz de pasar el test de Turing. En última instancia podríamos establecer que se trata de diseñar artefactos que realicen determinadas tareas con mayor eficacia y eficiencia que el propio ser humano.
Ontología de la IA
Esta parte nuclear es la más densa e interesante -en mi opinión- de la disertación de Carlos.
La pregunta central que nos tenemos que hacer aquí es ¿de qué hablamos cuando nos referimos a Inteligencia y a Artificial?
Según la filosofía espontánea de los especialistas en el campo de la IA, la inteligencia humana puede ser formalizada y reproducida fielmente por una máquina.
Estamos hablando, por tanto, de una visión algorítmica (heredera de Turing) de la inteligencia humana, tanto si se trata de algoritmos lógicos o probabilísticos. A partir de aquí se formulan las diferentes modulaciones que puede tener la IA:
fuerte / débil
general / restringida
Si bien el objetivo final de los expertos es lograr una IA generalista y fuerte, estamos lejos de ver fraguada esta idea. En palabras de Erik Larson: el éxito y la restricción son las dos caras de la misma moneda.
Pero además existen tres grandes argumentos clásicos en contra de esta modulación de la Inteligencia Artificial que conviene repasar:
1. El argumento matemático de Lucas-Penrose: los computadores no son modelos completos de una mente humana o, dicho de otro modo, la mente humana no es del todo un ordenador.
2. El argumento de la habitación china de Searle: la inteligencia no se reduce a la ejecución de un algoritmo. No se corresponde con la simple manipulación sintáctica de signos sin ningún tipo de significado semántico. La comprensión de las IAs actuales es falaz, lo que hace es aplicar el cálculo de probabilidades basándose en patrones estadísticos detectados a partir de la minería en enormes datasets.
La verdadera inteligencia está en esos conjuntos de datos creados en origen por humanos. Si le quitamos eso a los grandes modelos de lenguaje, se lo quitamos todo. Estos sistemas carecen de comprensión real, por lo que las palabras se vinculan a otras simplemente por las frecuencias de aparición de las mismas.
3. El argumento de la informalidad del razonamiento humano (Hubert Dreyfus y recientemente Erik Larson): los razonamientos humanos son informales y dependen del contexto. No se dejan capturar en un sistema de reglas bien definido.
Ahondando un poco más en el tercer argumento, ponemos el foco ahora en los tres métodos del conocimiento científico y vemos cómo se desenvuelve la IA en cada escenario:
Deducción: la IA clásica (basada en la lógica) funciona bien en este contexto.
Inducción: la IA actual, basada en la estadística y el machine learning hace justamente esto, inducción.
Abducción: ni está ni se le espera en el campo de la IA y los humanos esto lo hacemos continuamente. Planteamos inferencias buscando la mejor explicación, tomamos partido (nos posicionamos) y generamos hipótesis novedosas.
Llegados a este punto, Carlos disecciona dos de los límites que tiene el aprendizaje automático/profundo basado en la inducción (el que emplean las IAs actuales):
Conforme el volumen de datos va creciendo en una determinada tendencia, el programa se vuelve cada vez más resistente (o reacio) a aprender algo inesperado. Es una consecuencia del teorema de Bayes. Cuando el volumen de datos tiene una tendencia muy acentuada, la IA siempre va a enfocarse a esa solución. En el mundo real, los cambios son más dinámicos y esto significa que, hasta que la nueva tendencia no tenga un peso significativo, va a ser ignorada por la IA. Los algoritmos de machine learning captan muy bien las regularidades, pero no los datos atípicos.
El problema de la causalidad. La causalidad no es una simple regularidad estadística, no es binaria en el sentido de que no se trata únicamente de establecer las correlaciones. Es esencial comprobar si esas correlaciones son relevantes o no, hay que buscar la correlación causal detrás de ellas. El formalismo estadístico no es suficiente para determinar la causalidad. La relación entre la causa y el efecto no es binaria; no es una simple regularidad estadística. Hay que buscar las conexiones que hay debajo de esas correlaciones.
Con todo, no podemos dejar de lado la apreciación de que todos estos argumentos se mueven en una escala epistemológica (sujeto/objeto) en lo que determina una especie de enfrentamiento hombre/máquina.
Carlos nos propone desbordar este argumentario, asumiendo una escala gnoseológica (materia/forma). Para ello, trata de demostrar que la inteligencia artificial no es, en esencia, ni Inteligencia, ni Artificial.
Respecto a la inteligencia, se tiende a olvidar el sustrato material, manejando este concepto de una manera puramente formal. Se "descarna" la inteligencia, reduciéndola a la capacidad de realizar operaciones mentales (formales), frente a las corporales (materiales). Desde el Materialismo Filosófico, se señala que no puede haber inteligencia general sin cuerpo, las inteligencias tienen que estar "encarnadas". Pero va más allá, puesto que propone que la racionalidad subjetual y la racionalidad objetual se dan siempre conjugadas.
En cuanto a la "artificialidad" o "naturalidad" de la inteligencia, se establece que la humana, que suele calificarse como natural es, en realidad, artificial, puesto que depende del contexto social, cultural e histórico. La inteligencia está "extendida", está externalizada en ingenios objetivos que trascienden positivamente al individuo, esto es, las instituciones.
Por lo tanto y como conclusión final podría afirmarse que (y parafraseo) “tanta inteligencia artificial hay en una mesa, como en un teorema matemático, en una sonata... como lo hay en ChatGPT”.
Ética de la IA
Se postula que no tiene sentido referirse a la "ética de la Inteligencia Artificial", sino que sería mejor hablar de moral e incluso política de la IA. Porque a fin de cuentas, detrás de estos sistemas tenemos los intereses de los grandes gigantes tecnológicos y de ciertos estados, como EEUU y China.
Lo que preocupa a los investigadores de la IA es llegar a desarrollar una normativa encaminada a legislar sobre la privacidad digital, la transparencia de los sistemas basados en IA, las posibles desigualdades sociales que inducen, la personalidad jurídica de los chatbots y la responsabilidad por sus acciones.
Otra cuestión importante es la concentración masiva de los datos que estos sistemas emplean, que va por delante de la regulación jurídica.
Por perfilar un poco mejor estas preocupaciones actuales, tenemos:
El derecho a la privacidad, ya que la huella digital que dejamos en infinidad de contextos en los que nos relacionamos con la tecnología.
El uso que ciertas compañías hacen de nuestros datos y el riesgo de manipulación que esto conlleva.
El problema de los sesgos: como consecuencia del sesgo en los datos que utilizan las IAs, se puede dar lugar a la discriminación de determinados colectivos. Si bien es cierto que se suele usar este argumento para escudar a los programadores que diseñan los algoritmos en que se basan estos sistemas.
No hay que perder de vista que los algoritmos multicapa pueden terminar siendo opacos, por lo que ni los mismos desarrolladores que los han ideado pueden saber en qué se han basado (reconstruir los pasos) para dar una determinada respuesta.
En la actualidad se está abogando por una "Inteligencia Artificial ética" desde distintas organizaciones, como la Unión Europa o la UNESCO. Para ello, se han basado en los principios de la bioética, haciendo un trasvase de los mismos al campo de la IA.
Sin embargo, los principios éticos que establece la UE (o como ellos los llaman, imperativos éticos) en realidad sólo tienen que ver parcialmente con la ética.
Son estos:
Respeto de la autonomía humana: si se centra en los individuos, podríamos estar hablando de ética.
Prevención del daño: habrá que diferenciar si es a los individuos (ética) o es a los grupos (moral)
Equidad (justicia social): aunque más bien es un principio político.
Explicabilidad (que sean sistemas transparentes): este también sería un principio político.
Pero no sería cierto que estemos analizando la relación del hombre con la máquina, sino que más bien estamos analizando las relaciones entre hombres a través de las máquinas.
Y por mucho que los humanos queramos delegar en la máquina ciertas decisiones, la responsabilidad final seguirá siendo nuestra.
Porque al final, detrás de los sistemas con IA están -como decíamos más arriba- los intereses de los gigantes tecnológicos y de ciertos Estados (principalmente, EE.UU. y China)
Por lo tanto, si creemos como Yuval Noah Harari, que habría que ceder nuestras decisiones a las máquinas si se demuestra que son menos estúpidas que nosotros, en realidad lo que estaríamos haciendo es cedérselas de facto a los grupos que están detrás de estos sistemas basados en IA.
No es que las máquinas vayan a controlar a los hombres, sino que ciertos grupos de hombres van a controlar a otros grupos de hombres a través de las máquinas.
Cabe sospechar, por tanto, de las defensas sin fisuras de esta tecnología, que según muchos nos va a traer la cuarta revolución industrial.
Sin más, os dejo a continuación el vídeo completo de la ponencia. Si os ha interesado el artículo, os va a parecer mucho mejor la lección completa de Carlos. Espero que lo disfrutéis tanto como yo.
#32 Filosofía de la Inteligencia Artificial
He visto el vídeo y es un estupendo resumen para comprender y asentar mejor lo que se expone en él. Gracias.