domingo, 2 de abril de 2023

LA INTELIGENCIA ARTIFICIAL NO ES INTELIGENCIA

 


Generalmente se cree que la filosofía no tiene incidencia en nuestras vidas. Pero la tiene todo el tiempo. A veces esto es un poco más evidente. Como en la llamada pandemia, cuando el neopositivismo como creencia cultural llegó al paroxismo en términos como facts, datos, y la negación de toda interpretación como si fuera false information, o como si la information, así sola, fuera posible.

Ahora pasa lo mismo con la llamada inteligencia artificial.

Siglos y siglos de reflexión filosófica, donde se ha tratado de explicar lo específicamente humano, son ignorados totalmente por no poder distinguir entre un algoritmo y la física cuántica por un lado y una persona que entiende, comprende, ama y decide por el otro. Las neurociencias han asimilado, como un Borg filosófico, a la antropología filosófica, la cosmología ha asimilado a la metafísica y por ende ingenieros informáticos y físicos se erigen ahora como los grandes maestros de la metafísica y de lo humano.

Los que hayan visto la peli “Yo Robot” recordarán por qué el detective protagonizado por Will Smith no quería saber nada con los robots N5. Porque uno de ellos había “decidido” salvarlo a él, que tenía mayores probabilidades de supervivencia, y no a una niña de 12 años que tenía menos. Claro, es que no “decidió” nada. Siguió un algoritmo y “salvó” a la probabilidad mayor (él) de igual manera que una cafetera hace café si ponés agua, café y la prendés.

“Deducir”, calcular, seguir un algoritmo, no es decidir. La decisión se da cuando en el razonamiento práctico, como explica Santo Tomás (a quien casi todo el mundo sigue ignorando) la conclusión no se sigue necesariamente de las premisas de la situación práctica. ¿Voy o no voy a mi clase de Aikido hoy? No hay ningún razonamiento deductivo que me permita decir “luego voy” porque en ese caso no habría decisión libre. Hay infinitas circunstancias que me permitirían decir “por ende no voy”, y a eso Sto Tomás llamaba el libre juicio de la razón. Si yo digo “si p entonces q, ahora bien p, luego q”, “q” no es una decisión. Es una conclusión necesaria. El libre albedrío se da precisamente cuando hay que elegir entre posibilidades contingentes que no obligan necesariamente a la voluntad. Vos podés poner al famoso y nuevo dios chat GPT para que te hable sobre tu novia. Pero si te casás con ella diciendo que el chat etc te lo dijo, el matrimonio es nulo. Está tu libertad de por medio.

Claro, para que haya libre albedrío, tiene que haber entonces inteligencia, que tampoco es sólo cálculo. La inteligencia es captación, comprensión de lo real, autoconciencia. Por más que ingenieros y físicos sigan burlándose de Descartes, una computadora no puede tener autoconciencia y decir “soy”. Cuando una madre le dice a su hija que no salga con un violador serial aunque sea tan atractivo como Brad Pitt, no está calculando. Está comprendiendo lo real. Está entendiendo lo real. Y por eso puede aconsejar. El consejo no es un algoritmo.

Ya que a los informáticos dicen que razonan, razonemos.

Si la inteligencia fuera reducible a lo físico, sea neurona o computadora cuántica, no podría captar sino lo físico, porque ninguna acción puede exceder la naturaleza de quien la hace. (Este razonamiento ya estaba en Sto Tomás con ejemplos de su época).

Pero es así que entendemos algo que está más allá de lo físico.

Luego la inteligencia no se reduce a lo físico.

¿Y cómo sabemos que la inteligencia capta más allá de lo físico?

Popper, que creo que está más cercano a nosotros, lo explicó con su teoría de los tres mundos. (Ya veo a los informáticos diciendo “andate a la M con tu filosofía”, bueno, ese es precisamente el problema). Si preguntamos, conforme al ejemplo de Popper, qué es “la” teoría de la relatividad, la respuesta no es los millones y millones de canales físicos en las que está impresa. Mensaje y canal físico no es lo mismo. El libro físico donde está impresa la teoría no es la teoría. Sea libro físico o silicio.

Tampoco se identifica con el mundo 2, esto es, las emociones humanas que despierta la teoría. Me gusta, no me gusta, me es fácil, me es difícil, nada de eso tiene que ver con la teoría considerada “en sí misma”. La teoría considerada en sí misma es el mundo 3. Las teorías consideradas en sí mismas son el mundo 3, esto es, “lo que” la teoría dice. Y eso no tiene nada que ver con la grabación de un mensaje en una computadora ni con lo que esta última pueda calcular siguiendo un algoritmo.

No casualmente, el mundo de las teorías consideradas en sí mismas está para Popper relacionada con el diálogo y el libre albedrío. Si estuviéramos programados a decir lo que decimos, ¿para qué el diálogo? Si yo quisiera explicar a alguien que X pero ese alguien está determinado, porque es una computadora, a decir NO X, ¿para qué dialogar? ¿Para qué toda la literatura, la filosofía, para qué todo lo humano? Si tu hija, que te ama y te abraza y te dice “papi”,  está siguiendo su programa, porque el cerebro humano y la computadora son lo mismo, ¿eso es amor?

Y no casualmente Santo Tomás y toda la tradición escolástica basaron lo específico de lo humano en su capacidad de abstracción.

Sí, ya sé que las llamadas inteligencias artificiales se basan en la física cuántica, pero el indeterminismo cuántico no es el libre albedrío ni la inteligencia. La intederminación onda-partícula no tiene nada que ver con una decisión libre. Si voy o no a ser fiel a mi esposa no es lo mismo que el famoso gato que está vivo o muerto al mismo tiempo. La decisión libre no tierne nada que ver con el experimento de la doble rendija ni con el principio de indeterminación, ni con el entrelazamiento cuántico ni con nada de eso.

Parece que el chat GPT ha hecho explotar una bomba. Y para eso sirve. Ha puesto en evidencia la inutilidad del sistema educativo formal basado en la repetición y no en la inteligencia. Curiosamente, el avance de la computación ha mostrado que el positivismo pedagógico, basado en “escucho/leo – copio – repito – no entiendo nada – me saco 10” es una farsa de p a pá. También ha puesto en evidencia que los estudios universitarios han derivado en tecnicaturas, no en pensamiento; en entrenamientos para la resolución casi mecánica de problemas que obviamente los puede hacer una computadora. Por eso la crisis en temas de informática, administración, medicina, etc.: finalmente, los cálculos los pueden hacer las máquinas. Pero la decisión libre, la prudencia, la experiencia de lo humano, no. Pero si creemos que la inteligencia artificial es inteligencia, entonces creemos y creíamos que las vocaciones humanas son iguales a cálculos. El médico no diagnostica, calcula. El profesor no enseña, repite. El alumno no aprende, repite. El contador y administrador no aconsejan, calculan. El empresario no pondera oportunidades, calcula. El juez no falla, calcula. Y así. Claro, como los cálculos no eran tan avanzados, entonces los humanos estábamos “para lo que le falta aún a la máquina pero que ya va a llegar”. Bueno, llegó. Y como creíamos y creemos que pensar es calcular, nos vemos desplazados. Claro, una buena advertencia para una concepción del mundo donde los humanos ya nos estábamos comportando como máquinas. Una vez, hace 20 años, puse en esos tan usados, antes, contestadores automáticos: “usted está hablando con Gabriel Zanotti. Si quiere saber de Hegel marque 3. Si quiere saber de Descartes, 2. Si quiere saber de Parménides, 1. Y si quiere saber de Heidegger no marque nada y listo”.

El avance de la llamada inteligencia artificial, o sea máquinas de calcular muy avanzadas, no es un problema. El problema fuimos y somos nosotros que nos creemos máquinas. Entonces sí.

Es hora, entonces, de acordarnos de que éramos humanos, es hora de recordar lo no calculable de la filosofía, la literatura, el arte, lo religioso, lo mítico, lo simbólico, lo prudencial, el amor auténtico, la sabiduría del abuelo.

Es hora de que el positivismo cultural entre en su crisis más profunda.

Tardará.

O desaparecemos. Porque Skynet no está en las máquinas. Está en nosotros. 

15 comentarios:

Anónimo dijo...

Muy cierto

Domingo dijo...

Mi siempre querido y muy respetado Gabriel.

Muy interesante tu artículo con el que no puedo más que sentirme identificado en sus conceptos y felicitarte por abordar el tema.

Mi aporte, desde el marketing y la comunicación, es simplemente que el nombre "Inteligencia" Artificial genera per se, un debate innecesario.

Como bien decís, la inteligencia artificial no es inteligencia.

ChatGTP 3.5 y su última versión 4.0 son sólo herramientas. Nada más.

Una amiga bibliotecaria me recordaba que la aparición de la Internet hizo pensar que las bibliotecas, como las conocemos hoy, desaparecerían. Y claro que no fue así.

El ser humano tiene al parecer el monopolio de la inteligencia y de ahí que el nombre con el que bautizaron a esta tecnología confunde y genera una fuente de conflicto donde creo no la hay. Sin embargo, debo reconocer que ChatGTP hace cosas que no estábamos acostumbrados a ver aunque estas no sean muestras de inteligencia tal como la entendemos.

Desde hacer unas semanas, trabajo día a día con ChatGTP, y me ayuda enormemente a construir bases y extensiones para mi trabajo. Por ejemplo, puede crear el guión de un video comercial en minutos que luego ajusto y publico.

Podría también usar la IA para generar un avatar -que se me parece porque está basado en filmaciones mías- para aparecer en ese video y presentar sin errores pero con voz muy humana los textos. ¡Y todo en cuestión de minutos!

ChatGTP (pero hay muchas otra herramientas de IA como Rytr.me o Jasper.ai) actúa como un buscador de web que te da una respuesta mucho más organizada y en relación y extensión concreta con tu necesidad. Te diría que hasta con el "tono" de tu necesidad (forma, informal, persuasiva...etc).

Claro que te responde a veces con verdades y otras veces también se equivoca. ¿El ser humano no? jaja.

Graciosamente, cuando uno le hace ver su error, se disculpa y elabora nuevamente su respuesta. Ahora si no estás supervisando la respuesta ¿quién se daría cuenta del error?

No imagino a esta tecnología haciendo mi trabajo por completo. Pero si sé que es capaz de hacer parte de él. El resto, todos los colores que le puedas sumar, se los ponemos nosotros, los seres humanos.

Te mando un gran abrazo.
Domingo Sanna

Enrique Arenz dijo...

Muy bueno. Nada que agregar.

Anónimo dijo...

Excelente, como siempre.

Anónimo dijo...

No pude aguantarme la risa con la anécdota del contestador automático

Anónimo dijo...

Excelente nota, profesor Zanotti.

Gustavo Garcia dijo...


Gracias Gabriel. Las máquinas son analogías de lo humano, al menos de la parte que es homologable. Ahora nos quedará preguntarnos si somos algo más que máquinas.

Unknown dijo...

Me parece un excelente articulo.
Sin ir mas lejos, nosotros usamos mucho ChatGTP para obtener information, pero luego la procesamos y tomamos las decisiones. EL problema no es el ChatGTP en si mismo, el problema es creer que la inteligencia artificial sobrepasara a la humana y eso es ontologicamente imposible.
No hay que frenar su desarrollo, porque nos esta solucionando mucho la vida, aumentando su calidad. Lo que habria que hacer, es instruir a la gente a proteger sus datos y su privacidad de estos logaritmos.
Para publicar este comentario, tengo que tildar que no soy un robot hehehe

Herr Direktor dijo...

Excelente, como siempre, Gabriel. 100% de acuerdo. Solo me animo a una reflexión: tal vez este bendito chat nos ayude a nosotros, los filósofos (y, por qué no a todos los que les interese el tema -al fin y al cabo, todos somos filósofos) a precisar mejor las fronteras entre lo "físico" y lo "espiritual" del razonar humano. Digo yo ... ¿No?

Gabriel Zanotti dijo...

Gracias a todos por sus comentarios. Y si: el Chat GPT es una oportunidad para advertir que nos estábamos considerando a nosotros mismos como máquinas y que NO lo éramos !!!!

Anónimo dijo...

Además, el Chat GPT es tan inteligente porque es tonto. Es una tontería. Realiza tareas sin pensar sobre lo que está haciendo.

bmgandara@gmail.com dijo...

Interesante ensayo... en fin, si crees que eres un robot, seguramente actúas como tal... y su eres humano con conciencia seguramente seguirás viviendo como tal... es cuestión de enfoques... dice Shakespeare: "Ser o no ser" ... es un dilema a resolver...

bmgandara@gmail.com dijo...

Difícil creer que somos esclavos de la tecnología... finalmente, somos lo que pensamos... enhorabuena...

Anónimo dijo...

Creo que estás mezclando conceptos del funcionamiento de un algoritmo tradicional (como sería una formula matemática), con conceptos de cómo funciona una red neuronal y son dos formas de resolver problemas de forma muy distinta. Tambien estás simplificando demasiado el funcionamiento del cerebro humano a nivel macro y a nivel micro (si repasas algunos conceptos de neurociencia, podrás ver que el cerebro humano a nivel micro también trabaja en base a impulsos eléctricos o físicos). Los problemas o temores de implementaciones de redes neuronales como ChatGPT, son reales, pero creo que el problema no es la tecnología de la red neuronal en sí, el problema está al menos en la forma de entrenarlo (quien lo entrena, de donde saca la info, etc.) y en entender sus limitaciones (de la misma forma que los humanos también tenemos limitaciones).

Anónimo dijo...

Yo uso el ChatGPT3,no para resolver dudas existenciales del tipo ser o no ser, o pienso, luego existo, sino para que me resuma en pocos segundos la historia de China o las características del analisis factorial usado en estadistica. GPT tiene acceso a una biblioteca de millones de volúmenes, que ha leído, y por eso puede resumir los textos que le pido YO, por mi decisión libre. Es una herramienta fantástica que no nos evita el tener que pensar, solo nos ayuda con informacion procesada.