Generalmente se cree que la filosofía no tiene incidencia en nuestras vidas. Pero la tiene todo el tiempo. A veces esto es un poco más evidente. Como en la llamada pandemia, cuando el neopositivismo como creencia cultural llegó al paroxismo en términos como facts, datos, y la negación de toda interpretación como si fuera false information, o como si la information, así sola, fuera posible.
Ahora pasa lo mismo con la llamada
inteligencia artificial.
Siglos y siglos de reflexión filosófica,
donde se ha tratado de explicar lo específicamente humano, son ignorados
totalmente por no poder distinguir entre un algoritmo y la física cuántica por
un lado y una persona que entiende, comprende, ama y decide por el otro. Las
neurociencias han asimilado, como un Borg filosófico, a la antropología filosófica,
la cosmología ha asimilado a la metafísica y por ende ingenieros informáticos y
físicos se erigen ahora como los grandes maestros de la metafísica y de lo
humano.
Los que hayan visto la peli “Yo
Robot” recordarán por qué el detective protagonizado por Will Smith no quería
saber nada con los robots N5. Porque uno de ellos había “decidido” salvarlo a
él, que tenía mayores probabilidades de supervivencia, y no a una niña de 12
años que tenía menos. Claro, es que no “decidió” nada. Siguió un algoritmo y “salvó”
a la probabilidad mayor (él) de igual manera que una cafetera hace café si
ponés agua, café y la prendés.
“Deducir”, calcular, seguir un
algoritmo, no es decidir. La decisión se da cuando en el razonamiento
práctico, como explica Santo Tomás (a quien casi todo el mundo sigue ignorando)
la conclusión no se sigue necesariamente de las premisas de la situación
práctica. ¿Voy o no voy a mi clase de Aikido hoy? No hay ningún razonamiento deductivo
que me permita decir “luego voy” porque en ese caso no habría decisión libre.
Hay infinitas circunstancias que me permitirían decir “por ende no voy”, y a
eso Sto Tomás llamaba el libre juicio de la razón. Si yo digo “si p
entonces q, ahora bien p, luego q”, “q” no es una decisión. Es una conclusión
necesaria. El libre albedrío se da precisamente cuando hay que elegir entre
posibilidades contingentes que no obligan necesariamente a la voluntad. Vos
podés poner al famoso y nuevo dios chat GPT para que te hable sobre tu novia.
Pero si te casás con ella diciendo que el chat etc te lo dijo, el matrimonio es
nulo. Está tu libertad de por medio.
Claro, para que haya libre albedrío,
tiene que haber entonces inteligencia, que tampoco es sólo cálculo. La
inteligencia es captación, comprensión de lo real, autoconciencia. Por más que
ingenieros y físicos sigan burlándose de Descartes, una computadora no puede
tener autoconciencia y decir “soy”. Cuando una madre le dice a su hija que no
salga con un violador serial aunque sea tan atractivo como Brad Pitt, no está calculando.
Está comprendiendo lo real. Está entendiendo lo real. Y por eso puede aconsejar.
El consejo no es un algoritmo.
Ya que a los informáticos dicen que
razonan, razonemos.
Si la inteligencia fuera reducible
a lo físico, sea neurona o computadora cuántica, no podría captar sino lo
físico, porque ninguna acción puede exceder la naturaleza de quien la hace. (Este
razonamiento ya estaba en Sto Tomás con ejemplos de su época).
Pero es así que entendemos algo que
está más allá de lo físico.
Luego la inteligencia no se reduce
a lo físico.
¿Y cómo sabemos que la inteligencia
capta más allá de lo físico?
Popper, que creo que está más
cercano a nosotros, lo explicó con su teoría de los tres mundos. (Ya veo a los
informáticos diciendo “andate a la M con tu filosofía”, bueno, ese es
precisamente el problema). Si preguntamos, conforme al ejemplo de Popper, qué
es “la” teoría de la relatividad, la respuesta no es los millones y millones de
canales físicos en las que está impresa. Mensaje y canal físico no es lo
mismo. El libro físico donde está impresa la teoría no es la teoría.
Sea libro físico o silicio.
Tampoco se identifica con el mundo
2, esto es, las emociones humanas que despierta la teoría. Me gusta, no me
gusta, me es fácil, me es difícil, nada de eso tiene que ver con la teoría
considerada “en sí misma”. La teoría considerada en sí misma es el mundo 3. Las
teorías consideradas en sí mismas son el mundo 3, esto es, “lo que” la teoría
dice. Y eso no tiene nada que ver con la grabación de un mensaje en una
computadora ni con lo que esta última pueda calcular siguiendo un algoritmo.
No casualmente, el mundo de las
teorías consideradas en sí mismas está para Popper relacionada con el diálogo y
el libre albedrío. Si estuviéramos programados a decir lo que decimos, ¿para
qué el diálogo? Si yo quisiera explicar a alguien que X pero ese alguien está
determinado, porque es una computadora, a decir NO X, ¿para qué dialogar? ¿Para
qué toda la literatura, la filosofía, para qué todo lo humano? Si tu hija, que
te ama y te abraza y te dice “papi”, está siguiendo su programa, porque el cerebro
humano y la computadora son lo mismo, ¿eso es amor?
Y no casualmente Santo Tomás y toda
la tradición escolástica basaron lo específico de lo humano en su capacidad de
abstracción.
Sí, ya sé que las llamadas inteligencias
artificiales se basan en la física cuántica, pero el indeterminismo cuántico no
es el libre albedrío ni la inteligencia. La intederminación onda-partícula no
tiene nada que ver con una decisión libre. Si voy o no a ser fiel a mi esposa
no es lo mismo que el famoso gato que está vivo o muerto al mismo tiempo. La decisión
libre no tierne nada que ver con el experimento de la doble rendija ni con el principio
de indeterminación, ni con el entrelazamiento cuántico ni con nada de eso.
Parece que el chat GPT ha hecho
explotar una bomba. Y para eso sirve. Ha puesto en evidencia la inutilidad del
sistema educativo formal basado en la repetición y no en la inteligencia.
Curiosamente, el avance de la computación ha mostrado que el positivismo pedagógico,
basado en “escucho/leo – copio – repito – no entiendo nada – me saco 10”
es una farsa de p a pá. También ha puesto en evidencia que los estudios universitarios
han derivado en tecnicaturas, no en pensamiento; en entrenamientos para la
resolución casi mecánica de problemas que obviamente los puede hacer una
computadora. Por eso la crisis en temas de informática, administración,
medicina, etc.: finalmente, los cálculos los pueden hacer las máquinas. Pero
la decisión libre, la prudencia, la experiencia de lo humano, no. Pero si
creemos que la inteligencia artificial es inteligencia, entonces creemos y
creíamos que las vocaciones humanas son iguales a cálculos. El médico no diagnostica,
calcula. El profesor no enseña, repite. El alumno no aprende, repite. El
contador y administrador no aconsejan, calculan. El empresario no pondera oportunidades,
calcula. El juez no falla, calcula. Y así. Claro, como los cálculos no eran tan
avanzados, entonces los humanos estábamos “para lo que le falta aún a la
máquina pero que ya va a llegar”. Bueno, llegó. Y como creíamos y creemos que
pensar es calcular, nos vemos desplazados. Claro, una buena advertencia para
una concepción del mundo donde los humanos ya nos estábamos comportando como máquinas.
Una vez, hace 20 años, puse en esos tan usados, antes, contestadores
automáticos: “usted está hablando con Gabriel Zanotti. Si quiere saber de Hegel
marque 3. Si quiere saber de Descartes, 2. Si quiere saber de Parménides, 1. Y
si quiere saber de Heidegger no marque nada y listo”.
El avance de la llamada
inteligencia artificial, o sea máquinas de calcular muy avanzadas, no es un
problema. El problema fuimos y somos nosotros que nos creemos máquinas.
Entonces sí.
Es hora, entonces, de acordarnos de
que éramos humanos, es hora de recordar lo no calculable de la filosofía, la literatura,
el arte, lo religioso, lo mítico, lo simbólico, lo prudencial, el amor
auténtico, la sabiduría del abuelo.
Es hora de que el positivismo cultural
entre en su crisis más profunda.
Tardará.
O desaparecemos. Porque Skynet no
está en las máquinas. Está en nosotros.
Muy cierto
ResponderEliminarMi siempre querido y muy respetado Gabriel.
ResponderEliminarMuy interesante tu artículo con el que no puedo más que sentirme identificado en sus conceptos y felicitarte por abordar el tema.
Mi aporte, desde el marketing y la comunicación, es simplemente que el nombre "Inteligencia" Artificial genera per se, un debate innecesario.
Como bien decís, la inteligencia artificial no es inteligencia.
ChatGTP 3.5 y su última versión 4.0 son sólo herramientas. Nada más.
Una amiga bibliotecaria me recordaba que la aparición de la Internet hizo pensar que las bibliotecas, como las conocemos hoy, desaparecerían. Y claro que no fue así.
El ser humano tiene al parecer el monopolio de la inteligencia y de ahí que el nombre con el que bautizaron a esta tecnología confunde y genera una fuente de conflicto donde creo no la hay. Sin embargo, debo reconocer que ChatGTP hace cosas que no estábamos acostumbrados a ver aunque estas no sean muestras de inteligencia tal como la entendemos.
Desde hacer unas semanas, trabajo día a día con ChatGTP, y me ayuda enormemente a construir bases y extensiones para mi trabajo. Por ejemplo, puede crear el guión de un video comercial en minutos que luego ajusto y publico.
Podría también usar la IA para generar un avatar -que se me parece porque está basado en filmaciones mías- para aparecer en ese video y presentar sin errores pero con voz muy humana los textos. ¡Y todo en cuestión de minutos!
ChatGTP (pero hay muchas otra herramientas de IA como Rytr.me o Jasper.ai) actúa como un buscador de web que te da una respuesta mucho más organizada y en relación y extensión concreta con tu necesidad. Te diría que hasta con el "tono" de tu necesidad (forma, informal, persuasiva...etc).
Claro que te responde a veces con verdades y otras veces también se equivoca. ¿El ser humano no? jaja.
Graciosamente, cuando uno le hace ver su error, se disculpa y elabora nuevamente su respuesta. Ahora si no estás supervisando la respuesta ¿quién se daría cuenta del error?
No imagino a esta tecnología haciendo mi trabajo por completo. Pero si sé que es capaz de hacer parte de él. El resto, todos los colores que le puedas sumar, se los ponemos nosotros, los seres humanos.
Te mando un gran abrazo.
Domingo Sanna
Muy bueno. Nada que agregar.
ResponderEliminarExcelente, como siempre.
ResponderEliminarNo pude aguantarme la risa con la anécdota del contestador automático
ResponderEliminarExcelente nota, profesor Zanotti.
ResponderEliminar
ResponderEliminarGracias Gabriel. Las máquinas son analogías de lo humano, al menos de la parte que es homologable. Ahora nos quedará preguntarnos si somos algo más que máquinas.
Me parece un excelente articulo.
ResponderEliminarSin ir mas lejos, nosotros usamos mucho ChatGTP para obtener information, pero luego la procesamos y tomamos las decisiones. EL problema no es el ChatGTP en si mismo, el problema es creer que la inteligencia artificial sobrepasara a la humana y eso es ontologicamente imposible.
No hay que frenar su desarrollo, porque nos esta solucionando mucho la vida, aumentando su calidad. Lo que habria que hacer, es instruir a la gente a proteger sus datos y su privacidad de estos logaritmos.
Para publicar este comentario, tengo que tildar que no soy un robot hehehe
Excelente, como siempre, Gabriel. 100% de acuerdo. Solo me animo a una reflexión: tal vez este bendito chat nos ayude a nosotros, los filósofos (y, por qué no a todos los que les interese el tema -al fin y al cabo, todos somos filósofos) a precisar mejor las fronteras entre lo "físico" y lo "espiritual" del razonar humano. Digo yo ... ¿No?
ResponderEliminarGracias a todos por sus comentarios. Y si: el Chat GPT es una oportunidad para advertir que nos estábamos considerando a nosotros mismos como máquinas y que NO lo éramos !!!!
ResponderEliminarAdemás, el Chat GPT es tan inteligente porque es tonto. Es una tontería. Realiza tareas sin pensar sobre lo que está haciendo.
ResponderEliminarInteresante ensayo... en fin, si crees que eres un robot, seguramente actúas como tal... y su eres humano con conciencia seguramente seguirás viviendo como tal... es cuestión de enfoques... dice Shakespeare: "Ser o no ser" ... es un dilema a resolver...
ResponderEliminarDifícil creer que somos esclavos de la tecnología... finalmente, somos lo que pensamos... enhorabuena...
ResponderEliminarCreo que estás mezclando conceptos del funcionamiento de un algoritmo tradicional (como sería una formula matemática), con conceptos de cómo funciona una red neuronal y son dos formas de resolver problemas de forma muy distinta. Tambien estás simplificando demasiado el funcionamiento del cerebro humano a nivel macro y a nivel micro (si repasas algunos conceptos de neurociencia, podrás ver que el cerebro humano a nivel micro también trabaja en base a impulsos eléctricos o físicos). Los problemas o temores de implementaciones de redes neuronales como ChatGPT, son reales, pero creo que el problema no es la tecnología de la red neuronal en sí, el problema está al menos en la forma de entrenarlo (quien lo entrena, de donde saca la info, etc.) y en entender sus limitaciones (de la misma forma que los humanos también tenemos limitaciones).
ResponderEliminarYo uso el ChatGPT3,no para resolver dudas existenciales del tipo ser o no ser, o pienso, luego existo, sino para que me resuma en pocos segundos la historia de China o las características del analisis factorial usado en estadistica. GPT tiene acceso a una biblioteca de millones de volúmenes, que ha leído, y por eso puede resumir los textos que le pido YO, por mi decisión libre. Es una herramienta fantástica que no nos evita el tener que pensar, solo nos ayuda con informacion procesada.
ResponderEliminar