El reconocido lingüista y filósofo Noam Chomsky escribió un artículo sobre esta temática en el New York Times, incluimos la traducción
Jorge Luis Borges escribió una vez que vivir en una época de grandes peligros y promesas es experimentar tanto la tragedia como la comedia, con “la inminencia de una revelación” en la comprensión de nosotros mismos y del mundo. Hoy nuestros supuestos avances revolucionarios en inteligencia artificial son, de hecho, motivo de preocupación y optimismo. Optimismo porque la inteligencia es el medio por el cual resolvemos problemas. Preocupación porque tememos que la variante más popular y de moda de la IA —el aprendizaje automático— degrade nuestra ciencia y degrade nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento.
ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft son maravillas del aprendizaje automático. En términos generales, toman enormes cantidades de datos, buscan patrones en ellos y se vuelven cada vez más competentes en la generación de resultados estadísticamente probables, como lenguaje y pensamiento aparentemente similares a los humanos. Estos programas han sido aclamados como los primeros destellos en el horizonte de la inteligencia artificial general , ese momento profetizado hace tiempo en el que las mentes mecánicas superarán a los cerebros humanos no solo cuantitativamente en términos de velocidad de procesamiento y tamaño de la memoria, sino también cualitativamente en términos de percepción intelectual, creatividad artística y todas las demás facultades distintivamente humanas.
Ese día puede llegar, pero su amanecer aún no ha despuntado, contrariamente a lo que se puede leer en titulares hiperbólicos y calcular mediante inversiones imprudentes. La revelación borgeana de la comprensión no ha ocurrido ni ocurrirá —y, afirmamos, no puede ocurrir— si los programas de aprendizaje automático como ChatGPT siguen dominando el campo de la IA. Por muy útiles que puedan ser estos programas en algunos dominios estrechos (pueden ser útiles en la programación informática, por ejemplo, o en sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de cómo los humanos razonan y usan el lenguaje. Estas diferencias imponen limitaciones significativas a lo que estos programas pueden hacer, codificándolos con defectos inerradicables.
Es a la vez cómico y trágico, como hubiera podido señalar Borges, que se concentre tanto dinero y tanta atención en algo tan pequeño, algo tan trivial en contraste con la mente humana, que a fuerza de lenguaje, en palabras de Wilhelm von Humboldt, puede hacer “un uso infinito de medios finitos”, creando ideas y teorías de alcance universal.
La mente humana no es, como ChatGPT y sus similares, un pesado motor estadístico para la comparación de patrones, que se atiborra de cientos de terabytes de datos y extrapola la respuesta conversacional más probable o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que opera con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones.
Por ejemplo, un niño pequeño que está aprendiendo un idioma está desarrollando —de manera inconsciente, automática y veloz a partir de datos minúsculos— una gramática, un sistema tremendamente sofisticado de principios y parámetros lógicos. Esta gramática puede entenderse como una expresión del “sistema operativo” innato, genéticamente instalado, que otorga a los humanos la capacidad de generar oraciones complejas y largas cadenas de pensamiento. Cuando los lingüistas intentan desarrollar una teoría que explique por qué un idioma determinado funciona como lo hace (“¿Por qué se consideran gramaticales estas oraciones, pero no aquellas otras?”), están construyendo consciente y laboriosamente una versión explícita de la gramática que el niño construye instintivamente y con una exposición mínima a la información. El sistema operativo del niño es completamente diferente al de un programa de aprendizaje automático.
De hecho, estos programas están estancados en una fase prehumana o no humana de la evolución cognitiva. Su defecto más profundo es la ausencia de la capacidad más crítica de cualquier inteligencia: decir no sólo lo que es, lo que fue y lo que será (es decir, descripción y predicción), sino también lo que no es y lo que podría y no podría ser. Esos son los ingredientes de la explicación, la marca de la verdadera inteligencia.
He aquí un ejemplo. Supongamos que tenemos una manzana en la mano. Ahora la soltamos. Observamos el resultado y decimos: “La manzana cae”. Eso es una descripción. Una predicción podría haber sido la afirmación “La manzana caerá si abro la mano”. Ambas son valiosas y ambas pueden ser correctas. Pero una explicación es algo más: incluye no sólo descripciones y predicciones, sino también conjeturas contrafácticas como “Cualquier objeto de ese tipo caería”, más la cláusula adicional “debido a la fuerza de la gravedad” o “debido a la curvatura del espacio-tiempo” o lo que sea. Esa es una explicación causal: “La manzana no habría caído si no fuera por la fuerza de la gravedad”. Eso es pensar.
El núcleo del aprendizaje automático es la descripción y la predicción; no postula ningún mecanismo causal ni ninguna ley física. Por supuesto, cualquier explicación al estilo humano no es necesariamente correcta; somos falibles. Pero esto es parte de lo que significa pensar: para tener razón, debe ser posible equivocarse. La inteligencia no consiste sólo en conjeturas creativas, sino también en crítica creativa. El pensamiento al estilo humano se basa en posibles explicaciones y corrección de errores, un proceso que gradualmente limita las posibilidades que se pueden considerar racionalmente. (Como dijo Sherlock Holmes al Dr. Watson: “Cuando se ha eliminado lo imposible, lo que quede, por improbable que sea, debe ser la verdad”).
Pero ChatGPT y otros programas similares, por diseño, no tienen límites en lo que pueden “aprender” (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que están dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles e imposibles con la misma facilidad . Mientras que los humanos estamos limitados en el tipo de explicaciones que podemos conjeturar racionalmente, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que es redonda. Se limitan a comerciar con probabilidades que cambian con el tiempo.
Por esta razón, las predicciones de los sistemas de aprendizaje automático siempre serán superficiales y dudosas. Como estos programas no pueden explicar las reglas de la sintaxis inglesa, por ejemplo, pueden predecir, incorrectamente, que “John es demasiado terco para hablar con” significa que John es tan terco que no hablará con alguien u otro (en lugar de que es demasiado terco para razonar con él). ¿Por qué un programa de aprendizaje automático predeciría algo tan extraño? Porque podría hacer una analogía del patrón que infirió de oraciones como “John se comió una manzana” y “John se comió”, en el que la última sí significa que John se comió algo u otro. El programa bien podría predecir que como “John es demasiado terco para hablar con Bill” es similar a “John se comió una manzana”, “John es demasiado terco para hablar con” debería ser similar a “John se comió”. Las explicaciones correctas del lenguaje son complicadas y no se pueden aprender simplemente macerando en grandes cantidades de datos.
Perversamente, algunos entusiastas del aprendizaje automático parecen estar orgullosos de que sus creaciones puedan generar predicciones “científicas” correctas (por ejemplo, sobre el movimiento de los cuerpos físicos) sin recurrir a explicaciones (que involucren, por ejemplo, las leyes del movimiento de Newton y la gravitación universal). Pero este tipo de predicción, incluso cuando es exitosa, es pseudociencia. Si bien los científicos ciertamente buscan teorías que tengan un alto grado de corroboración empírica, como señaló el filósofo Karl Popper, “no buscamos teorías altamente probables sino explicaciones; es decir, teorías poderosas y altamente improbables”.
La teoría de que las manzanas caen a la tierra porque ese es su lugar natural (la visión de Aristóteles) es posible, pero sólo invita a más preguntas. (¿Por qué la Tierra es su lugar natural?) La teoría de que las manzanas caen a la tierra porque la masa dobla el espacio-tiempo (la visión de Einstein) es altamente improbable, pero en realidad te dice por qué caen. La verdadera inteligencia se demuestra en la capacidad de pensar y expresar cosas improbables pero perspicaces.
La verdadera inteligencia también es capaz de pensar moralmente. Esto significa limitar la creatividad, por lo demás ilimitada, de nuestras mentes con un conjunto de principios éticos que determinen lo que debe ser y lo que no (y, por supuesto, someter esos principios a una crítica creativa). Para ser útil, ChatGPT debe tener la capacidad de generar resultados que parezcan novedosos; para ser aceptable para la mayoría de sus usuarios, debe evitar el contenido moralmente objetable. Pero los programadores de ChatGPT y otras maravillas del aprendizaje automático han luchado (y seguirán luchando) por lograr este tipo de equilibrio.