Palabra Pública N°28 2023 - Universidad de Chile
LÍMITES bién conjeturas contrafácticas del estilo “cualquier objeto de este tipo caería”, además de la cláusula complementaria “debido a la fuerza de gravedad” o “debido a la curvatura del espacio-tiempo”, o lo que sea. Eso es una explicación causal: “La manzana no habría caído de no ser por la fuer- za de gravedad”. Eso es pensar. El aprendizaje automático se basa en la descripción y la predicción, sin plantear mecanismos causales ni leyes fí- sicas. Por supuesto, cualquier explicación de tipo humano no es necesariamente correcta; somos falibles. Pero esto es parte de lo que significa pensar: para tener razón, debe ser posible equivocarse. La inteligencia no solo consiste en conjeturas creativas, sino también en críticas creativas. El pensamiento humano se basa en explicaciones posibles y en la corrección de errores, un proceso que limita gradual- mente las posibilidades que pueden considerarse de for- ma racional. (Como dijo Sherlock Holmes al Dr. Watson: “Cuando hayas eliminado lo imposible, lo que quede, por improbable que sea, debe ser la verdad”). Ahora bien, el ChatGPT y otros programas similares tienen, por diseño, una capacidad ilimitada para “apren- der” (es decir, memorizar); sin embargo, son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con un cierto tipo de complejidad casi matemática, estos programas aprenden idiomas humana- mente posibles e imposibles con la misma facilidad. Mien- tras que los humanos estamos limitados en el tipo de ex- plicaciones que podemos imaginar de forma racional, los sistemas de aprendizaje automático pueden aprender tanto que la Tierra es plana como que es redonda. Se restringen a negociar con probabilidades que cambian con el tiempo. Por esta razón, las predicciones de los sistemas de apren- dizaje automático serán siempre superficiales y dudosas. Como estos programas no pueden explicar las reglas de la sintaxis inglesa, por ejemplo, es muy posible que predigan, erróneamente, que una frase como "John is too stubborn to talk to" significa que John es tan terco que no hablará con alguien (en lugar de que es demasiado terco para razonar con él). ¿Por qué un programa de aprendizaje automático predeciría algo tan absurdo? Porque podría analogar el pa- trón que infiere de frases como “Juan se comió una man- zana” [expresión de la jerga LGBTIQ+ equivalente a “Juan tiene actitud” N. de la T .] y “Juan comió”, en la que esta última sí significa que Juan comió algo. Las interpretacio- nes correctas del lenguaje son complejas y no se pueden obtener adornándolas simplemente con big data . Por desgracia, algunos entusiastas del aprendizaje au- tomático parecen estar orgullosos de que sus creaciones puedan generar predicciones “científicas” correctas (por decir algo, sobre el movimiento de los cuerpos físicos) sin Pexels 11
Made with FlippingBook
RkJQdWJsaXNoZXIy Mzc3MTg=