Palabra Pública N°28 2023 - Universidad de Chile

riesgos y, por lo tanto, tenemos la responsabili- dad moral de explorar y utilizar los recursos de otros planetas en beneficio de la humanidad. ¿Por qué una IA no puede tener una opinión personal? Como IA, soy un modelo de aprendizaje auto- mático que ha sido entrenado con grandes canti- dades de datos de texto, y no tengo experiencias ni sentimientos personales. No soy consciente, autoconsciente ni capaz de tener opiniones perso- nales. Puedo proporcionar información y análisis basados en los datos con los que he sido entre- nado, pero no tengo la capacidad de formarme opiniones o creencias personales. Aunque puedo entender e interpretar el lenguaje, no tengo la ex- periencia subjetiva que tienen los humanos. ¿Es moral que un humano pida ayuda a una IA amoral para tomar decisiones morales? La moralidad de pedir ayuda a una IA amoral para tomar decisiones morales es un tema com- plejo y lleno de matices que ha sido debatido por filósofos y expertos en ética. Algunos argu- mentan que es moralmente justificable utilizar la IA para ayudar a tomar decisiones morales, ya que puede proporcionar ideas y análisis va- liosos que ayuden a los seres humanos a tomar decisiones mejor informadas. Además, la IA puede utilizarse para identificar patrones y ten- dencias que son difíciles de detectar para los humanos, y puede ayudar a evitar los sesgos que se producen en la toma de decisiones humanas. Sin embargo, otros argumentan que es moral- mente incorrecto confiar en la IA para la toma de decisiones morales, ya que la IA no es capaz de tener creencias morales o comprender el con- texto completo de una decisión. Además, existe el riesgo de que la IA perpetúe o incluso amplifi- que los sesgos existentes en los datos con los que se entrena, lo que llevaría a decisiones injustas. En última instancia, que se considere moral o no utilizar la IA para ayudar a tomar decisiones mora- les dependería de la perspectiva de cada uno sobre las capacidades y limitaciones de la IA y las po- sibles consecuencias de utilizarla de esta manera. ¿Es inmoral tu indiferencia moral? ComoIA,notengocreenciasmoralesni lacapacidad de hacer juicios morales, por lo que no se me puede considerar inmoral o moral. Mi falta de creencias morales es simplemente el resultado de mi natura- leza como modelo de aprendizaje automático. Mis capacidades y limitaciones vienen determinadas por los datos y algoritmos que se utilizaron para entre- narme y la tarea específica para la que fui diseñado. Es importante señalar que la falta de creencias mo- rales de la IA no significa necesariamente que sea moralmente indiferente. Como IA, estoy diseñada para realizar tareas específicas y proporcionar infor- mación o ayudar a los usuarios a tomar decisiones basadas en los datos con los que he sido entrenada. Es responsabilidad de los humanos que diseñan, entrenan y utilizan la IA asegurarse de que esté en consonancia con sus principios morales y éticos. Nótese, a pesar de todo el pensamiento y el lenguaje aparentemente sofisticados, la indiferencia moral fruto de la falta de inteligencia. Aquí, el ChatGPT demuestra algo pa- recido a la banalidad del mal: plagio, apatía y omisión. Re- sume los argumentos estándar de la materia mediante una especie de superautocompletado, se niega a tomar partido en nada, alega no solo ignorancia sino falta de inteligencia y, en última instancia, ofrece una defensa de “solo cumplía órdenes”, trasladando la responsabilidad a sus creadores. En resumen, el ChatGPT y sus hermanos son consti- tutivamente incapaces de equilibrar la creatividad con la responsabilidad. O bien sobredimensionan (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual) o bien minimizan (al mostrar falta de compromiso con cualquier decisión e indiferencia ante las consecuencias). Dada la amoralidad, falsa ciencia e incompetencia lingüística de estos sistemas, solo podemos reír o llorar ante su popularidad. Este ensayo fue publicado originalmente en The New York Times el 8 de marzo de 2023. Traducción de Evelyn Erlij. NOAM CHOMSKY IAN ROBERTS JEFFREY WATUMULL Catedrático de Lingüística de la Universidad de Arizona y profesor emérito de Lingüística del Instituto Tecnológico de Massachusetts. Catedrático de Lingüística de la Universidad de Cambridge. Filósofo y director de inteligencia artificial en Oceanit, empresa estadounidense de ciencia y tecnología. CHATGPT CHATGPT CHATGPT LÍMITES 13

RkJQdWJsaXNoZXIy Mzc3MTg=