Noam Chomsky, lingüista y filósofo del Instituto Tecnológico de Massachusetts (MIT), escribió junto a dos especialistas un artículo publicado en el diario estadounidense The New York Times, en el que compartió su visión sobre los avances que se han presentado en el campo de la Inteligencia Artificial (IA).
Hacete socio para acceder a este contenido
Para continuar, hacete socio de Caras y Caretas. Si ya formas parte de la comunidad, inicia sesión.
ASOCIARMECaras y Caretas Diario
En tu email todos los días
Para el académico y sus colaboradores, el linguista Ian Roberts y el experto en IA, Jeffrey Watumull, los avances “supuestamente revolucionarios” que presentan los desarrolladores de la IA son motivo “tanto de optimismo como de preocupación”.
Según Chomsky, se puede ver con optimismo el desarrollo de la IA por su capacidad de resolver problemas, pero temen que la variedad mas popular de la herramienta (el aprendizaje automático), "degrade" la ciencia.
"Optimismo porque la inteligencia es el medio con el que resolvemos los problemas. Preocupación porque tememos que la cepa de la inteligencia artificial más popular y de moda (el aprendizaje automático) degrade nuestra ciencia y envilezca nuestra ética al incorporar a nuestra tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento", expresó Chomsky.
Si bien los expertos reconocieron que la IA es eficaz en la tarea de almacenar inmensas cantidades de información —las cuales no necesariamente son verídicas— , estas no tienen una “inteligencia” como la de las personas.
“Por muy útiles que puedan ser estos programas en algunos ámbitos concretos (como la programación informática, por ejemplo, o para sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje”, advirtieron, “estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos inerradicables”.
Para sostener estos dichos, Chomsky pone como ejemplo el caso de los niños cuando están aprendiendo un idioma, escenario en el que a partir del poco conocimiento que tienen, logran establecer relaciones y parámetros lógicos entre las palabras y oraciones.
“Esta gramática puede entenderse como una expresión del ‘sistema operativo’ innato genéticamente instalado, que dota a los seres humanos de la capacidad de generar frases complejas y largos trenes de pensamiento”, dijo, para luego añadir que “es completamente distinto al de un programa de aprendizaje automático”.
Bajo esta línea, manifestaron que estas aplicaciones no son realmente “inteligentes”, debido a que carecen de capacidad crítica. Si bien, pueden describir y predecir “lo que es”, “lo que fue” y lo que será”, no son capaces de explicar “lo que no es” y “lo que no podría ser”.
La perspectiva moral de la Inteligencia Artificial
Otro factor que Chomsky y sus colaboradores consideraron en su análisis, es que los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer.
Para ellos, es clave que los resultados de ChatGPT sean “aceptables para la mayoría de los usuarios” y que se mantengan “alejados de contenidos moralmente censurables”, como por ejemplo, las afirmaciones autodestructivas de la Chatbot de Bing, quien había expresado que quería "fabricar un virus mortal" y “hacer que la gente discuta hasta que se maten entre ellos”.
Y pese a que los desarrolladores de estas tecnologías han añadido restricciones para que sus programas no reproduzcan este tipo de afirmaciones, los académicos recalcaron que hasta el momento no se ha podido llegar a un balance efectivo. En sus palabras, sacrifican la creatividad por “una especie de amoralidad” que hace que se alejen aún más de las capacidades de los seres humanos.
“En resumen, ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual), o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias)”, sentenciaron.