Tecnología

Artificialmente humana: una guía para entender a la IA

Por Santiago Mitnik
27 de mayo de 2024

En los últimos años, la inteligencia artificial (IA) parece imponerse como una de las fuerzas más transformadoras de nuestra era, integrándose en casi todos los aspectos de nuestra vida cotidiana. Desde algoritmos que nos recomiendan qué ver hasta vehículos que se conducen solos, la IA está redefiniendo lo que entendemos por inteligencia y capacidad humana. En esta nota quiero analizar no sólo los aspectos técnicos de la IA, sino también sus profundas implicaciones filosóficas. ¿Cómo afecta la IA nuestra percepción de la inteligencia y la creatividad? ¿Qué significan estos avances para la sociedad moderna? Al explorar estas preguntas, buscamos entender no sólo cómo la IA está cambiando el mundo, sino también cómo está redefiniendo nuestra propia humanidad.

La IA, en términos simples, se refiere a la capacidad de las máquinas para realizar tareas que normalmente requieren “inteligencia” humana, como el aprendizaje, la toma de decisiones y el reconocimiento de patrones. A medida que la IA se desarrolla y se implementa en más sectores, surgen una serie de preguntas fundamentales sobre su impacto en nuestra civilización. ¿Cómo afecta la IA nuestra percepción de la inteligencia y la creatividad? ¿Qué significan estos avances para la humanidad en términos de trabajo, privacidad y ética? ¿Va la IA a transformar nuestras estructuras sociales y políticas? La IA está en el centro de un cambio paradigmático que nos obliga a reconsiderar nuestras propias capacidades y el futuro de nuestra especie.

La IA, las IAs

En realidad, definir qué es la inteligencia artificial es mucho más difícil de lo que parece. Cuando hoy hablamos de IA usualmente nos referimos a cuatro cosas completamente distintas. IA puede ser cualquier cosa dentro de un amplísimo conjunto de estrategias para crear sistemas informáticos capaces de realizar tareas que normalmente requieren inteligencia humana. En cualquier juego, incluso en el ajedrez, si jugamos contra una computadora, usualmente llamamos a eso IA. En muchos casos, no hay nada de machine learning detrás de eso y son simplemente encadenamientos lógicos de ifs y thens. El problema con esto es que así, cualquier algoritmo o sistema informático, incluso cualquier máquina podría llamarse “inteligencia artificial”. Tercerizar la mano de obra humana a otras cosas no humanas es uno de los pilares fundamentales de la civilización, desde la domesticación y la agricultura, pasando por todo tipo de ingeniería pero ya vamos a volver a esto después.

En este caso, cuando hablamos de IA, podemos específicamente referirnos a programas o algoritmos que “aprendan” automáticamente de data y en base a eso infieran respuestas a problemas, sin que un ser humano deba entrenarlos a mano con instrucciones precisas ni caso por caso. Esa es básicamente la definición de machine learning, o aprendizaje maquínico. Para este aprendizaje se requieren algoritmos complejos y, fundamentalmente, el procesamiento de enormes volúmenes de datos.

Dentro de la IA propiamente dicha, hoy solemos hablar de 3 tipos bastante distintos. En primer lugar tenemos ciertos algoritmos entrenados con Machine Learning que cumplen funciones específicas y estrechas. La gran mayoría de los programas o aplicaciones prácticas de IA son de este estilo. Reconocimiento de imágenes, algoritmos de procesamiento de lenguaje natural como Siri y Alexa, sistemas de recomendación en plataformas como Netflix y Amazon, los programas guía de vehículos autónomos, etc. Estos sistemas son altamente efectivos en dominios muy limitados.

En el otro extremo tenemos los Skynet, Matrix, etc. La IA como ser vivo inteligente y autónomo del ser humano. A este tipo de inteligencia hipotética se la suele llamar AGI, por las siglas en inglés de Inteligencia Artificial Generalista. Esto es una IA que no necesita al ser humano para tomar ninguna decisión ni orientar objetivos ni estrategias, básicamente una entidad como mínimo a la misma altura que un humano, sino superior.

En el medio, tenemos a la IA generativa, y específicamente un grupo selecto, surgido del procesamiento de texto: los LLM, Large Language Models, o grandes modelos de lenguaje. El pionero y rey en esta categoría es ChatGPT, acompañado por Gemini, Llama, Claude, etc. Este tipo de IA son particularmente interesantes por las implicancias económicas, sociales e incluso filosóficas que tienen.

El cerebro artificial

Pero antes de seguir con las implicancias filosóficas, hay que detenerse brevemente en lo que hay dentro de esa “caja negra” que son las IA. La idea de “máquinas pensantes” no es nada nuevo, ni en la imaginación ni como posibilidad científica. En los 80, ya existían muchas de las ideas que posibilitaron la emergencia del Machine Learning, pero lo que aún no existía era la capacidad de cómputo (potencia de cálculo) para poder realizarlo.

La idea básica es hacer una red neuronal artificial inspirada en la estructura del cerebro humano. Consiste en capas de neuronas artificiales conectadas entre sí. Cada neurona recibe “inputs” numéricos, las procesa mediante una función matemática, y produce una salida que se transmite a las neuronas de la siguiente capa, hasta llegar al final. Las redes neuronales pueden ser simples o tener muchas capas ocultas (lo que suele llamarse «deep learning»). Estas redes se entrenan ajustando los “pesos” de las conexiones entre neuronas a través de un proceso llamado retropropagación (backpropagation), donde los errores en la salida se utilizan para actualizar los pesos, minimizando la diferencia entre la salida predicha y la real. Este proceso se repite infinidad de veces hasta que “da bien”.

Este entrenamiento de “minimización de error” genera un sistema que aprende a hacer una operación específica con el menor error posible. Cómo lo hace y por qué esa serie de operaciones numéricas da como resultado eso que se busca es casi imposible de saber. Por eso las redes neuronales son una “caja negra». Esto no es un “error” del sistema. Es inherente a lo que se buscaba. Así también funciona el cerebro humano. Por más avances en neurociencia, es aún imposible entender exactamente cómo se forma una idea o acción específica en nuestro cerebro. Las redes neuronales artificiales conservan esta característica.

Los modelos de lenguaje de gran escala, como ChatGPT, llevan a esto a una escala mayor, con redes enormes. Funcionan utilizando una arquitectura de “transformadores”, que permite a los modelos capturar correlaciones a largo plazo en los textos con los que son entrenados. Durante el entrenamiento, el modelo ajusta millones de parámetros que le permiten predecir la siguiente palabra en una secuencia, basándose en el “contexto” de las palabras anteriores. Una vez entrenados, estos modelos pueden generar texto coherente y contextual, responder preguntas, etc, etc.

El resultado, aunque no parezca, es una versión ultra potente de un típico predictor de texto, como los que hay en todo teclado de un teléfono. Y justamente lo “simple” del proceso es lo que más da para pensar, por las implicancias del resultado.

Inteligencia y lenguaje

Hay una discusión complejísima sobre el Lenguaje en sí. No me voy a meter demasiado en profundidad porque gente que sabe muchísimo más que yo del tema vive escribiendo y discutiendo, pero la naturaleza fundamental del lenguaje es un tema aún no resuelto. Algunos autores creen que en el ser humano algunas cuestiones como la existencia de la gramática está ya “codificada” en nuestros instintos, y que no proviene solo de los aprendizajes que hacemos. Para otros, es simplemente una acumulación de reglas que deducimos en base al contacto con inputs reconocibles. Ahora, por primera vez en la historia de la humanidad, tenemos algo no-humano que puede usar un lenguaje reconocible para nosotros, con gramática y escritura y todo el combo.

Cuando pensamos en la idea de “inteligencia”, lo primero que puede venir a la mente es una comparación con alguna persona que consideremos especialmente inteligente o poco inteligente. Básicamente, nuestra vara de medición principal es otro ser humano. Incluso, explorando un poco más, podemos asombrarnos de lo muy inteligente que puede ser algún animal como un mono, un cuervo o un pulpo por hacer algo que originalmente pensábamos “único” y reservado para nosotros. Si la vara de medición es el humano, cuando un mono hace algo bien nos lleva a preguntarnos si en realidad lo principal son las diferencias que existen, o si somos básicamente monos con dos o tres herramientas conceptuales más.

El propio concepto de inteligencia es en gran medida una trampa, porque solo funciona para “medir” (y hasta ahí) cuando lo usamos para analizar un universo minúsculo de casos (léase los humanos y cosas que se le parezcan) pero no dice nada de todas las otras mentes posibles. La aparición de estas IAs entonces nos lleva a la pregunta: es la IA que creamos de alguna manera fundamentalmente distinta a nosotros o en realidad somos bastante más parecidos de lo que pensamos. 

Y, también bajo enormes debates, muchas teorías tanto del lenguaje como de la mente plantean que ambos conceptos están ineludiblemente unidos, con el extremo del Test de Turing donde hablar como un humano es casi sinónimo de ser inteligente. Pero también hay una trampa fundamental: en las IA no es un lenguaje ni una “inteligencia” aprendida desde 0, sino que es una construcción hecha en base a todo el conocimiento acumulado de la humanidad. Cuando hablamos de “corpus masivos de data” no estamos hablando sólo de ceros y unos en abstracto, estamos hablando de toda la producción lingüística sea comunicativa, literaria, política o casual de toda la historia humana

A nuestra limitada capacidad de definir qué es “inteligencia” le agregamos que construimos, a propósito, una máquina que cumple exactamente con los testeos necesarios, entrenada con todo lo que sabemos. Por eso mismo, mi consideración es que, por ahora, discutir la “inteligencia” de la IA por separado de la inteligencia humana es un sinsentido, con la salvedad de esperar a ver si hay algún cambio en el futuro. Pero eso no quiere decir que no haya cosas para analizar, sino todo lo contrario.

Afuera del humano, dentro de la humanidad

En mi interpretación personal, la IA no es más que una tercerización o exteriorización de la inteligencia humana. Es, de nuevo, una máquina que sirve para traer patrones que aprendió de una gran fuente de conocimiento humano. Así como cuando no sabemos algo podemos ir a buscarlo a un libro, una página de internet o consultarlo con otra persona. La diferencia está en que la IA, en casos generales, trae patrones aprendidos, no el conocimiento exacto. Irónicamente, es mucho más parecido a como resulta consultarle a otra persona que a un libro.

La realidad es que muchos de los problemas de análisis surgen e intentan entender al ser humano como una mera suma de cuerpo y alma, o un cuerpo con inteligencia. En realidad el ser humano existe en un estado mucho más difuso. Hacia “abajo”, dentro de nosotros está lleno de pequeños organismos microscópicos sin los que no podríamos existir. Y hacia “arriba”, existimos en un continuo llamado especie. Y nuestra especie tiene algo particular, que podríamos llamar “civilización”.

La civilización es un enorme conjunto de humanos, objetos e ideas articulados en un funcionamiento complejo. En lo material, por ejemplo, nuestra ropa y nuestras ciudades son tan parte de nosotros como los caparazones son de las tortugas. Que no crezcan directamente de nuestro cuerpo y de lo que comemos es casi un detalle.

Y en el mundo de las ideas, tenemos un enorme campo de “memes” (en la acepción de Richard Dawkins se refiere a una unidad de información cultural que se transmite de una persona a otra) que existen dentro de nuestras cabezas, en nuestra memoria, pero que también están fijados en objetos externos. No hace falta empezar un debate de si las ideas de una sociedad son “externas” a los individuos que la componen. Alcanza simplemente con entender que la información puede estar fijada en un libro, o estar viajando como señal de radio entre satélites o estar almacenada en un servidor. 

A este campo o red que envuelve el planeta también podemos llamarlo “noosfera” en la definición de Teilhard y Vladimir Vernadsky, equivalente a la biosfera, pero referido a una idea de pensamiento y materialidad de la humanidad ampliada. Con esta herramienta conceptual, la IA tal como la conocemos es mucho menos misteriosa, es simplemente un nodo muy complejo y fuerte dentro de esta enorme red.

Por eso veo mucho más útil pensar la IA, o las IAs mejor dicho, más como un nuevo tipo de tercerización de procesos “inteligentes”, externos a nosotros como individuos, pero dentro de nuestra matriz común de pensamiento que como “seres inteligentes” autónomos y externos a la humanidad. La IA es una nueva extensión de nuestras capacidades humanas, una herramienta que amplifica nuestra eficiencia y creatividad, sin necesidad de atribuirle una agencia independiente

Cuando domesticamos animales o plantas, cuando desarrollamos la escritura, con la aparición de la industria o cuando inventamos la calculadora, etc, en todos esos momentos también “exteriorizamos” una parte del trabajo que antes recaía en el hombre. Específicamente, esta vez nos asusta un poco más porque pisa terreno que creíamos monopólico de los individuos humanos, como la escritura, la argumentación, el arte o el diseño, y también porque ya nos olvidamos del shock brutal que fueron esas transformaciones anteriores para los contemporáneos.

La cuestión no es que las IAs sean más inteligentes que nosotros y por eso nos dominen, sino que hagan cada vez más nuestros trabajos por nosotros. Irónicamente, viene justo a punto el concepto original de “robot”, de Karel Čapek, que deriva del término «robota», que significa literalmente «trabajo”. En las historias de Isaac Asimov, se escribe sobre una época signada por las “Grandes Máquinas” que gestionan toda la economía del mundo. 

La realidad es que no estamos ni cerca de esto. Así como la agricultura y la domesticación de los animales no eliminó la necesidad de que personas trabajen en la producción de alimentos, tampoco ChatGPT5 o 6 va a eliminar el trabajo cognitivo. Pero los impactos de las transformaciones tecnológicas son inevitables. Y la idea de “competencia” humano-máquina es en sí parte del problema, la discusión real deberá pasar por cómo distribuir y administrar esa nueva extensión de las capacidades humanas y las fuerzas productivas que implican.

Santiago Mitnik ¿Te gustó la nota? Seguilo en sus redes 👇 @santi_mitnik @santimitnik