Inteligencia Artificial: cambios y tendencias en la automatización de habilidades

Autor
Sergio Pernice
Medio
Ámbito
Mes/Año
19 de diciembre de 2022

Las habilidades que más cuesta automatizar son aquellas que involucran una interacción continuada y no controlada con el mundo físico.

El siguiente poema se titula “La invención” (The Invention):

El dinero es algo que se gana con el sudor de la frente. Y así debe ser.

O puedes robarlo e ir a la cárcel;

O heredarlo, y disfrutarlo de por vida;

O ganarlo en la lotería, que es suerte;

O casarte con una esposa adinerada, que es lo que hice.

Y así es como debe ser, también.

Pero ahora esta idea ha surgido

De inventar el dinero, sin más.

Te pregunto, ¿nada es sagrado?

 

Debo admitir que la versión original en inglés tiene más fuerza. La de arriba es una traducción al español hecha por Google Translate. Pero este artículo no es una crítica a la inteligencia artificial que alimenta al traductor, por algo perdura la antigua frase italiana "Traduttore, traditore".

Se trata de un poema sobre criptomonedas, pero tampoco quiero referirme a la golpeada Blockchain.

El poema apareció el 21 de junio de este año en un artículo de Simon Rich titulado “La nueva máquina de hacer poemas” (The New Poem Making Machine) en la prestigiosa revista “The New Yorker”.

El detalle es que el poema en sí no fue escrito por Rich. Lo único que hizo el autor fue pedirle a GPT3 que escriba un poema sobre criptomonedas en el estilo de Philip Larkin, uno de los poetas más famosos de la Inglaterra de posguerra. Y GPT3 lo generó en menos de un segundo. El autor confiesa que, si le hubieran dicho que lo hizo Philip Larkin, lo hubiera creído. Aunque, por parecido que sea el estilo, el hecho de que Larkin falleció el 2 de diciembre de 1985, mucho antes de que surgiera Bitcoin, hubiera sido un fuerte indicio contrario.

¿Pero qué es GPT3? GPT3 es un sistema de inteligencia artificial que procesa lenguaje natural, creado por Open AI, y abierto al público en junio de 2020. Es una red neuronal gigantesca, con 175 mil millones de parámetros, y entrenada con casi todos los textos que hay en Internet.

Aunque no siempre genera outputs tan asombrosos, intentando varias veces, y aprendiendo a darle instrucciones suficientemente ricas, GPT3 puede escribir poemas que expertos no pueden distinguir de aquellos escritos por poetas profesionales. Hace unos pocos días Open AI lanzó “ChatGPT”, otro sistema similar, capaz de mantener conversaciones de manera muy realista.

De manera análoga, hay sistemas de inteligencia artificial, como DALL-E 2, Midjourney y Stable Diffusion, que permiten crear imágenes originales y realistas a partir de descripciones de texto. Se generó una gran controversia entre artistas a mediados de año cuando Jason Allen, el ganador de la categoría de “arte digital” en la competencia de bellas artes de la Feria Estatal de Colorado, reveló, después de haber recibido el premio, que había creado su obra de arte utilizando Midjourney, uno de los sistemas de AI. Aparentemente ahora tenemos que especificar más detalladamente qué califica como “arte digital”. ¿Vale cuando el rol del humano se limita a escribir una descripción de lo que quiere en la imagen en uno de estos programas?

Estos programas pueden también responder correctamente preguntas de exámenes de nivel secundario realizadas en lenguaje natural, las mismas preguntas que hoy cualquier docente usa para evaluar a sus alumnos. Y los docentes no tendrán manera de distinguir si un cierto texto fue creado por un estudiante, o por alguno de estos sistemas. Tampoco podrán buscar en Google, como lo hacen hoy, para estar seguros de que no hay plagio.

No es este el lugar para explicar cómo funcionan estos modelos que hace 2 años están generando asombrosos resultados. Basta decir al respecto tres cosas:

  • Lo único nuevo en ellos tiene que ver con “Transformers”, palabra que ya no refiere a los dibujos animados de los 80.
  • Todo lo demás tiene muchos años. Pero, importantemente, cambió la escala. Ha habido un increíble aumento en poder computacional y en datos accesibles. Y sólo con eso, lo que funcionaba muy modestamente hace cinco años ahora genera lo que genera.
  • La idea de “simulación”, que subyace a todo lo que tiene que ver con inteligencia artificial.

El último punto es controversial para mucha gente. En realidad, es una idea muy simple, que ya usó Alan Turin en 1950, la persona que empezó todo esto. La idea es: si la simulación de una habilidad es lo suficientemente buena como para que sea empíricamente indistinguible de la habilidad en sí, es irrelevante la distinción entre la versión “genuina” y la “simulada”. Toda otra discusión es filosófica o teológica.

Hay mucha gente muy seria que está convencida de que, antes de que la “simulación”, en el sentido del párrafo anterior, alcance a todas las actividades humanas, incluido el pensamiento original, AI va a chocarse con una pared. Argumentan que la mera escala no va a ser suficiente para seguir sacando conejos de la galera. Puede ser, la realidad es que nadie lo sabe. Pero lo que está pasando desde hace dos años hace dudar a muchos, yo incluido. Basado en nuestro entendimiento teórico del poder de esos modelos, la performance que demuestran no era esperable.

Quiero terminar remarcando una cruel ironía. Como se puede comprobar con una simple búsqueda en Google, hasta hace muy poco, y lo sigo escuchando en mi tarea docente y de consultor, cualquiera que pensara en estas cosas opinaba que había una suerte de orden que la automatización iba a respetar. Primero se iban a automatizar las actividades manuales, con robots. Después ciertas actividades intelectuales basadas en algoritmos, que involucran matemáticas y ciencias. Pero lo que probablemente nunca se iba a automatizar, se pensaba, eran las actividades creativas, y más ampliamente, las actividades cognitivas complejas asociadas a lo que consideramos tareas profesionales.

Lo que están mostrando los modelos actuales es exactamente lo opuesto. Las habilidades que más cuesta automatizar son aquellas que involucran una interacción continuada y no controlada con el mundo físico. Y de las que tienen que ver con responder preguntas hechas en lenguaje natural, muy parecido a lo que ocurre en las escuelas, las que más les cuesta responder a las maquinas son de matemáticas y ciencias, no de historia, ni geografía, ni artes. Simular empatía y otros sentimientos, por escrito o audio, tampoco parece difícil para la inteligencia artificial actual.

Quien diga que sabe lo va a pasar miente, o no sabe lo que ignora. Pero lo que parece automatizable hoy es muy diferente de lo que parecía hace dos años. Es, también, existencialmente mucho más inquietante.