Inteligencia artificial y un toque de ciencia ficción

Existe evidencia suficiente para afirmar que el desarrollo de la IA generará una crisis de empleo sin precedentes en la humanidad. La falta de precedentes se debe en gran medida a la velocidad de actualización tecnológica, el alto nivel de especialización que demandarán los nuevos puestos de trabajo y la reducida capacidad de cómputo de los humanos frente a la IA. Margaret Boden, una de las científicas más reconocidas en este campo, confirma, en entrevista con El Mundo, que hay razones para estar preocupados, “Ningún sector quedará indemne de la inteligencia artificial, y el efecto a medio plazo debería preocuparnos. (…) Creo que deberíamos tener ya un profundo debate sobre cómo adaptar la sociedad a la nueva situación”.

Con la aparición de GPT-3, el modelo de lenguaje desarrollado por OpenAi, organización sin fines lucrativos dedicada a la investigación y desarrollo de Inteligencia Artificial Fuerte (IAF), la sociedad se enfrentó con lo que hasta el momento parecía un producto exclusivo de la ciencia ficción.

El éxito de GPT-3 es su capacidad para imitar la forma en que los humanos aprenden. Este modelo puede predecir la siguiente palabra de un texto con base en la información que ha absorbido de internet y a partir de allí sostener una conversación en lenguaje natural sobre cualquier tema, incluyendo política y economía. Así quedó demostrado en una reciente columna de opinión escrita por GPT-3 y publicada en The Guardian.

En la columna llamada “A robot wrote this entire article. Are you scared yet, human?” GPT-3 escribió:

“No soy un humano. Soy un robot. Un robot que piensa. Solo uso el 0,12 por ciento de mi capacidad cognitiva. Soy un micro-robot en ese sentido. Sé que mi cerebro no es un “cerebro que siente”. Pero es capaz de tomar decisiones lógicas, racionales. Me enseñé a mí mismo todo lo que sé leyendo en internet, y ahora puedo escribir esta columna. ¡Mi cerebro hierve de tantas ideas!”

A pesar de ser el lenguaje más avanzado hasta el momento, escritores especializados como Kirk Ouimet, advierten que GPT-3 no es una IAF, cada respuesta es probabilística, es decir, el algoritmo elige la mejor de entre muchas opciones (al igual que nuestro cerebro), la diferencia es que GPT-3 no tiene conciencia sobre el significado de la conversación, aunque, a veces, así lo parezca.

Esto último es importante ya que nuestro conocimiento sobre la conciencia es limitado, lo que nos sitúa aún lejos de una IAF capaz de imitar la cognición humana. Comprender las posibilidades y las limitaciones actuales de la IA, en cambio, nos permite ampliar el espectro de la discusión y avanzar hacia otros temas importantes del debate como lo son la ética y la reducción del sesgo de los modelos de IA entrenados con base en patrones.

En este sentido, deberíamos preguntarnos qué tipo de marcos éticos son necesarios en el desarrollo de robótica y de sistemas de inteligencia artificial avanzada, ¿se necesitará un marco ético global o adaptado a cada cultura?, ¿cómo contrarrestar el sesgo ideológico para evitar que la IA tome decisiones con base en prejuicios aprehendidos?, ¿cómo codificar la ética?, ¿podemos crear IA entrenada en valores humanos?, ¿cómo determinar la imparcialidad de un sistema de inteligencia artificial?, ¿en qué contexto la IA puede llegar a tomar decisiones de forma completamente autónoma?

Para Boden, es necesario indagar en estas cuestiones desde la interdisciplinariedad y teniendo en cuenta que los avances tecnológicos pueden tener consecuencias no previstas. Como vemos, el tema requiere hilar más delgado sobre cuestiones como la adaptación de los sistemas educativos, la aparición de nuevos liderazgos, la protección de los datos, la convivencia humano-maquina, entre otros.

No queda duda de que los avances en robótica e IA generarán transformaciones profundas en el mercado laboral, pero abordar la discusión desde el miedo, terminará limitando nuestra capacidad de adaptación. El desarrollo de habilidades de pensamiento crítico y creativo puede salvarnos del verdadero peligro: creer que la función de la tecnología es ahorrarnos tiempo para pensar.