Qué es la inteligencia artificial general (AGI), el potencial destructor de la humanidad que habría desarrollado OpenAI

La inteligencia artificial (IA) generativa que ha dado de qué hablar en el último año son solo los primeros pasos en el desarrollo de este tipo de tecnología. El fin último es llegar a la IA General (AGI), un concepto más revolucionario que ha generado polémica a raíz del supuesto descubrimiento de la empresa especializada OpenAI de que «podría amenazar a la humanidad».

Timnit Gebru, fundadora del Instituto de Investigación de IA Distribuida y ex jefa del departamento de ética en IA de Google, fue despedida por alertar sobre los peligros de esta tecnología. Su caso fue muy sonado a principios de año en España tras una entrevista que hizo para El Confidencial. Ahora, estos riesgos vuelen a estar en boca de todos por el escándalo de OpenAI que desvelaron fuentes anónimas a la agencia de noticias Reuters.

El hallazgo se comentó en un informe de un proyecto secreto llamado Q* (se pronuncia ‘Q-star’), que investiga sobre AGI, un concepto que define como «sistemas autónomos que superan a los humanos en la mayoría de las tareas económicamente valiosas». El riesgo que podía suponer originó una discusión dentro de la junta directiva que dio lugar al despido de Sam Altman, el CEO de OpenAI. 

Antes de que se cumpliese una semana de su marcha, OpenAI anunció que el empresario y cofundador de la firma volvía con un cambio casi completo de la cúpula. Pero esta noticia quedó en un segundo plano tras conocerse el motivo de su despido.

¿Qué es la inteligencia artificial General (AGI)?

Nisha Talaga, CEO de AIClub, describió el concepto AGI en una columna para Forbes como «una inteligencia que no está especializada en ninguna tarea concreta», sino que es buena en muchas. Según cuenta, la mayoría de las IA de la actualidad «se centran en un problema y son extremadamente buenas resolviendo ese problema, a menudo mejor que los humanos».

La especialista en IA ejemplificaba un caso de hace ya más de dos décadas, cuando «una IA venció a expertos humanos en ajedrez, pero no podía leer un libro, planificar su día o hacer cualquier otra cosa que puedan hacer los humanos». Por lo tanto, la diferencia con la AGI sería que esta «podría hacer todas esas cosas».

Will Douglas Heaven menciona en un artículo del MIT Technology Review que el término AGI comenzó a usarse para hacer referencia a la IA que iguala o supera a los humanos en una variedad de tareas, pero es complejo determinar «qué se considera humano», qué tareas se aceptan y se descartan y cuántas tareas deben realizarse para que la IA pase a ser AGI.

El equipo de DeepMind, una división de Google enfocada en la investigación sobre inteligencia artificial, diferenció cinco niveles de AGI:

  • Emergente: aquí nos encontramos actualmente, con chatbots como ChatGPT y Bard. 
  • Competente. 
  • Experto. 
  • Virtuoso. 
  • Sobrehumano: capaz de realizar una gran variedad de tareas mejor que los humanos.

Un AGI no solo debe poder llevar a cabo una amplia gama de tareas, sino que debe poder aprender a realizarlas, evaluar su desempeño y pedir ayuda cuando sea necesario. Según matizaban los investigadores de DeepMind, era más importante saber qué podía llegar a hacer un AGI que conocer cómo lo hace.

Ilya Sutskever, jefe científico de OpenAI, aseguró en una charla TED que la AGI tendría el potencial de ser más inteligente que los humanos en cualquier aspecto. Según comentaba, este tipo de IA dispondría de todo el conocimiento humano para respaldarse y, además, sería capaz de entrenarse a sí misma, pudiendo crear otras AGI mejores.

Los riesgos de la inteligencia artificial General

La idea de que una AGI pueda generar otras AGI por sí misma abre un debate sobre posibles sesgos algorítmicos y también supone una amenaza sobre la privacidad de datos. Es posible que, al trabajar por su cuenta, la máquina fuese capaz de revelar información que en su día se guardaron confidencialmente, ya sea algo personal como del ámbito industrial, económico y gubernamental.

Por ese motivo, es crucial que se regule al respecto, algo en lo que están trabajando la Unión Europea, Estados Unidos, Japón y otros territorios del mundo. Algunas propuestas de ley son más permisivas (EEUU) que otras (UE) que buscan un control más estricto, sin embargo, todas ellas reconocen los riesgos que puede haber y, cuando se aprueben, serán una medida de protección para la sociedad.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Explore additional categories

Ponete al día con series, cine y música