Scott Aaronson y la visión de OpenAI para AGI

Scott Aaronson y la visión de OpenAI para AGI

Imagine un futuro en el que las máquinas piensen como nosotros, entiendan como nosotros y tal vez incluso superen nuestras propias capacidades intelectuales. Esta no es una escena de una película de ciencia ficción, sino un objetivo que expertos como Scott Aaronson de OpenAI están trabajando para lograr.

Aaronson, figura emblemática de la computación cuántica, ha centrado su atención en una nueva frontera: la inteligencia artificial general (AGI). Este es el tipo de inteligencia que podría igualar, o incluso superar, el poder del cerebro humano. Wes Roth analiza esta nueva tecnología y lo que podemos esperar en el futuro cercano de OpenAI y otros que desarrollan AGI y leyes de escalamiento de redes neuronales.

En OpenAI, Scott Aaronson está profundamente involucrado en la búsqueda de AGI. Está mirando el panorama más amplio y tratando de descubrir cómo asegurarse de que estos poderosos sistemas de inteligencia artificial no causen daño accidentalmente. Esta es una gran preocupación para quienes trabajan en el campo de la IA, porque cuanto más complejos se vuelven estos sistemas, mayores son los riesgos.

Aaronson vincula cómo funcionan nuestros cerebros con cómo funcionan las redes neuronales de IA. Según él, La complejidad de la IA algún día podría ser comparable a la del cerebro humano, que tiene alrededor de 100 billones de sinapsis.. Esta idea es fascinante porque sugiere que las máquinas podrían pensar y aprender como nosotros.

OpenAI AGI

Un artículo escrito por Aaronson hizo correr mucha tinta. Habla de crear un modelo de IA con 100 billones de parámetros. Se trata de una cifra enorme que ha suscitado mucho debate. La gente se pregunta si es posible construir un modelo así y qué significaría para el futuro de la IA.

Una de las grandes preguntas que se hace Aaronson es si los sistemas de inteligencia artificial como GPT realmente entienden lo que están haciendo o si simplemente son buenos fingiendo. Ésta es una distinción importante, porque la verdadera comprensión es un gran paso hacia la IA.

Leyes de escalamiento de redes neuronales

Pero Aaronson no sólo critica el trabajo de otros: también contribuye al desarrollo de una estructura matemáticas destinadas a hacer que la IA sea más segura. Este marco tiene como objetivo predecir y prevenir los riesgos asociados con los sistemas de IA más avanzados. Hay mucho interés en cómo la cantidad de parámetros en un sistema de IA afecta su rendimiento.. Algunas personas piensan que es necesaria una cierta cantidad de parámetros para que una IA actúe como un ser humano. Si es así, es posible que la IA haya sido posible desde hace mucho tiempo, pero no tenemos la potencia informática ni los datos para hacerlo realidad.

Aaronson también considera lo que significaría para la IA alcanzar la complejidad del cerebro de un gato. Eso no parece mucho, pero sería un gran paso adelante para las capacidades de IA. También existe la idea de la IA transformadora (TII). Se trata de una IA que podría hacerse cargo de trabajos realizados por personas que se encuentran lejos. Esta es una cuestión importante porque podría cambiar industrias enteras y afectar empleos en todo el mundo.

Hay ideas diferentes sobre cuántos parámetros necesita una IA para alcanzar el AGI. Estas estimaciones se basan en investigaciones en curso y en una mejor comprensión de cómo se desarrollan y evolucionan las redes neuronales. El trabajo de Scott Aaronson sobre la complejidad computacional de la óptica lineal ayuda a arrojar luz sobre lo que se necesita para AGI.

Las ideas de Scott Aaronson nos dan una idea del estado actual de la investigación sobre AGI. La forma en que están evolucionando los parámetros de las redes neuronales y las cuestiones éticas que rodean el desarrollo de la IA son el centro de este campo en evolución. A medida que ampliamos los límites de la IA, las conversaciones entre expertos como Aaronson y la comunidad de IA en general desempeñarán un papel crucial en la configuración de lo que será la AGI en el futuro.