Cuando Elon Musk demandó a OpenAI y a su director ejecutivo, Sam Altman, el jueves por incumplimiento de contrato, convirtió las reclamaciones del socio más cercano de la startup, Microsoft, en un arma.
Citó repetidamente un artículo controvertido pero muy influyente escrito por investigadores y altos ejecutivos de Microsoft sobre el poder de GPT-4, el revolucionario sistema de inteligencia artificial OpenAI lanzado en marzo pasado.
En el documento «Chispas de AGI», el laboratorio de investigación de Microsoft afirma que, aunque no entendía cómo, GPT-4 había exhibido «chispas» de «inteligencia general artificial» o AGI, una máquina que puede hacer todo lo que hace el ordenador. cerebro humano. puede hacer.
Fue una declaración audaz, que se produjo cuando las empresas tecnológicas más grandes del mundo se apresuraban a introducir inteligencia artificial en sus productos.
Musk está volviendo el documento en contra de OpenAI, diciendo que demuestra cómo OpenAI se ha apartado de sus compromisos de no lanzar productos verdaderamente potentes.
Microsoft y OpenAI se negaron a comentar sobre la demanda. (El New York Times está demandando a ambas empresas, alegando infracción de derechos de autor en la formación de GPT-4). Musk no respondió a una solicitud de comentarios.
¿Cómo surgió el trabajo de investigación?
Un equipo de investigadores de Microsoft, dirigido por Sébastien Bubeck, un expatriado francés de 38 años y exprofesor de Princeton, comenzó a probar una versión inicial de GPT-4 en el otoño de 2022, meses antes de que la tecnología se lanzara al público. Microsoft ha comprometido 13 mil millones de dólares para OpenAI y negoció acceso exclusivo a las tecnologías subyacentes que impulsan sus sistemas de inteligencia artificial.
Mientras charlaban con el sistema, quedaron asombrados. Escribió una prueba matemática compleja en forma de poema, generó un código de computadora que podía dibujar un unicornio y explicó la mejor manera de apilar una colección aleatoria y ecléctica de artículos para el hogar. El Dr. Bubeck y sus colegas investigadores comenzaron a preguntarse si estaban presenciando una nueva forma de inteligencia.
«Al principio era muy escéptico y eso evolucionó hasta convertirse en una sensación de frustración, molestia y tal vez incluso miedo», dijo Peter Lee, jefe de investigación de Microsoft. “Uno piensa: ¿De dónde diablos salió todo esto?”
¿Qué papel juega el papel en la demanda de Musk?
Musk argumentó que OpenAI había incumplido el contrato porque había acordado no comercializar ningún producto que su junta directiva hubiera considerado AGI.
«GPT-4 es un algoritmo AGI», escribieron los abogados de Musk. Dijeron que esto significaba que el sistema nunca debería haber tenido licencia para Microsoft.
La denuncia de Musk citó repetidamente el artículo de Sparks para argumentar que GPT-4 era AGI. Sus abogados declararon: «Los propios científicos de Microsoft reconocen que GPT-4 ‘alcanza una forma de inteligencia general'» y dada «la amplitud y profundidad de GPT-4» 4, creemos que podría considerarse razonablemente como una inicial (pero aún incompleta) ) versión de un sistema de inteligencia general artificial (AGI).
¿Cómo fue recibido?
El artículo ha tenido una enorme influencia desde que se publicó una semana después del lanzamiento de GPT-4.
Thomas Wolf, cofundador de la destacada empresa emergente de inteligencia artificial Hugging Face, el escribio el X al día siguiente que el estudio «presentó ejemplos absolutamente alucinantes» de GPT-4.
Desde entonces, la investigación de Microsoft ha sido citada en más de 1.500 artículos más, según Google Scholar. Según Semantic Scholar, es uno de los artículos sobre inteligencia artificial más citados en los últimos cinco años.
También enfrentó críticas de expertos, incluidos algunos dentro de Microsoft, que estaban preocupados de que el documento de 155 páginas que respaldaba la afirmación careciera de rigor y alimentara un frenesí de marketing sobre la inteligencia artificial.
El artículo no ha sido revisado por pares y sus resultados no se pueden reproducir porque se realizó en versiones anteriores de GPT-4 que fueron celosamente guardadas por Microsoft y OpenAI. Como señalaron los autores en el artículo, no utilizaron la versión GPT-4 que luego se lanzó al público, por lo que cualquier otra persona que replicara los experimentos obtendría resultados diferentes.
Algunos expertos externos han dicho que no está claro si GPT-4 y sistemas similares exhiben un comportamiento similar al razonamiento humano o al sentido común.
“Cuando vemos un sistema o una máquina complicados, lo antropomorfizamos; todo el mundo lo hace: la gente que trabaja en el campo y la gente que no», dijo Alison Gopnik, profesora de la Universidad de California, Berkeley. «Pero piense en esto como una comparación constante entre la inteligencia artificial y los humanos, como una especie de del concurso de premios, no es la forma correcta de pensarlo”.
¿Ha habido otras quejas?
En la introducción del artículo, los autores inicialmente definieron «inteligencia» citando un artículo de opinión del Wall Street Journal de hace 30 años que, al defender un concepto llamado curva de campana, argumentaba que «los judíos y los asiáticos orientales» tenían más probabilidades de tener una mayor coeficiente intelectual. que “negros e hispanos”.
El Dr. Lee, que figura como autor del artículo, dijo en una entrevista el año pasado que cuando los investigadores intentaban definir el AGI, «lo tomamos de Wikipedia». Dijo que cuando más tarde se enteraron de la conexión de Bell Curve, «nos sentimos realmente mortificados e hicimos el cambio de inmediato».
Eric Horvitz, científico jefe de Microsoft, que fue uno de los principales contribuyentes al artículo, escribió en un correo electrónico que él personalmente asumió la responsabilidad de incluir la referencia, diciendo que había visto referencias a ella en un artículo del cofundador del laboratorio de inteligencia artificial DeepMind de Google. y no me había dado cuenta de las referencias racistas. Cuando se enteraron de esto, a través de una publicación en X, «nos horrorizamos porque simplemente buscábamos una definición razonablemente amplia de inteligencia por parte de los psicólogos», dijo.
¿Es este el AGI o no?
Cuando los investigadores de Microsoft escribieron inicialmente el artículo, lo llamaron «Primer contacto con un sistema AGI». Pero algunos miembros del equipo, incluido el Dr. Horvitz, no estuvieron de acuerdo con la caracterización.
Más tarde le dijo al Times que no estaban viendo algo que él «llamaría ‘inteligencia general artificial’, sino que en su mayoría vislumbra a través de sondas y resultados sorprendentemente poderosos en ocasiones».
GPT-4 está lejos de hacer todo lo que puede hacer el cerebro humano.
En un mensaje enviado a los empleados de OpenAI el viernes por la tarde y visto por el Times, el director de estrategia de OpenAI, Jason Kwon, dijo explícitamente que GPT-4 no es AGI.
«Puede resolver pequeñas tareas en muchos trabajos, pero la proporción entre el trabajo realizado por un humano y el trabajo realizado por GPT-4 en la economía sigue siendo increíblemente alta», escribió. «Es importante destacar que un AGI será un sistema altamente autónomo capaz de idear nuevas soluciones a desafíos de larga data: GPT-4 no puede hacer esto».
Sin embargo, el artículo alimentó las afirmaciones de algunos investigadores y expertos de que GPT-4 representaba un paso significativo hacia AGI y que empresas como Microsoft y OpenAI continuarían mejorando las capacidades de razonamiento de la tecnología.
El campo de la inteligencia artificial todavía está amargamente dividido sobre qué tan inteligente es la tecnología hoy o será pronto. Si Musk consigue lo que quiere, un jurado podría resolver el asunto.