Decenas de científicos destacados firman un compromiso para prevenir las armas biológicas basadas en inteligencia artificial

Decenas de científicos destacados firman un compromiso para prevenir las armas biológicas basadas en inteligencia artificial

Dario Amodei, director ejecutivo de la destacada empresa emergente Anthropic, dijo al Congreso el año pasado que la nueva tecnología de inteligencia artificial pronto podría ayudar a personas no calificadas pero maliciosas a crear ataques biológicos a gran escala, como la liberación de virus o sustancias tóxicas que causan enfermedades y muertes generalizadas. .

Los senadores de ambos partidos estaban alarmados, mientras que los investigadores de IA en la industria y el mundo académico debatían la gravedad de la amenaza.

Ahora, más de 90 biólogos y otros científicos especializados en las tecnologías de IA utilizadas para diseñar nuevas proteínas (los mecanismos microscópicos que impulsan todas las creaciones en biología) han firmado un acuerdo que busca garantizar que su investigación respaldada por IA avance sin exponer el mundo en riesgo. a daños graves.

Los biólogos, incluido el premio Nobel Frances Arnold y representantes de laboratorios en Estados Unidos y otros países, también han argumentado que las últimas tecnologías tendrían muchos más beneficios que inconvenientes, incluidas nuevas vacunas y medicamentos.

«Como científicos que participamos en este trabajo, creemos que los beneficios de las tecnologías actuales de IA para el diseño de proteínas superan con creces el daño potencial, y nos gustaría asegurarnos de que nuestra investigación siga siendo beneficiosa para todos en el futuro», se lee en el documento. ‘acuerdo.

El acuerdo no tiene como objetivo suprimir el desarrollo o despliegue de tecnologías de inteligencia artificial. En cambio, los biólogos pretenden regular el uso del equipo necesario para producir nuevo material genético.

Este equipo de producción de ADN es, en última instancia, lo que permite el desarrollo de armas biológicas, dijo David Baker, director del Instituto de Diseño de Proteínas de la Universidad de Washington, quien ayudó a impulsar el acuerdo.

«La ingeniería de proteínas es sólo el primer paso en la producción de proteínas sintéticas», dijo en una entrevista. «Por lo tanto, es necesario sintetizar realmente el ADN y trasladar el proyecto del ordenador al mundo real, y éste es el lugar adecuado para regularlo».

El acuerdo es uno de muchos esfuerzos para sopesar los riesgos de la IA frente a los posibles beneficios. Mientras algunos expertos advierten que las tecnologías de inteligencia artificial pueden ayudar a difundir información errónea, reemplazar empleos a un ritmo inusual y tal vez incluso destruir a la humanidad, las empresas de tecnología, los laboratorios académicos, los reguladores y los legisladores están luchando por comprender estos riesgos y encontrar formas de abordarlos.

La empresa del Dr. Amodei, Anthropic, construye grandes modelos de lenguaje, o LLM, el nuevo tipo de tecnología que impulsa los chatbots en línea. Cuando testificó ante el Congreso, argumentó que la tecnología pronto podría ayudar a los atacantes a construir nuevas armas biológicas.

Pero reconoció que eso hoy no es posible. Anthropic había realizado recientemente un estudio detallado que demostraba que si alguien intentara adquirir o diseñar armas biológicas, los LLM serían ligeramente más útiles que un motor de búsqueda estándar de Internet.

El Dr. Amodei y otros temen que a medida que las empresas mejoren los LLM y los combinen con otras tecnologías, surja una seria amenaza. Le dijo al Congreso que sólo faltaban dos o tres años.

OpenAI, creador del chatbot en línea ChatGPT, realizó posteriormente un estudio similar que demostró que los LLM no eran significativamente más peligrosos que los motores de búsqueda. Aleksander Mądry, profesor de informática en el Instituto Tecnológico de Massachusetts y responsable de la preparación de OpenAI, dijo que espera que los investigadores sigan mejorando estos sistemas, pero que todavía no ha visto ninguna evidencia de que sean capaces de crear nuevas armas biológicas.

Los LLM actuales se crean analizando cantidades masivas de texto digital recopilados de Internet. Esto significa que regurgitan o recombinan lo que ya está disponible en línea, incluida la información existente sobre ataques biológicos. (El New York Times demandó a OpenAI y su socio, Microsoft, acusándolos de infracción de derechos de autor en el proceso).

Pero en un esfuerzo por acelerar el desarrollo de nuevos medicamentos, vacunas y otros materiales biológicos útiles, los investigadores están empezando a construir sistemas de IA similares que pueden generar nuevos diseños de proteínas. Los biólogos dicen que esa tecnología también podría ayudar a los atacantes a diseñar armas biológicas, pero señalan que en realidad fabricar las armas requeriría un laboratorio multimillonario, incluido el equipo de producción de ADN.

«Existen algunos riesgos que no requieren millones de dólares en infraestructura, pero esos riesgos existen desde hace un tiempo y no están relacionados con la IA», dijo Andrew White, cofundador de la organización sin fines de lucro Future House y uno de los biólogos que firmaron el acuerdo.

Los biólogos han pedido el desarrollo de medidas de seguridad que impidan que los equipos de producción de ADN se utilicen con materiales nocivos, aunque no está claro cómo funcionarían dichas medidas. También pidieron revisiones de seguridad de los nuevos modelos de IA antes de lanzarlos.

No argumentaron que las tecnologías deberían reprimirse.

«Estas tecnologías no deberían estar en manos de un pequeño número de personas u organizaciones», afirmó Rama Ranganathan, profesor de bioquímica y biología molecular de la Universidad de Chicago, quien también firmó el acuerdo. «La comunidad de científicos debería poder explorarlos libremente y contribuir a ellos».

By Araujo Gomes Igor