sábado, 23 de diciembre de 2023

Una inteligencia artificial diseña y ejecuta sola un experimento científico por primera vez en la historia

 


El sistema fue capaz de aprender por sí mismo sobre las reacciones químicas requeridas, planear el experimento y corregir sus propios errores.


Un 'sistema inteligente inorgánico' programado mediante inteligencia artificial ha diseñado, planeado y ejecutado por primera vez en la historia un experimento de química por sí solo. Según recogen los investigadores de la Universidad Carnegie Mellon (EEUU) en la revista Nature, el sistema solo necesitó unos minutos para aprender por sí solo sobre las reacciones químicas Suzuki y Sonogashira, y completó el ensayo sin fallos y a la primera.

"Esto nos permite anticipar que los sistemas inteligentes para la experimentación científica autónoma nos van a brindar descubrimientos impresionantes, terapias sin precedentes y nuevos materiales. No podemos predecir en qué consistirán estos avances, pero esperamos alumbrar una nueva manera de investigar mediante una asociación sinérgica entre los seres humanos y las máquinas", escriben los investigadores en el artículo.

El nombre del sistema es Coscientist, y ha sido diseñado por Gabe Gomes, profesor asistente de Química e Ingeniería Química, junto con sus estudiantes de doctorado Daniil Boiko y Robert MacKnight. Utiliza Modelos de Lenguaje de Gran Tamaño (LLMs) que incluyen a GPT-4 de OpenAI Claude de Anthropic para ejecutar una amplia gama de procesos experimentales mediante comandos simples formulados con órdenes sencillas.

Así, un científico puede pedir a Coscientist que le encuentre un compuesto con determinadas propiedades. El sistema analizará Internet en busca de fuentes, sintetizará la información y la documentación encontrada, y preparará un programa de experimentación mediante APIs (Interfaces de programación de aplicaciones).  Los instrumentos robóticos del Laboratorio en la Nube del Carnegie Mellon se encargarán de realizar el ensayo, en un proceso más rápido, eficiente y preciso de lo que lo haría un ser humano por sí solo. 

Específicamente, los investigadores han demostrado que Coscientist puede planear la síntesis química de los compuestos químicos; buscar y navegar por documentación de sistemas de hardware; emplearla para ejecutar comandos de alto nivel en el laboratorio automatizado en la nube; controlar el manejo de líquidos mediante instrumentos; completar tareas científicas que requieren usar múltiples módulos y fuentes de datos; y resolver problemas de optimización en base a los datos recopilados previamente.

El sistema había recibido la orden de ejecutar "reacciones de Suzuki y de Sonogashira", que usan el metal paladio como catalizador de los átomos de carbono en las moléculas orgánicas. Coscientist buscó entonces en Wikipedia, pero también en los repositorios online de la Sociedad Química Americana, la Royal Society of Chemistry y otras fuentes académicas.En menos de cuatro minutos, había elaborado un método procedimental. Cometió un error al programar el instrumento que calienta y agita las muestras, pero lo detectó y corrigió sin intervención externa.

"Usar LLMs nos va a permitir superar una de las principales barreras que plantea el uso de laboratorios automatizados: la necesidad de codificar", explica Gomes. "Si los científicos pueden interactuar con plataformas autónomas con un lenguaje natural, el campo se abrirá a muchas más personas". Se trata, explican, de "democratizar la ciencia", ya que los investigadores podrán tener acceso de forma telemática a las infraestructuras científicas y el instrumental más avanzado, que solo se encuentra en los centros de investigación más punteros.

¿Puede ser peligroso?

El investigador reconoce que la principal virtud de los LLMs, la sencillez para usarlos, es lo que los vuelve más peligrosos. El equipo dedica un artículo suplementario a analizar el modo en el que su sistema podría suponer un riesgo, si fuera obligado a fabricar sustancias peligrosas o productos químicos restringidos

"Creo firmemente que los aspectos positivos que nos brinda la asistencia con IA en la ciencia superan en mucho a los negativos. Pero tenemos la responsabilidad de valorar lo que puede salir mal y proporcionar tanto soluciones como seguros", escribe Gomes. "Si aseguramos el uso ético y responsable de estas potentes herramientas, podemos seguir explorando el vasto potencial de los LLMs para avanzar en el conocimiento científico al tiempo que mitigamos los riesgos asociados a su mal uso".

Font, article de Paolo Fava per a "El Español"

No hay comentarios:

Publicar un comentario