“Existe el potencial de que se produzcan daños graves, incluso catastróficos, ya sea de manera deliberada o no intencionadamente.
Al igual que existe un Grupo Intergubernamental de Expertos sobre el Cambio Climático, avanza un acuerdo para crear un grupo similar que se encargue de vigilar el desarrollo de la inteligencia artificial. En eso coincidieron representantes de Estados Unidos, China, Brasil, India, Australia, Canadá y países de la Unión Europea, entre otros, reunidos esta semana en Bletchley Park, Inglaterra.
Antes de viajar al encuentro, los participantes acordaron una declaración conjunta en la que abogan por recurrir a la cooperación internacional para afrontar los “riesgos significativos” que conlleva el desarrollo de la inteligencia artificial. Señalan que esa tecnología necesita “una supervisión humana adecuada” y se comprometen a “trabajar juntos de manera inclusiva para asegurar una inteligencia artificial centrada en el ser humano, confiable y responsable”.
Si bien destacan que esta tecnología tiene un “potencial transformador” que puede impulsar “el bienestar” y la “prosperidad”, advierten que “existe el potencial de que se produzcan daños graves, incluso catastróficos, ya sea de manera deliberada o no intencional”.
Señalan que actualmente hay riesgos vinculados a la generación de “contenido manipulado” o “engañoso”, pero en particular advierten sobre sistemas que todavía están en desarrollo y que podrían generar amenazas “existenciales” que hoy no se pueden prever. “Dado el rápido e incierto ritmo de los cambios en la inteligencia artificial, y en el contexto de una aceleración de las inversiones en tecnología, afirmamos que profundizar en nuestra comprensión de esos riesgos potenciales y las acciones para mitigarlos es especialmente urgente”, agregan.
Una iniciativa de crear un centro de pruebas internacional en Reino Unido, que era una aspiración de integrantes del gobierno británico.
Sunak señaló que “la propia gente que está desarrollando esta tecnología ha advertido del riesgo que puede conllevar” y agregó que existe un debate al respecto. Consideró que si bien no hay que ser “alarmistas”, existen “argumentos para creer que puede representar un riesgo de la escala de una pandemia o una guerra nuclear, y es por ese motivo que, como líderes, tenemos la responsabilidad de actuar y dar los pasos necesarios para proteger a la gente”.
“Por primera vez tenemos un acuerdo entre países acerca de que debemos analizar no sólo de manera independiente sino colectiva los riesgos que rodean la inteligencia artificial”, dijo a su vez la ministra de Tecnología británica, Michelle Donelan.
Esta iniciativa tendrá continuidad en una cumbre de seguridad prevista para dentro de seis meses en Corea del Sur, y otra agendada para dentro de un año en Francia.
Font, article de "La Diaria"
No hay comentarios:
Publicar un comentario