El 'Proceso de Hiroshima sobre IA' acaba siendo la solución elegida, frente a las dos visiones casi antagónicas de Europa y Estados Unidos.
Se impone la tercera vía. Fue en mayo cuando Japón propuso la creación del 'Proceso de Hiroshima sobre IA'. Un foro intergubernamental con el objetivo de discutir cómo regular la IA y acercarse a la creación de estándares internacionales para una IA "digna de confianza".
Este proceso ha sido la tercera vía que finalmente ha ganado. Entre la disyuntiva de Europa contra Estados Unidos, Japón se ha presentado como un punto intermedio. El gobierno japonés propuso una regulación más laxa, pero suficiente concreta como para abordar los problemas del copyright o la exposición de datos personales. Y este baremo ha sido el que los líderes del G7 han aceptado hoy en un acuerdo que ya es oficial.
Código de Conducta para la IA". El acuerdo del G7 pasa por establecer un código de conducta para los desarrolladores de la inteligencia artificial. Está compuesto de una serie de ideas que todas las empresas y desarrolladores de IA deberían seguir.
Entre las reglas definidas están algunas de las siguientes:
- Antes y durante su despliegue: identificar, evaluar y mitigar los riesgos.
- Mitigar vulnerabilidades y patrones de uso indebido.
- Transparencia sobre las limitaciones y/o uso inapropiado.
- Compartir información de manera responsable con otras organizaciones.
- Implementar medidas para proteger datos personales y la propiedad intelectual
Además del G7, también se espera que otros países, entre ellos España, participan y ayudan a impulsar estas reglas.
No es tan exhaustivo como la AI Act, pero va en la misma dirección. Desde Europa se ha jugado un rol importante en intentar alcanzar este acuerdo. La AI Act es una regulación pionera y ha marcado muchas de las líneas que ahora están presentes en ese código de conducta que se pretende implementar a nivel global.
Estados Unidos mueve ficha. Paralelamente al acuerdo del G7, la Administración Biden ha anunciado una orden ejecutiva de regulación sobre la inteligencia artificial, con requisitos equivalentes al Código de Conducta en materia de privacidad y seguridad.
El problema: es voluntario. La gran diferencia entre este acuerdo del G7 y la regulación europea es que mientras la segunda será una ley, esto es un acuerdo de unas reglas que no se traducirán en leyes.
El Código de Conducta es eso mismo. Una serie de pautas y recomendaciones, pero de carácter voluntario. Es decir, no se obligará a empresas como OpenAI, Google, Meta o Microsoft el cumplirlas. No se descarta que estas mismas empresas acaben firmando el acuerdo, pero los líderes del G7 han optado por dejar en manos de estas empresas privadas esa decisión.
Font, article de Enrique Pérez per a "Xakata"
No hay comentarios:
Publicar un comentario