Los Estados de la UNESCO adoptan el primer acuerdo mundial sobre la ética de la Inteligencia Artificial
La Directora General de UNESCO, Audrey Azoulay, ha presentado la primera norma mundial sobre la ética de la Inteligencia Artificial, adoptada por los Estados Miembros de la UNESCO en la Conferencia General.
El texto histórico establece valores y principios comunes que guiarán la construcción de la infraestructura jurídica necesaria para garantizar un desarrollo saludable de la IA.
La Inteligencia Artificial es omnipresente, y hace posibles muchas de nuestras rutinas diarias, desde la reserva de un vuelo, la conducción de automóviles sin conductor y la personalización de nuestras noticias matutinas. La IA apoya también la toma de decisiones de los gobiernos y el sector privado.
Las tecnologías de la IA están dando resultados notables en ámbitos muy especializados, como la detección del cáncer y la construcción de entornos inclusivos para personas con discapacidad. También puede ayudar a combatir problemas globales como el cambio climático y el hambre en el mundo y a reducir la pobreza optimizando la ayuda económica.
Pero también la tecnología está trayendo consigo nuevos retos sin precedentes. Asistimos a un aumento de los prejuicios de género y étnicos, a amenazas significativas contra la privacidad, la dignidad y la capacidad de acción, a los peligros de la vigilancia masiva y al aumento del uso de tecnologías de la IA poco fiables en la aplicación de la ley, por nombrar algunos. Hasta ahora, no había normas universales que dieran respuesta a estos problemas.
En 2018, Audrey Azoulay, Directora General de la UNESCO, lanzó un ambicioso proyecto: dar al mundo un marco ético para el uso de la inteligencia artificial. Tres años después, gracias a la movilización de cientos de expertos de todo el mundo y a intensas negociaciones internacionales, los 193 Estados Miembros de la UNESCO acaban de adoptar oficialmente este marco ético.
El contenido de la recomendación
La Recomendación tiene como objetivo hacer realidad las ventajas que la IA aporta a la sociedad y reducir los riesgos que conlleva. Garantiza que las transformaciones digitales promuevan los derechos humanos y contribuyan a la consecución de los Objetivos de Desarrollo Sostenible, abordando cuestiones relativas a la transparencia, la rendición de cuentas y la privacidad, con capítulos políticos orientados a la acción sobre la gobernanza de los datos, la educación, la cultura, el trabajo, la atención sanitaria y la economía.
1. Protección de datos
La Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos para garantizar a las personas una mayor protección, asegurando la transparencia, la capacidad de actuar y el control de sus datos personales. Afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del individuo a controlar sus propios datos. También aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir.
2. Prohibición de los marcadores sociales y la vigilancia masiva
La Recomendación prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva. Este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades fundamentales y se utilizan de forma generalizada. La Recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados Miembros deben tener en cuenta que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos y que no se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas.
3. Ayudar a supervisar y evaluar
La Recomendación también sienta las bases de las herramientas que ayudarán a su aplicación. La Evaluación del Impacto Ético pretende ayudar a los países y a las empresas que desarrollan y despliegan sistemas de IA a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente. La metodología de evaluación del grado de preparación ayuda a los Estados Miembros a evaluar su grado de preparación en términos de infraestructura jurídica y técnica. Esta herramienta ayudará a mejorar la capacidad institucional de los países y a recomendar las medidas adecuadas que deben adoptarse para garantizar la aplicación de la ética en la práctica. Además, la Recomendación anima a los Estados Miembros a considerar la posibilidad de añadir el papel de un funcionario independiente de ética de la IA o algún otro mecanismo para supervisar los esfuerzos de auditoría y seguimiento continuo.
4. Protección del medio ambiente
La Recomendación subraya que los actores de la IA deben favorecer métodos de IA eficaces en cuanto a datos, energía y recursos que ayuden a garantizar que la IA se convierta en una herramienta más destacada en la lucha contra el cambio climático y en el tratamiento de los problemas medioambientales. La Recomendación pide a los gobiernos que evalúen el impacto medioambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA. Esto incluye su huella de carbono, el consumo de energía y el impacto ambiental de la extracción de materias primas para apoyar la fabricación de tecnologías de IA. También pretende reducir el impacto medioambiental de los sistemas de IA y las infraestructuras de datos. Incentiva a los gobiernos a invertir en tecnología verde, y si hay un impacto negativo desproporcionado de los sistemas de IA en el medio ambiente, la Recomendación instruye que no se utilicen.
Las tecnologías emergentes tales como la IA han demostrado su inmensa capacidad para hacer el bien. Sin embargo, hay que controlar sus impactos negativos, que están exacerbando un mundo ya dividido y desigual. Los desarrollos de la IA deben respetar el estado de derecho, evitar los daños y garantizar que, cuando éstos se produzcan, los afectados tengan a su alcance mecanismos de responsabilidad y reparación.
Texto completo de la Recomendación
Más sobre la ética de la inteligencia artificial
Más sobre los 24 expertos que redactaron el borrador de Recomendación