¿Existe una herramienta que pueda minimizar el impacto de la IA en los derechos humanos?
Existe y muchas empresas y organismos internacionales están ya preparándose y adoptando metodologías y herramientas para evaluar el impacto que los diferentes sistemas de inteligencia artificial pueden tener sobre los derechos humanos y la democracia y para minimizar los riesgos de las nuevas realidades tecnológicas.
Y entre los pioneros en lanzar una de esas herramientas figura el Consejo de Europa, la organización supranacional que agrupa a 46 estados -entre ellos los 27 de la Unión Europea– que ha puesto en marcha y a disposición de empresas y de instituciones y administraciones públicas su propia herramienta para evaluar esos riesgos, para mitigarlos e incluso para eliminarlos.
La herramienta ha sido bautizada como «HUDERIA» (acrónimo que combina las siglas en inglés de las palabras Derechos Humanos; Democracia; Estado de Derecho; y Evaluación de Impacto) y los promotores de la iniciativa han valorado que va a permitir evaluar los riesgos de la inteligencia artificial para garantizar que su uso sea eficiente, ético, seguro y confiable.
El español Mario Hernández es profesor de Derecho Constitucional en la Universidad Complutense de Madrid y preside el Comité de Inteligencia Artificial del Consejo de Europa, el organismo que ha lanzado el Convenio Marco sobre Inteligencia Artificial que se ha convertido en el primer tratado internacional jurídicamente vinculante en este ámbito y que ha sido ya firmado por numerosos países, entre ellos Estados Unidos, la Unión Europa o el Reino Unido -aunque está pendiente de ratificación en cada estado-.