Él Aumento del desarrollo de la IA plantea la necesidad de establecer estándares básicos sobre seguridad y privacidad para que los usuarios cibersystems No violes los derechos humanos. ¿Quién está a cargo de esta tarea inquietante?
Georges Dassis, presidente del Comité Económico y Social Europeo (EESC), firmado el 31 de mayo de 2017 en el diario oficial de la UE, una opinión titulada “Las consecuencias de la inteligencia artificial” (IOWA) para el mercado único (digital), producción, consumo, empleo y sociedad. En el primer párrafo de las conclusiones y recomendaciones, el autor declaró esto: “Dada la influencia positiva y negativa de la inteligencia artificial en la sociedad, el EESC se compromete a seguir los desarrollos en esta área, no solo desde el punto de vista del punto técnico desde Ver, pero también desde el Perspectiva de la ética, la sociedad y la seguridad […] y para contribuir a crear un debate equilibrado y bien fundado, sin alarmismo o relativización extrema. El EESC está comprometido con promover el desarrollo de la IA que beneficia a la humanidad… “.
Para aquellos que no creen en la política, es posible que tal declaración en el párrafo introductorio de una iniciativa, lejos de tranquilizarlos, pueda plantear cierta preocupación. Lo normal es pensar más bien en las razones que mueven a la UE no solo para dedicar tiempo y dinero a Supervisión del desarrollo de la inteligencia artificialpero para emitir esta opinión sorprendente y extensa después de una presentación de Catelijne Mullermiembro de Grupo de expertos de alto nivel de la Comisión Europea sobre IA.
En su opinión, el EESC señala once áreas donde AI plantea desafíos sociales: Ética, seguridad, privacidad, transparencia y responsabilidad, trabajo, educación y desarrollo de habilidades, igualdad e inclusión, derecho y regulación, gobernanza y democracia, guerra y superinteligencia. Además, defiende la necesidad de que este futuro sea comandado por las personas, “con un marco de condiciones que regulan el desarrollo responsable, seguro y útil de la IA para que las máquinas sigan siendo máquinas y los humanos mantengan el control en todo momento. sobre ellos “.
Parece bastante claro que las leyes que Isaac Asimov Escribió en 1942 y que han regulado la ciencia ficción en el último medio siglo se han vuelto obsoletos, porque la realidad siempre supera la ficción.
AI es una rama de la informática responsable de la percepción, racionamiento y aprendizaje basado en sistemas artificiales. Los sistemas de conocimiento, la robótica, el lenguaje natural y las redes neuronales constituyen los pilares en los que se desarrolla esta ciencia.
Es bien sabido que los múltiples Plataformas AI que están emergiendo en todas partes Programan o entrenan –En el caso de las redes neuronales, a través de algoritmos. Pero al contrario de lo que parece ser una idea generalizada, un algoritmo no es una fórmula matemática, sino más bien, según lo definido por Yuval Noah Harari en su libro Homo deus“Es un conjunto metódico de pasos que se pueden usar para hacer cálculos, resolver problemas y alcanzar decisiones”.
Es decir, No es el cálculo en sí, sino el método o rutina que se sigue para realizarlo. De esta manera, si una media aritmética es, por ejemplo, (1+2+3)/3 = 2, el algoritmo (o instrucción básica para llevar a cabo) sería “Agregar las cantidades de un cierto número de valores y divídalo por el número de valores ”. Si la pregunta es abrir una puerta, un algoritmo (diseñado, por supuesto, en el lenguaje de programación) podría ser: “Inserte la llave en el bloqueo, gírela tanto como irá y empuje”. Pero si la puerta tiene una perilla, el algoritmo sería diferente.
Por lo tanto, la acción derivada de la enseñanza que se ha dado a una máquina Depende, en mayor o menor medida, del humano que lo concibe y lo escribe.. Y ahí es donde se encuentra el problema: en la intervención del hombre con sus creencias, preferencias, juicios y prejuicios.
La preocupación de los expertos en el campo ha alcanzado tal punto que Joy Buolamwini, una científica informática del MIT Media Lab y fundadora de la Liga de Justicia Algorítmica, ha organizado un movimiento cuyo objetivo es denunciar el sesgo –BIAS, en inglés, esa programación puede implicar.
Además, ha creado un espacio en el que las personas interesadas pueden Comparta sus inquietudes y experiencias a este respecto. Por otro lado, ha pedido ayuda de activistas que desean movilizarse para el cambio; a los desarrolladores, para que hagan su trabajo de manera inclusiva; a los artistas, para promover la reflexión social; y al entorno académico, para investigar el sesgo.
Buolamwini también quiere que las empresas tengan recursos para verificar las desviaciones; eso Los ciudadanos exigen justicia, responsabilidad y transparencia; y que los legisladores son responsables de establecer las pautas a seguir. En resumen, ha sonado la alarma: “Los algoritmos pueden tener consecuencias en el mundo real y debemos exigir justicia”.
En su último trabajo, Buolamwini ha denunciado el Resultados de varias pruebas de sistemas de reconocimiento facial diseñados con inteligencia artificial y desarrollado por grandes compañías de computadoras multinacionales en las que se ve claramente que este software discrimina a los negros. En algunos casos, en entornos absurdos, como un concurso de belleza, Beauty.Ai, donde solo una persona de color entre seis mil participantes de todas las razas y nacionalidades era finalista.
Pero en otros, en contextos tan graves como la aplicación de programas de apoyo de justicia, en la fase comercial, donde los ciudadanos negros son culpables incluso si son inocentes. Y Buolamwini ha demostrado esto aplicando los resultados del sistema a las características de Michelle Obama u Oprah Winfrey.
También en el Instituto de Tecnología de Massachusetts (MIT), Harini Suresh, un estudiante de doctorado en el Laboratorio de Informática e Inteligencia Artificial (CSAIL), pasa su tiempo investigando el desarrollo de algoritmos de aprendizaje automático justos y precisos que permiten a los usuarios obtener los datos que necesitan que necesiten los datos que necesitan. .
Según el sitio web oficial del Centro donde investiga, Suresh estudia las implicaciones sociales de los sistemas automatizados en el Grupo de Inferencias impulsadas por datos, dirigido por el Profesor John Guttag, que utiliza el Aprendizaje automático y visión por computadora para mejorar los resultados en medicina, finanzas y deportes.
En una entrevista publicada en la sala de prensa del MIT, Suresh explicó que “en el aprendizaje automático Por lo general, usamos datos históricos y formamos un modelo para detectar patrones de repetición. y hacer nuevas predicciones; Si los datos están sesgados por una tendencia, como ‘las mujeres tienden a recibir menos tratamiento para el dolor’, entonces el modelo lo aprenderá. —La agregó:: incluso si los datos no son parciales, si solo tenemos menos información sobre un determinado grupo, las predicciones para ellos serán peores. “Si ese modelo se integra en un hospital o cualquier otro sistema del mundo real, no funcionará por igual en todos los grupos de personas, y eso sería problemático e inequitativo”.
Esto ha llevado a Suresh a trabajar en el creación de algoritmos que usan datos de manera efectiva pero justa. “Esto implica tanto detectar el sesgo o la falta de representatividad de esos datos e tratar de descubrir cómo aliviarlo en diferentes puntos del contenedor de aprendizaje automático. Tenemos que facilitar que las personas usen estas herramientas de manera responsable para que nuestras predicciones sean aceptables para la sociedad en general ”, dice Suresh.
En este sentido, la Unión Europea solicita en el documento mencionado “que un Código de ética para el desarrollo, implementación y uso de AI, De modo que a lo largo de todo su proceso operativo, los sistemas de inteligencia artificial son compatibles con los principios de la dignidad humana, la integridad, la libertad, la privacidad, la diversidad cultural y de género, y los derechos humanos fundamentales “.
Además, el EESC, como se hace en el MIT, defiende claramente “Para el desarrollo de un sistema de estandarización para la verificación, validación y control de los sistemas de inteligencia artificial” e indica que debe basarse en una amplia gama de estándares con respecto a la seguridad, la transparencia, la inteligibilidad, la responsabilidad y los valores éticos.
Fuente Informativa