Frank Escandell

¿Cómo funcionar eso de Inteligencia Arificial Ética?

​El uso ético de la IA y cómo ejercerse y desplegarse está aún en pañales, pese a que expertos de diversos campos están lidiando con múltiples y hasta contradictorios enfoques regulatorios y de gobernanza que empresas del sector privado y naciones de todo el mundo están utilizando. ¿Qué ética debería aplicarse al nuevo mundo de la IA y qué barreras de seguridad se necesitan?
|

Recientemente, durante la Conferencia MIT AI de 2024: Tecnología, Negocios y Ética, patrocinada por el MIT Industrial Liaison Program, se abordaron inquietudes específicas sobre la ética en la Inteligencia Artificial, como mejores herramientas de auditoría, estándares uniformes de capacitación, prevención de riesgos e interacción coordinada entre humanos y máquinas; también se incluyó una discusión sobre los lenguajes de aprendizaje automático actuales y su aplicación. Asimismo, se plantearon algunas cuestiones filosóficas generales que surgen cuando la ciencia de datos choca con los matices de las normas sociales y el comportamiento humano.


Entre las conclusiones, un objetivo principal de la IA debería ser la automatización de suma positiva, que consiste en utilizar un diseño tecnológico y una estrategia diferentes para obtener tanto productividad como flexibilidad. Es decir, no una suma cero sino la que aporte positivamente a la interacción humana. Otra novedad es que se describió la necesidad de un enfoque "de abajo hacia arriba" para la participación de los empleados, de modo que el éxito pueda medirse por "un mayor desempeño y satisfacción de los equipos humanos".


Para optimizar la colaboración entre humanos y máquinas debemos evaluar en qué destacan los humanos (contexto, matices, sarcasmo, etc.) en comparación con las máquinas (velocidad y repetición).

KVohh6EY6X5MvGfzfAzR  1  cuv74


Lo que sí es preocupante es la erosión de las capacidades humanas en la ejecución de tareas. Esto se debe a la excesiva dependencia en sistemas de inteligencia artificial para las operaciones y la toma de decisiones. Esto tiene un impacto sobre la resiliencia humana en este nuevo entorno. ¿Cuáles son las consecuencias sociales?”


No entramos en las dificultades para diseñar directrices regulatorias y de gobernanza adecuadas para la IA generativa en la investigación académica y en los mercados empresariales. Los beneficios en términos de eficiencia y velocidad son claros, donde las amenazas a la mano de obra, la confiabilidad y la precisión cobran gran importancia.


En octubre de 2023, el Presidente Joe Biden, con el enfoque más limitado del riesgo de IA descrito por la UE, firmó una orden ejecutiva. A diferencia de nosotros los europeos, la Administración Biden aseguró compromisos voluntarios de siete empresas líderes de inteligencia artificial de EE. UU. (Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI) para garantizar la seguridad y la confianza con sistemas avanzados de inteligencia artificial. Estos incluyen acuerdos sobre pruebas de seguridad internas y externas sobre riesgos cruciales como la bioseguridad y la ciberseguridad, así como efectos sociales más amplios, la protección de pesos de modelos inéditos y la presentación de informes públicos sobre las capacidades, limitaciones y directrices del sistema para un uso responsable. 


En septiembre de 2023, ocho empresas adicionales, incluidas IBM, Nvidia y Palantir, fueron convocadas en la Casa Blanca para aceptar estos mismos términos.


Observamos que la ética en la inteligencia artificial es mucho más técnica de lo que pensamos. La mayor amenaza es no sumarse a la inteligencia artificial y quedarse atrás.