10 principios para la inteligencia artificial (IA) ética en el lugar de trabajo

Vota este post

ai

Durante los últimos 30 años, la tecnología ha sido una fuente importante de creación de nuevos empleos y oportunidades. Sin embargo, en el pasado reciente, con el rápido desarrollo de las capacidades digitales y de inteligencia artificial (IA), la tecnología comenzó a desplazar a los trabajadores calificados, lo que generó varias preocupaciones sobre la pérdida de empleos en el futuro.

Una gran cantidad de empresas de pequeña y gran escala en varios sectores favorecen la automatización de las tareas típicas de recursos humanos, ya sea complementando o incluso sustituyendo a los trabajadores por eficiencia, productividad y ahorros significativos en costos. Se espera que esta tendencia creciente cause pronto consecuencias negativas no deseadas en el mercado laboral.

Según un análisis reciente de la OCDE, el 14 % de los puestos de trabajo corren un alto riesgo de automatización, y es probable que otro 32 % de los trabajadores experimente un cambio sustancial en sus carreras. El riesgo de automatización es mayor entre los trabajadores mayores y los adolescentes. Los expertos creen que el cambio rápido a la automatización y los sistemas autónomos afectará no solo a los trabajos de transporte, taxi, entrega y otros servicios, sino también a los abogados, el personal médico, los profesionales de las finanzas y la contratación, etc.

Watson y DeepMind Health de IBM superaron a los médicos humanos en el diagnóstico de cánceres raros en 2016, mientras que en 2018, un abogado de robos apeló con éxito más de USD 12 millones en multas de tránsito. La IA ha demostrado ser mejor que los profesionales de las finanzas en la predicción de las variaciones bursátiles. En particular, Alibaba ya no emplea trabajadores temporales para atender las consultas de los consumidores en días de gran volumen o promociones especiales. Durante el mayor día de ventas de Alibaba en 2017, los chatbots respondieron a más del 95 % de las preguntas de los clientes y respondieron a unos 3,5 millones de consumidores.

Por lo tanto, para mantener un equilibrio saludable de poder y salvaguardar los intereses de los trabajadores en los lugares de trabajo, UNI Global Union, con sede en Suiza, presentó diez principios clave para una IA ética, buscando políticas y alianzas innovadoras. Una voz destacada en el escenario político e industrial mundial, UNI representa a más de 20 millones de trabajadores de más de 150 países. Puede leer los 10 principios principales de UNI para la IA ética a continuación:

1. Transparencia

Los trabajadores deben tener el derecho y la oportunidad de exigir transparencia en las decisiones, los resultados y los algoritmos subyacentes de los sistemas de IA. También deben ser consultados sobre la implementación, desarrollo y despliegue de sistemas de IA. UNI argumenta que el código fuente abierto no es necesario ni suficiente para la transparencia, ya que la complejidad no puede ofuscar la claridad. Insta a que, en caso de accidentes, AI sea responsable.

2. Caja negra ética

Todos los sistemas de IA deben contener una «caja negra ética» incorporada, un dispositivo que pueda registrar todas las decisiones, movimientos y datos sensoriales para garantizar la transparencia y la responsabilidad. La información debe explicar las acciones en lenguaje humano que los usuarios puedan entender, fomentar mejores relaciones y mejorar la experiencia del usuario.

3. Sirviendo a las personas y al planeta

Esto implica un código de ética para el desarrollo, la aplicación y el uso de la IA, de modo que los sistemas de IA sigan siendo compatibles durante todo su proceso operativo y mejoren los principios de dignidad humana, integridad, libertad, privacidad, diversidad cultural y de género y derechos humanos fundamentales. derechos. Además, los sistemas de IA deben proteger e incluso mejorar los ecosistemas y la biodiversidad de nuestro planeta.

4. Enfoque humano al mando

El desarrollo y la implementación de la IA deben ser responsables, seguros y útiles donde las máquinas mantengan el estado legal de las herramientas y donde las personas jurídicas mantengan el control sobre estas máquinas y sean responsables de ellas. Esto implica el diseño y la operación de sistemas de IA para cumplir con las leyes existentes, incluida la privacidad. Los trabajadores deben tener el ‘derecho de explicación’ cuando se utilizan sistemas de IA en procedimientos de recursos humanos, como contratación, promoción o despido.

5. IA sin género e imparcial

Es vital que el sistema esté controlado por sesgos humanos negativos o dañinos en el diseño y mantenimiento de sistemas artificiales y de IA, y que cualquier sesgo, ya sea de género, raza, orientación sexual o edad, sea identificado y no propagado por el sistema.

6. Compartir los beneficios de la IA

En beneficio de toda la humanidad, la prosperidad económica creada por la IA debe distribuirse de manera amplia y equitativa. En consecuencia, se necesitan políticas tanto globales como nacionales destinadas a cerrar la brecha económica, tecnológica y social digital.

7. Libertades y derechos fundamentales

Dado que los sistemas de IA podrían desplazar a los trabajadores, es vital que se establezcan políticas para garantizar la seguridad social, el aprendizaje continuo durante toda la vida para seguir siendo empleables y una transición a la nueva realidad digital, incluidas medidas gubernamentales específicas para ayudar a los trabajadores desplazados a encontrar nuevos trabajos. Todos los sistemas de IA deben incluir un control y equilibrio en cuanto a si su implementación y aumento van de la mano con los derechos fundamentales de los trabajadores.

8. Mecanismo de gobernanza mundial

UNI recomienda el establecimiento de órganos de gobernanza de múltiples partes interesadas a nivel mundial y regional. Los organismos deben incluir diseñadores, desarrolladores, investigadores, fabricantes, propietarios, empleadores, abogados, organizaciones de la sociedad civil y sindicatos de IA. Deben establecer mecanismos de denuncia y procedimientos de seguimiento para garantizar la transición y la implementación de una IA ética.

9. Responsabilidad jurídica

UNI afirma que la responsabilidad legal por un robot debe atribuirse a una persona. Los robots deben diseñarse y operarse en la medida de lo posible para cumplir con las leyes existentes y los derechos y libertades básicos, incluida la privacidad.

10. Carrera armamentista de IA

UNI insta a prohibir las armas autónomas letales, incluida la guerra cibernética. UNI también pide una convención mundial sobre IA ética que ayude a abordar y prevenir las consecuencias negativas no deseadas de la IA, al mismo tiempo que acentúa sus beneficios para los trabajadores y la sociedad.

Deja un comentario