¿Por qué Microsoft ha despedido a su equipo de ética de la IA en pleno boom por la inteligencia artificial?

Las Big Tech están llevando a cabo en los últimos meses despidos de miles de sus empleados. Estos empezaron en 2022 y han continuado con la entrada del año. Una de las empresas protagonistas en este aluvión de despidos ha sido Microsoft, que recientemente ha prescindido de 10.000 de sus trabajadores.

Dentro de esta última tanda de despidos de Microsoft estaba el equipo de ética y sociedad de su división de Inteligencia Artificial. Actualmente, solo siete personas estaban en este departamento de la compañía desde los recortes de otoño, sin embargo, en 2020 habían sido 30 personas, entre las que se encontraban ingenieros, diseñadores y filósofos.

Los encargados de la ética y sociedad de los proyectos relacionados con IA tenían que «crear reglas en áreas en las que no existía ninguna», según detalla un exempleado para Platformer, y eso lo consideraban crucial. No obstante, parece que los pocos que todavía mantenían su puesto ya no son tan relevantes. 

«Microsoft se compromete a desarrollar productos y experiencias de IA de manera segura y responsable, y lo hace invirtiendo en personas, procesos y asociaciones que priorizan esto -señala la marca en un comunicado-. Durante los últimos seis años, hemos aumentado la cantidad de personas en nuestros equipos de productos y dentro de la Oficina de IA responsable que, junto con todos nosotros en Microsoft, son responsables de garantizar que pongamos en práctica nuestros principios de IA. […] Agradecemos el trabajo pionero que hizo el equipo de ética y sociedad para ayudarnos en nuestro viaje continuo de IA responsable».

La reorganización de otoño

Lo que, en su día, fue un equipo de una treintena de personas pasó a ser un grupo de siete tras una reorganización para limitar los gastos de Microsoft en octubre del año pasado. Esta ‘reorganización’ no supuso despidos, ya que los trabajadores fueron reubicados en otras áreas de IA. John Montgomery, vicepresidente corporativo de la división, explicó a los empleados que el cambio se debía a que los directivos querían que actuasen con rapidez.

Según un audio obtenido de una reunión que hubo después de la reorganización, Montgomery hacía alusión a la presión por desarrollar modelos de IA de Kevin Scott y Satya Nadella, CTO y CEO de la empresa respectivamente. Gran parte de esto se debía al avance de OpenAI y el que estaba por venir que tenían que «ponerlos en manos de los clientes a muy alta velocidad».

Un empleado pidió que reconsiderasen la decisión: «Si bien entiendo que hay problemas comerciales en juego… lo que a este equipo siempre le ha preocupado profundamente es cómo impactamos a la sociedad y los impactos negativos que hemos tenido. Y son significativos». A pesar de ello, Montgomery se mantuvo firme y señaló que no tenía la perspectiva con la que él contaba desde su posición.

Los despidos se han producido por Teams

Ante las preocupaciones por posibles despidos, el vicepresidente corporativo de IA aclaró que el equipo no iba a desaparecer y que solo estaba evolucionando para construir servicios y software. No obstante, Montgomery no ha cumplido con esta idea y el 6 de marzo, cuando en Mountain View (California) eran las 11:30 AM, pidió a los siete empleados del equipo de ética y sociedad que se metiesen a una videollamada de Microsoft Teams.

En la reunión, los trabajadores escucharon la noticia de que habían optado por prescindir de ellos. El despido ha llegado en un momento en el que la Inteligencia Artificial cada vez está introduciéndose más en nuestra sociedad, por lo que el papel ético que ocupaban era relevante. Los exempleados eran los encargados de decir ‘no’ o de pedir que se redujese la velocidad cuando era pertinente e incluso de explicar los riesgos legales que podían provocarse de seguir adelante con un proyecto.

Un ejemplo del papel del equipo

El año pasado, la plantilla encargada de ética y sociedad trató de solventar un problema sobre el uso de DALL-E para generar imágenes a partir de ‘promts’ de texto en Bing Image Creator. Ellos opinaban que este servicio tenía un efecto negativo en los ingresos de los artistas, puesto que cualquiera podía copiar sus estilos pidiéndole a la IA que le ayudase.

Microsoft tenía que tener presente la explicación del equipo de ética y sociedad porque podía provocar inconvenientes legales, como había ocurrido con Stable Difussion, que había sido demandada por Getty Images. La última marca acusó a la startup Stability AI, de Stable, de haber usado más de 12 millones de imágenes suyas para entrenar su sistema.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Explore additional categories

Ponete al día con series, cine y música