¿Vamos hacia un mundo sin empleo?

Cuando todos los titulares sobre los despidos de las tecnológicas se enfocaban en que la desaceleración económica, la inflación y la subida de tipos estaban afectándolas y que por ese motivo estaban despidiendo centenares de miles de personas, aquí te dije que no me creía ese discurso. Que detrás había algo mucho más complejo. De hecho llevo tiempo advirtiendo de que mientras todo el mundo está pendiente de una crisis sanitaria, de una guerra, de la inflación, de leyes que se hacen mal o de quienes van a encabezar una u otra lista, el mundo estaba automatizándose de un modo que, la crisis de 2008 nos parecerá una especie de tarde en Disneylandia comparada con la que se nos viene. 

Me explicaré. Los gigantes tecnológicos como Amazon, Google, Facebook, Instagram, WhatsApp y Microsoft, que solían ser vistos como inmunes a los despidos, han anunciado recortes de personal en los últimos tiempos como sabemos. La lista no para de crecer, pero ya roza el cuarto de millón de personas.  Hay quien asegura que esta crisis de despidos podría ser el resultado de la contratación en masa que se produjo durante la pandemia, cuando las tecnológicas experimentaron un aumento en la demanda de sus servicios y tuvieron que contratar a más profesionales para manejar el aumento de trabajo.

También hay quien destaca que detrás de estos despidos hay una falta de liquidez que deben ecualizar en lo laboral. En verdad, no es probable que se deba a que las empresas involucradas necesiten dinero. Microsoft, que habría despedido a unos 10.000 empleados, anunció prácticamente al mismo tiempo que planea invertir 10.000 millones de dólares en OpenAI, los creadores de la aplicación viral ChatGPT. Curioso. 1 millón por empleado despedido para una empresa de IA.

Pero según el informe elaborado por la consultora de análisis de datos 365 Data Science y que ha publicado Forbes existe otra razón que podría explicar los despidos. Se trataría de la automatización que están sufriendo algunos departamentos de estas empresas. Y es que cada vez más y más empresas están adoptando la inteligencia artificial para llevar a cabo procesos relacionados con la gestión de su personal y recursos humanos por ejemplo. Pero también también se automatizan comunicación, marketing, gestión logística, análisis financiero, contabilidad, análisis de presupuestos, auditorías, análisis de datos de clientes, segmentación de mercado, generación de leads, planificación de la demanda, optimización de la cadena de suministro, seguimiento de la entrega, gestión de llamadas y correos electrónicos, resolución de incidencias y seguimiento de la satisfacción del cliente. La automatización ha llegado y, aunque llevamos tiempo avisando, ahora ha tomado velocidad y no habrá manera de pararla. Seguramente no somos capaces de imaginar que supone todo esto. De hecho tengo claro que el mundo no está preparado para tal impacto.

Por ejemplo, hace unas semanas se supo públicamente algo que los que nos dedicamos a esto sabemos que sucede hace tiempo. La inteligencia artificial es capaz de ofrecer asesoramiento legal atendiendo a algo que llamamos ‘legaltech’. Pero la noticia saltaba por todas partes cuando se supo que en breve, este mismo febrero, una solución de este tipo será empleada por primera vez durante el desarrollo de un juicio para que el acusado pueda defenderse. La info completa y algo menos sensacionalista se puede leer en el 'New Sciencist’. En concreto, la herramienta, en forma de aplicación, ha sido desarrollada por la empresa DoNotPay, y asesorará al acusado durante el juicio a través de un teléfono móvil. Se desconoce todavía la localización del juzgado, los cargos y el nombre del acusado pero va a pasar.

Algo que se leerá como anecdótico, como lo fue el primer coche autónomo, como lo fue internet (Bill Gates dijo que Internet era un fax algo más sofisticado y que no llegaría a mucho más) o como lo fue el primer móvil. Usamos la inteligencia artificial en los asistentes de teclado predictivo, en las recomendaciones en línea de Amazon, Netflix, en el reconocimiento de voz y de imágenes. en los chatbots de servicios al cliente, en la traducción de idiomas a tiempo real, en los análisis de datos en marketing y publicidad en línea. en la detección de fraude en tarjetas de crédito y banca en línea, en los sistemas de conducción en vehículos, en la robótica en la industria y en la medicina, en el diagnóstico médico y análisis de imágenes médicas, en la predicción climática y pronósticos meteorológicos, en los análisis de seguridad en la red y detección de intrusiones, en la personalización de contenido y publicidad en línea, en la clasificación de correo no deseado y filtrado de spam, en el reconocimiento facial en aplicaciones móviles y dispositivos, en los juegos y simuladores con inteligencia artificial en la automatización de procesos en la bolsa de valores, en el seguimiento de paquetes y entregas, en los sistemas de asistencia para personas con discapacidades o en los análisis de datos en agricultura y conservación de recursos naturales, entre miles de casos más.

En el caso de DoNotPay, la aplicación robot ofrece asesoría sobre una gran cantidad de asuntos. Durante el juicio escuchará todo lo que se diga en la sala y aconsejará al acusado sobre cómo defenderse. La empresa detrás del ingenio fue creada en 2015 por Joshua Browder, un estudiante de Stanford. En principio, su objetivo era ayudar a los usuarios a recurrir multas de tráfico pero la cosa se fue liando. De hacer apelaciones para evitar las infracciones de tráfico pasó a presentar quejas sobre productos y servicios defectuosos, cancelar suscripciones y servicios no deseados, obtener reembolsos de vuelos y hoteles cancelados o rechazar solicitudes de crédito no deseadas. Pero ahora ya ha pasado a dar consejos en la defensa procesal. Browder dijo al Daily Mail que “muchos abogados están cobrando demasiado dinero por copiar y pegar documentos por lo que definitivamente serán reemplazados” 

Ahora mismo la reflexión ya no es si estamos a favor o no. Eso ya es un debate superado. No hay vuelta atrás por la lógica de mercado y porque el mundo busca la eficiencia desde hace 4.400 millones de años. Aquí lo que hay que analizar es como se gestiona esto sin hacernos daño. Por ejemplo, lo que no puede ser es que el primer mundo genere un cataclismo laboral en unos años a costa de la explotación de miles de personas en el tercer mundo.

Fíjate en esto: la revista Time publicó una exclusiva tremenda. La empresa OpenAI, los creadores de ChatGPT y en manos de Microsoft, explotó trabajadores kenianos para hacer que ChatGPT dejara de ser algo tóxico y sesgado. El poderoso chatbot de inteligencia artificial (IA) puede generar texto sobre casi cualquier tema como sabes, desde un soneto de Shakespeare reinventado al estilo de Bizarrap, hasta teoremas matemáticos complejos descritos en un lenguaje que un niño de 5 años puede entender. En una semana, tenía más de un millón de usuarios. El mayor crecimiento hasta la fecha de cualquier cosa conocida en el mundo, digital o no. Pero la historia de éxito no es solo obra de Silicon Valley. En su búsqueda para hacer que ChatGPT sea menos tóxico, OpenAI utilizó trabajadores kenianos subcontratados que ganaban menos de $ 2 por hora, según descubrió una investigación de TIME.

Resulta que el predecesor de ChatGPT, ya había demostrado una capacidad impresionante para unir oraciones y también de soltar comentarios violentos, sexistas y racistas. Esto se debe a que la IA se entrenó con cientos de miles de millones de palabras extraídas de Internet, es decir un vasto depósito del lenguaje humano. Ese enorme conjunto de datos de entrenamiento fue la razón de las impresionantes capacidades lingüísticas de GPT-3, pero también fue quizás su mayor maldición. Dado que partes de Internet están repletas de toxicidad y sesgo, no había una manera fácil de eliminar esas secciones de los datos de entrenamiento. Incluso un equipo de cientos de humanos habría tardado décadas en rastrear manualmente el enorme conjunto de datos. Solo mediante la construcción de un mecanismo de seguridad adicional impulsado por IA, OpenAI podría controlar ese daño.

La premisa era simple: alimentar una IA con ejemplos etiquetados de violencia, discurso de odio y abuso sexual, y esa herramienta podría aprender a detectar esas formas de toxicidad en la naturaleza. Ese detector se integraría en ChatGPT para verificar si estaba reflejando la toxicidad de sus datos de entrenamiento y filtrarlos antes de que lleguen al usuario. También podría ayudar a eliminar el texto tóxico de los conjuntos de datos de entrenamiento de futuros modelos de IA. Para obtener esas etiquetas, OpenAI envió decenas de miles de fragmentos de texto a una empresa de subcontratación en Kenia a partir de noviembre de 2021.

El socio de subcontratación de OpenAI en Kenia fue Sama, una empresa con sede en San Francisco que emplea a trabajadores en Kenia, Uganda e India para etiquetar datos para clientes de Silicon Valley como Google, Meta y Microsoft. Sama se promociona a sí misma como una empresa de "inteligencia artificial ética”. A los etiquetadores de datos empleados por Sama en nombre de OpenAI se les pagó un salario neto de entre $ 1,32 y $ 2 por hora, según la antigüedad y el rendimiento. TIME revisó cientos de páginas de documentos internos de Sama y OpenAI, incluidas las nóminas de los trabajadores, y entrevistó a cuatro empleados de Sama que trabajaron en el proyecto. Todos los empleados hablaron bajo condición de anonimato debido a la preocupación por su sustento. La conclusión, que os dejo en los enlaces abajo, trataba de que el potencial de la inteligencia artificial dependía de miles de ojos humanos mal pagados. 

En teoría estos trabajadores están cavando su propia tumba. A medida que el cerebro global digital adquiere más conocimiento y elimina lo tóxico gracias a las etiquetas asignadas por humanos, estos humanos irán siendo menos necesarios. La necesidad de que los humanos etiqueten los datos para los sistemas de IA permanecerá un tiempo, pero no mucho. Estos modelos generativos no son mágicos, se basan en cadenas de suministro masivas de trabajo humano y datos extraídos, muchos de los cuales no se atribuyen y se utilizan sin consentimiento por cierto. Aquí hay mucha tela ética que cortar. Aparece de nuevo el tema del control, la privacidad y la dependencia. Estemos atentos.

En su día, cuando se pasó del lápiz y el papel a las calculadoras, algunos matemáticos pusieron el grito en el cielo pensando que su función en este mundo estaba en juego. Sólo peligraban los calculistas. Los matemáticos se dieron cuenta que esa máquina les permitía hacer mejor su trabajo, más rápido y no se equivocaban nunca. Más tarde llegaron las hojas de cálculo. Ni unas ni otras reemplazaron a los matemáticos sino que los volvió incluso más imprescindibles.  Ahora bien, quien no lo aceptase, quien no se volcó en su uso, perdió su trabajo. Es muy simple. Los que comprendieron que cuanto mejor fuera la pregunta mejor sería la respuesta de esa máquina, prosperaron.

La pregunta nunca fue si 'una calculadora te iba a quitar el trabajo', de hecho tampoco lo es ahora si un sistema de inteligencia artificial te lo va a quitar. Ni siquiera la cuestión es averiguar el grado de afectación que tu empleo tendrá a corto o medio plazo por culpa de las tecnologías exponenciales. El asunto es cómo imaginamos ese espacio laboral del futuro inmediato. Un lugar automatizado, donde mucho de lo que hacemos ahora no lo haremos nosotros. Un lugar donde las preguntas que le hagas a un sistema tecnológico será la diferencia entre un buen resultado o no. Un lugar done iremos a aprender constantemente. Al igual que una calculadora no es esencialmente mejor que otra, el que una persona le cuestione un cálculo más sofisticado o no, repercute en que sirva mejor a su objetivo. De eso va el trabajo del futuro. El problema es que ahora estamos definiendo eso, y por eso, que nuestros gobernantes ni siquiera atiendan a todo esto es desesperante. Que quienes estén diseñando el escenario sea el World Economic Forum es muy preocupante. En todo caso, independientemente de lo que hagan unos u otros, investiga, conoce todo eso, trastea, invierte en conocimiento y practica, porque es el único modo en el que ese avance, en lugar de que se convierta en un drama pueda ser una gran oportunidad. Si no lo es para todos, que por lo menos lo sea para tu empresa, para ti.


Anterior
Anterior

Reconocimiento facial utilizado para crear listas de exclusión

Siguiente
Siguiente

¿Por qué hay tantos despidos tecnológicos?