“Sin control, los algoritmos terminan abusando de los trabajadores”

“Sin control, los algoritmos terminan abusando de los trabajadores”
WhatsApp Image 2023-04-14 at 6.08.04 AM.jpeg

La reforma laboral del gobierno Petro le pega al venerado unicornio de las aplicaciones colombianas: Rappi. La reforma busca que empresas basadas en algoritmos, como ésta, hagan un contrato a término indefinido con sus trabajadores para darles más garantías laborales. Su argumento es que, aunque los rappitenderos no tengan un jefe humano, el algoritmo de la aplicación genera, de facto, una relación laboral.

El CEO de la compañía, Simón Borrero, ha dicho que, si el proyecto se aprueba, dejaría al 90 por ciento de los rappitentederos sin ingresos, casi 40 mil personas. El debate alrededor de los derechos y las obligaciones que se contraen con estas aplicaciones que basan su modelo de negocio en algoritmos complejos, también está pasando en otras partes del mundo. En Colombia aterriza con la pelea alrededor de si los trabajadores de esta aplicación son emprendedores o trabajadores, y cómo se relacionan con esa aplicación.

La Silla Académica entrevistó a Diana Carolina Valencia, profesora en la facultad de derecho de la Universidad del Rosario, y autora del texto El Estado en la era de la globalización y las nuevas tecnologías (2015). También a Daniel Barredo Ibáñez, investigador Emergia del Departamento de Periodismo de la Universidad de Málaga (España) y autor deArtificial intelligence, communication, and democracy in Latin America: a review of the cases of Colombia, Ecuador, and Mexico", ambos han escrito sobre cómo los negocios basados en algoritmos plantean desafíos a la política. 

Es La Silla Académica

Es Diana Valencia

Es Daniel Barredo

LSA: ¿Qué opinión tiene de los argumentos de Rappi, según los cuales formalizar a los trabajadores supondría hacer inviable el negocio de la compañía?

Rappi siempre ha dicho que los trabajadores no tienen contratos laborales, sino que son emprendedores. Para muchos, incluyéndome, el vínculo laboral que tienen sí es de un contrato laboral, y los trabajadores de esa empresa deberían tener una mejor protección.

Parte del argumento que utiliza Rappi es que no se está hablando de contratos laborales como en las empresas tradicionales. Un argumento que, de hecho, muchos rappitenderos comparten y dicen que no quieren un contrato porque no les parece que les vaya a beneficiar.

Si duda que reconocer esos contratos de trabajo va a tener un impacto en la compañía y le aumentará los costos. Pero, en todo caso, yo creo que independientemente del modelo de negocio de esa empresa, sí se requiere de mayor transparencia de los algoritmos que utilizan tanto empresas privadas como de sector público, porque estos algoritmos al final terminan definiendo derechos, obligaciones y pueden llegar a fomentar prejuicios y vulneraciones en determinados grupos sociales.

¿Qué es un algoritmo?

Un algoritmo es un conjunto de instrucciones que le damos a una aplicación o a un software. Los primeros intentos de desarrollar este tipo de inteligencia artificial surgen desde los años 50, aunque la idea de la inteligencia artificial aparece antes, en los años 30. Alan Turing decía que en el futuro sería ideal contar con máquinas que fuesen capaces de aprender como niños, que es básicamente lo que hace la inteligencia artificial: en la medida en que la gente va interactuando, se van generando respuestas cada vez más individualizadas y más personalizadas.

La web 2.0 permite una respuesta automatizada ante determinados fenómenos, se empieza a desarrollar lo que conocemos como inteligencia artificial, que es el proceso de captura a gran escala de datos, y esa utilización de esos datos con diversos usos. 

Si existen plataformas como Rappi donde el jefe es el algoritmo, ¿qué piensa de este tipo de subordinación?

Es muy peligroso dejar que los algoritmos subordinen a un grupo amplio de empleados. Tiene que haber un responsable humano que se encargue de moderar y arbitrar esas relaciones, y de verificar que se esté cumpliendo una legislación laboral vigente. En ese sentido, creo que ahí queda mucho por avanzar.

Uno de los grandes problemas que nos encontramos en Latinoamérica, no sólo en Colombia, es un vacío relativo a estas aplicaciones, debido al miedo a regular y a establecer un entorno más seguro, porque se tiende a confundir la regulación con la censura. 

¿Qué implica para estas plataformas y empresas formalizar a sus empleados? 

Parte de los desafíos que tiene esta cuarta revolución industrial, que usa el big data, es que las startups y estos modelos de aplicaciones realmente no respetan el horario laboral.

En este modelo de negocios, las personas que más ganan son las personas que tienen jornadas de 12 a 14 horas, se explotan con la excusa de la autonomía. Obviamente estas empresas también reducen sus costos de operación, porque no hay toda la sobrecarga que implica un contrato de trabajo tradicional.

Regularizar a los empleados supone justamente replantear la cultura laboral detrás de las altas rentabilidades de esos emprendimientos, y cuestionar la idea de que los empleados pueden realmente “manejar su propio tiempo” o ser “sus propios jefes”. Un estudio planteó que, para el caso de Rappi, el 70% de los rappitenderos trabajan exclusivamente para esta aplicación. 

Según plantea en uno de sus artículos, el desafío está en que los algoritmos funcionan como cajas negras. ¿A qué se refiere con este punto? 

Que hay opacidad sobre cómo se define el algoritmo, y sus esquemas de incentivos y penalidades. Es un mundo construido principalmente por ingenieros y que abre un debate sobre las ciencias sociales y la ética, porque se requieren personas que sepan de programación. Pero bajo la lógica de los negocios de las startups no se está analizando en ningún momento cómo se vulneran derechos o cómo se pueden generar condiciones bastante inequitativas.

Los algoritmos deben ser mejor explicados, debemos conocer mejor cómo interactúan con nuestros datos. Pero aquí hay una serie de desafíos mayores, porque para muchas empresas, la reserva sobre el algoritmo hace parte de la forma como hacen exitoso su negocio, y pueden existir cláusulas de propiedad de esos desarrollos.

Otro problema es la entrada de datos por parte de los usuarios. Cada vez que tecleamos una búsqueda, por más sencilla que sea, queda grabada en las llamadas cookies. Esas cookies son procesadas por sistemas automatizados que nos devuelven respuestas personalizadas. Y eso es la inteligencia artificial, básicamente un tipo de tecnología que lo que hace es generar respuestas adaptadas a partir de una configuración muy básica.

Pero también se vinculan a estrategias más amplias, por ejemplo para impulsar un mayor conocimiento de una marca o al servicio de un líder político. O también el lado contrario, que es fomentar desinformación alrededor de un fenómeno para que la gente deje de hablar de ciertos temas y, así, establecer ciertos temas como parte de la agenda. Y ahí comienzan verdaderamente algunos de los fuertes peligros que tiene la inteligencia artificial para nuestras sociedades. 

Hay un debate sobre la configuración ética del algoritmo: ¿se pueden establecer criterios éticos en la misma fórmula para generar ciertos efectos en la selección de los datos?

Cuando se está programando un sistema de información, se programa con una información inicial, con unos objetivos específicos y también con unos datos. Luego, cuando sacas a producción el sistema, puedes verificar que hay errores o que no tuviste en cuenta alguna variable o algún tipo de dato que es representativo. Entonces, aquí es importante tener presente que los algoritmos son siempre hechos por manos y que los humanos nos equivocamos y que los humanos también podemos tomar decisiones.

En Estados Unidos se ha verificado que ciertos algoritmos manifiestan que hay más probabilidades de caer en prisión si eres negro o latino. Pero si estos algoritmos, además, dejan en una peor posición para solicitar un crédito a personas desplazadas o con cierta vulnerabilidad, ese tipo de conjeturas van a generar situaciones de desventaja. Entonces, por eso se debe tener mucho cuidado con la forma como se vinculan los datos.

Parte del problema del Big Data es la depuración de los datos, que los datos sean verídicos y que sean actualizados. Acá también ha pasado con el tema de data crédito. Por ejemplo, hay personas que ya han pagado su deuda pero todavía están en las plataformas. Con esto se les limita el acceso a otros créditos.

La estructuración adecuada de datos no es tarea fácil y cada vez tenemos mejores técnicas y se están generando más inteligencias artificiales que están ayudando en el proceso. Pero también hasta el momento se está mostrando que tienen sesgos importantes y que no son del todo confiables. Entonces, la discusión ética yo creo que tiene que estar en todas las etapas.

¿Cómo se encuentra Colombia frente a otros países en cuanto a la regulación de algoritmos?

Las leyes de protección de datos están muy poco desarrolladas en América Latina. En Europa, por ejemplo, es obligatorio que todas las páginas avisen y tengan una política de tratamiento de datos, accedemos a la página y la página nos devuelve una declaración y podemos aceptar o rechazar que el sistema lea nuestra información que puede ser confidencial.

En cambio, en algunos países latinoamericanos esto lamentablemente no está muy desarrollado y esto es muy fácilmente comprobable, simplemente accediendo a ciertas páginas de un medio de comunicación o de una agencia de viajes y veremos que muchas de ellas no nos indican qué tratamiento darán a nuestros datos, y si estamos de acuerdo o no con ese tratamiento.

El tema de las sanciones es muy importante, se ha ido convirtiendo en una necesidad de los últimos años y en el que en Latinoamérica todavía falta bastante. Es decir, sabemos que las redes sociales tienen que comprometerse en garantizar un sistema cada vez más seguro, y para ello se tienen que aprobar leyes específicas que promuevan un mayor compromiso por parte de las redes para tratar de separar los contenidos que informan, de aquellos que desinforman. 

En Colombia no tenemos una adecuada regulación. En gran parte porque estos temas son muy recientes y difíciles de regular. Aquí estamos hablando de Big Data que usa grandes empresas que tienen un poder aún frente a Estados bastante poderosos.

Aquí no se ha regulado nada. Todo está pendiente. La expulsión de Uber, que luego volvió, fue una decisión arbitraria de la superintendencia, pero no generó un precedente de regulación. Pero aquí no se ha regulado Airbnb, una aplicación a la que ya le han hecho unas regulaciones en otros países, especialmente en la Unión Europea. Por ejemplo, en ciudades como Barcelona o Berlín, que respondieron a efectos como que por cuenta de estas se estaba desplazando a la población dado que ya nadie quería arrendarle a las personas en la ciudad, pues ganaban más con Airbnb que con un contrato de arrendamiento tradicional.

Publicaciones

Diana Carolina Valencia

Diana Carolina Valencia

Derecho público, Tecnología, Entornos digitales

Contactar
Daniel Barredo

Daniel Barredo

Periodismo, Tecnología, Algoritmos

Contactar
Compartir
Preloader
  • Amigo
  • Lector
  • Usuario

Cargando...

Preloader
  • Los periodistas están prendiendo sus computadores
  • Micrófonos encendidos
  • Estamos cargando últimas noticias