Esta columna fue escrita en coautoría con Viviana Rangel.

Detrás de noticias como: “La policía de EE. UU. usa música de Los Beatles para censurar videos de abusos”, “Adulto mayor se gana el cariño de usuarios por cantar temas ‘oldies’, pero TikTok lo bloquea” o “El popular ‘lofi hip hop radio’ desaparece de YouTube por culpa de un reclamo falso de copyright”, se encuentran las herramientas de detección automática de infracciones al derecho de autor (HDA) que sirven a las plataformas digitales para hacer una detección masiva de contenidos, supuestamente infractores del derecho de autor.

El volumen de contenidos que a diario se mueven en internet es tal que los mecanismos de detección de infracciones se han automatizado cada vez más. Así, la inteligencia artificial está tomando las decisiones sobre qué contenidos infringen la ley de derechos de autor y con ello está impactando en forma importante a quienes hacen uso legítimo de materiales con los que crean contenido.

En 2020, cuando la pandemia del covid obligó a desplazar todas las actividades de la vida cotidiana al plano virtual, colegios, universidades, medios de comunicación, museos, casas de la cultura, cine clubes, clubes de lectura, escenarios de música en vivo e incluso teatros y circos hicieron grandes esfuerzos por mantener opciones de acceso a la producción y al disfrute del conocimiento y la cultura por medios virtuales.

Además de la inequidad que suponen las diferentes formas de brecha digital, entre quienes podían conectarse, varios fueron los problemas que se presentaron a la hora de garantizar esta oferta cultural y educativa en internet. Entre otras razones, por estas herramientas de detección masiva.

Para conocer los impactos de estos sistemas en Colombia, esta semana Fundación Karisma lanzó el informe realizado por el periodista especializado en temas de tecnología José Luis Peñarredonda titulado “Detección automática de derechos de autor: una herramienta de desigualdad”. El informe analiza varios casos en los que las herramientas que identifican posibles abusos y/o violaciones al derecho de autor en internet cometieron errores que impidieron la circulación digital de muchos contenidos.

Tres errores de las herramientas de detección automática de derechos de autor

Cada plataforma crea sus propios algoritmos de detección de infracciones al derecho de autor para que rastreen e identifiquen, entre los millones de videos colgados en la web, las copias que puedan afectar la propiedad intelectual de quienes crean los contenidos.

Así funciona. A partir de muestras de audio, imagen o video subidas por quienes se registran como propietarios ante Content ID, la herramienta con la que una plataforma como YouTube identifica y administra el contenido protegido por derecho de autor, se identifica la supuesta infracción y se bloquea el contenido o se monetiza a favor de quien dice ser su propietario.

El uso de estas formas de filtrado de contenido es impresionante. El más reciente informe de transparencia de Youtube informó que en 2021 procesó más de 1.500 millones de reclamos de Content ID.

De los casos analizados, el informe recoge los siguientes patrones de notificaciones erróneas de las plataformas:

1. No reconocen contenidos que pertenecen al dominio público

Cuando el plazo de explotación económica exclusiva vence, las obras protegidas por derechos de autor pasan al dominio público y pueden ser usadas y reusadas libremente. Esta es una forma de reconocer las regalías a los titulares durante un plazo determinado y luego entregar las obras como parte de la riqueza intelectual y cultural de la humanidad que nos pertenece a todas y todos.

Entre los casos analizados en el informe está el del Cineclub de la Universidad Central, que desde 1975 programa ciclos de cine con fines educativos, el cual en el marco de la pandemia inició sus transmisiones en Facebook y YouTube.

Con el fin de respetar la normatividad de derechos de autor, sus administradores decidieron usar películas que se encontraban en el dominio público y, sin embargo, aún con toda la cadena de derechos en orden, sus sesiones fueron bloqueadas en reiteradas ocasiones por parte de las plataformas que identificaban una supuesta violación de derechos de autor.

El caso del Cineclub muestra que las herramientas de detección automática no reconocen cuando una obra está en el dominio público.

Otro de los casos de esta investigación es el de un canal de YouTube que decidió retransmitir la posesión presidencial. Aunque la ley colombiana establece que los discursos de los funcionarios públicos son de libre difusión, se curaron en salud y pidieron autorización del canal de televisión institucional que lo autorizó sin ningún problema.

Pero —¡oh, sorpresa!— el contenido fue bloqueado supuestamente por estar violando los derechos de autor. En este caso, ¿a quién podría pertenecer el derecho de transmitir la posesión del presidente de la Nación? En teoría, a todas y todos, pero el bloqueo se dio debido a que Caracol Televisión había registrado su transmisión de la posesión en Content ID y, por tanto, la herramienta lo reconoce como propietario de ese contenido.

2. Reconocen como infractor contenido que es similar al registrado, pero que realmente no lo es o su uso está autorizado

En esta categoría llama la atención el caso del medio de comunicación Cuestión Pública, que en el marco del Paro Nacional de 2021 se encontraba haciendo un Facebook Live con la congresista Angela María Robledo y en plena discusión la transmisión se cayó. ¿Cuál fue el motivo? Al parecer, aún cuando el evento se estaba llevando a cabo en vivo, el algoritmo de Facebook les notificó que estaban haciendo uso de un contenido previamente registrado de propiedad de Blu Radio.

¿Por qué pasó esto? Porque la congresista estaba usando la misma ropa y el mismo encuadre que en una entrevista previa que había tenido con Blu Radio. Situación errónea que el algoritmo no es capaz de identificar, porque solo busca patrones de coincidencia de audio, imágen y video. Imagínense entonces la cantidad de “falsos positivos” que pueden darse.

3. No reconocen casos de uso cuya protección del derecho de autor es problemática

En esta categoría encontramos un caso en el que una aplicación estricta del derecho de autor puede generar discriminación y desigualdad.

Bellini es un creador de contenidos que hace parte de la población sorda del país. Él usa su canal para traducir canciones de música pop a lenguaje de señas colombiano. Con su propuesta busca, por un lado, familiarizar a quienes usan la plataforma con su lenguaje y, por otro, traducir esta música a la comunidad sorda del país. También quiere poder ganar dinero con ello, ser un verdadero Youtuber.

Bellini ha recibido varias notificaciones que considera arbitrarias por parte de las compañías dueñas de los derechos de las canciones que traduce.

Este tipo de uso no afecta la explotación de la obra y, en cambio, sí constituye una forma de ejercicio de la libertad de expresión tanto de Bellini como de su comunidad y de la sociedad en general. Este tipo de usos forma parte de las flexibilidades al derecho de autor, es decir, del conjunto de excepciones y limitaciones que se crean pensando en casos excepcionales donde prima el acceso a la información, el acceso a la cultura y el conocimiento. Pero estas excepciones tampoco son identificadas por los algoritmos.

Las dificultades para reclamar el uso legítimo de contenidos ante las plataformas

Los y las creadoras de contenido que reciben una notificación deben enfrentarse a un proceso de apelación desequilibrado, engorroso y lleno de barreras para quienes lo consideran injusto.

Muchas personas indican que no reciben comunicaciones que indiquen qué pasó y, cuando lo hacen, con frecuencia la notificación de la supuesta infracción no dice quién alega que el contenido usado es de su propiedad. Quienes crean contenidos en internet afirman que el proceso de apelación no solo es complicado, sino que también es incierto. En YouTube, por ejemplo, varía con frecuencia sin previo aviso.

A pesar de lo complicado que es, quienes decidieron llevar a cabo todo el proceso de apelación -adjuntar material de prueba y hacer la contranotificación- cuentan que jamás recibieron una respuesta. Incluso hay quienes afirman que una vez hecho el trámite, los mensajes enviados a la plataforma fueron borrados automáticamente sin saber por qué.

Otro de los obstáculos es que quien decide iniciar un proceso debe hacerlo bajo la normatividad del país de origen de las plataformas, principalmente Estados Unidos, y en muchos casos se debe realizar en inglés.

Un factor que hace aún más desigual el sistema es que en el proceso de apelación, además de enfrentar una notificación errónea, la persona creadora de contenido acusado debe ser quien aporte las pruebas para demostrar que el material sí es suyo o sí está siendo utilizado de una forma legal.

Los principales afectados: los pequeños creadores de contenidos, medios independientes y nuestros derechos en la red

Esta serie de obstáculos afecta principalmente a pequeños creadores de contenido, a medios independientes, a trabajadores por cuenta propia que son la parte más débil de la cadena de circulación de estos contenidos en medios digitales.

Una notificación errónea impacta gravemente en la sostenibilidad de este tipo de iniciativas y va más allá de perder un contenido. Además del impacto económico directo, se afecta la capacidad y la motivación de estas personas para crear y mantener una audiencia para sus contenidos, disminuyen sus opciones de obtener una remuneración por ellos y generan afectaciones a su libertad de expresión creando un incentivo disuasorio a la hora de experimentar con nuevos formatos o de cubrir periodísticamente ciertos temas de interés general.

En palabras del autor de la investigación: “En este entorno, los creadores se someten a una disciplina cuyos límites no están claros, y cuyas transgresiones tienen consecuencias desproporcionadas. La opción que les queda, al final, es elegir entre dos tipos de censura: una autocensura inmediata o una censura permanente regulada por las plataformas, y potencialmente catastrófica para su trabajo.”

Los sistemas automáticos de identificación de infracciones al derecho de autor cometen errores que afectan el ejercicio de derechos humanos como el derecho a la información, el derecho a la educación, la libertad de expresión o los derechos culturales.

Las notificaciones erróneas y una aplicación de la legislación de derechos de autor que desconoce las excepciones y limitaciones necesarias para garantizar otro tipo de situaciones más ligadas al interés público hacen que la circulación de contenidos y el desarrollo de la economía digital se vean afectados. Esto impacta principalmente la sostenibilidad y libertad creativa de pequeños creadores de contenido, artistas y medios de comunicación independiente quienes en este ecosistema de circulación de contenidos digitales cuentan con menos recursos económicos y humanos para llevar a cabo los procesos de apelación y solventar las pérdidas que se generan por los bloqueos, suspensión o eliminación de contenidos.

Además de este impacto desequilibrado en contra de pequeños creadores de contenido, la forma en la que funciona la herramienta incentiva a grandes cadenas a titular como propios la mayor cantidad de contenidos que difunden. No hay incentivos para reconocer los usos permitidos por una excepción al derecho de autor. Incluso en ocasiones son estos mismos grandes canales los que usan contenidos que no son suyos, pero nada pasa. Al fin y al cabo quien tiene la obligación de demostrar que no está infringiendo la norma es el creador de contenido que fue acusado.

El mismo informe de YouTube permite ilustrar estos desequilibrios de los que hablamos: “Casi el 99 % de las reclamaciones de Content ID se envían automáticamente. En otras palabras, los algoritmos de derechos de autor de Google descubrieron una huella digital que coincidía con un contenido protegido por copyright. El contenido identificado por Content ID a menudo no se elimina; más bien, el flujo de ingresos se desvía hacia el titular de los derechos. Entre junio y diciembre de 2021 se procesaron casi 760.000 reclamos que pertenecían a un poco menos de 5.000 titulares de derechos.

¿Y, entonces, qué tan libres somos en internet?

Con la llegada de internet aumentaron las posibilidades para crear, mezclar, compartir, opinar, transformar. La creación de estos sistemas de detección masiva se justifica para identificar, por ejemplo, casos de abuso infantil, xenofobia o discursos de odio, y se usa también para hacer efectivos los derechos patrimoniales de autor sin que se hayan desarrollado debidamente los límites que eviten afectar otros derechos humanos como la libertad de expresión e incluso la libertad de pensamiento. En esta búsqueda de moderar los contenidos que se mueven en internet, nacen estos sistemas de detección de infracciones al derecho de autor.

Tanto la creación de estas herramientas de detección automatizada de contenidos que pueden infringir el derecho de autor como el aumento de restricciones a la hora de usar material protegido por derechos de autor ha sido una de las peticiones constantes de grandes corporaciones que buscan extender los tiempos y formas de explotación sobre las obras con mayor circulación a nivel mundial, como es el caso de Disney.

Finalmente, se desarrollaron como una obligación legal de Estados Unidos -de donde son la mayoría de las plataformas más usadas- que está desbalanceada a favor de la protección de los derechos de los titulares y, como muestra la investigación, su aplicación se está derivando en errores con impactos importantes en la sociedad.

Con esta investigación se busca dar a conocer la problemática, motivar a las personas usuarias de estas plataformas a que denuncien los casos de moderación por derechos de autor que consideren injustos y de esta manera recolectar la información necesaria para poder sistematizar lo que está pasando y evidenciar los impactos.

El impacto que están teniendo estos errores es una razón más para que las plataformas balanceen el sistema y protejan también las flexibilidades del derecho de autor que garantizan el acceso a información, conocimiento y cultura de la sociedad. En sus manos está ajustar los procesos de apelación para que les sirva a las personas usuarias de sus plataformas. Pueden por ejemplo adaptar el proceso a las necesidades de los mercados en que se despliegan -el idioma, por ejemplo- e implementar mecanismos de seguimiento que aseguren que quienes aceptan reciben una respuesta.

También se requiere que los legisladores moderen sus expectativas frente a estas herramientas de detección automática de posibles infracciones como la gran solución. La experiencia con estas herramientas en el tema de derecho de autor sugiere que el bloqueo no debe ser inmediato. Debe elevarse el costo a los reclamos injustificados para evitar el incentivo perverso de registrar todo como propio. Estas herramientas nunca deben funcionar antes de que se hagan las publicaciones de contenidos y tenemos pendiente la discusión sobre la necesidad de que los canales incluyan personas.

No hay tecnología infalible y, cuando está en juego el ejercicio de derechos, no todo puede estar automatizado. 

_________________________________________

Además de la investigación, los siguientes son tres cortometrajes animados en los que se explica el funcionamiento de estos algoritmos, algunos de los casos analizados y se hace un llamado a la acción para proteger colectivamente la libertad en internet.

1. Capítulo 1

2. Capítulo 2

3. Capítulo 3

-ZvutPmD4SCTywgxBLTwWskWJDB1BRG2CwG2O-jRxaQ