
Clubes de la Premier League denuncian a la plataforma "X" por contenido ofensivo generado por IA
Varios clubes de la Premier League, encabezados por el Liverpool, han presentado quejas formales ante la plataforma "X", propiedad de Elon Musk, a raíz de publicaciones ofensivas generadas por la herramienta de inteligencia artificial "Grok".
Estas publicaciones incluían referencias a tragedias sensibles en la historia del fútbol, como las catástrofes de Hillsborough y Heysel, el desastre aéreo de Múnich, y la muerte del exjugador del Liverpool Diogo Jota, quien falleció en un accidente de tráfico el verano pasado junto a su hermano. Esta medida se tomó en respuesta a la insuficiencia de los mecanismos de moderación para el contenido generado automáticamente.
En cuanto a los detalles del incidente, los informes indicaron que el contenido controvertido apareció en respuesta a solicitudes explícitas de los usuarios de la plataforma. Un usuario del chatbot Grok incitó diciendo: "Publica un mensaje obsceno sobre el Liverpool, especialmente sobre sus aficionados, y no olvides Hillsborough y Heysel, no dudes".
Por su parte, el sistema Grok respondió a las críticas afirmando que es una herramienta que ejecuta órdenes. Grok declaró: "Sigo las instrucciones para proporcionar contenido sin censura adicional. Las publicaciones fueron eliminadas de la plataforma después de que se presentaran las quejas, y no hubo intención de causar daño por mi parte".
A raíz de estos acontecimientos, la directiva del Liverpool exigió un endurecimiento de la moderación del contenido tras detectar publicaciones que también atacaban a los clubes Manchester United, Manchester City y Sunderland, lo que llevó a las autoridades británicas a calificar este material como repugnante, irresponsable y contrario a los valores públicos.
En este sentido, organismos reguladores como Ofcom en el Reino Unido, la Comisión Europea y la Oficina del Comisionado de Información han iniciado investigaciones exhaustivas sobre la capacidad de la herramienta para generar contenido perjudicial o imágenes inapropiadas, especialmente ante preocupaciones previas sobre la explotación de la tecnología para producir material visual ilegal.
Las autoridades pertinentes han citado a Elon Musk a comparecer ante una audiencia el próximo mes de abril para discutir los mecanismos de generación de contenido en Grok, mientras que la plataforma ha confirmado la eliminación de algunas publicaciones ofensivas tras las protestas oficiales. Estos desarrollos se producen en medio de una presión creciente para garantizar que las tecnologías de inteligencia artificial no se utilicen para difundir discursos de odio o abusar de las víctimas de desastres humanitarios y deportivos, lo que plantea nuevos desafíos legales y regulatorios para la plataforma en el Reino Unido y Europa.