Un juez de Nueva York ha dictaminado que Meta y ByteDance (la empresa matriz de TikTok) deberán enfrentar un juicio por la muerte de Zackery Nazario, un adolescente de 15 años que perdió la vida al practicar “surfeo de tren”, un reto viral cada vez más popular en redes sociales.
Zackery y su novia subieron al techo de un tren en movimiento que cruzaba el puente de Williamsburg.
Fue golpeado por una viga y cayó al vacío. Días después, su madre encontró en sus cuentas de Instagram y TikTok numerosos videos promoviendo ese tipo de acciones, presentadas como desafíos extremos o hazañas heroicas. Para ella, las plataformas fueron cómplices al mostrarle ese contenido a través de sus algoritmos.
Meta y ByteDance intentaron defenderse apelando a la Sección 230 de la Ley de Decencia en las Comunicaciones y a la libertad de expresión. Pero el juez no aceptó esos argumentos en esta etapa del proceso. El caso no se trata solo de lo que los usuarios publican, sino de cómo los algoritmos de estas plataformas pueden promover contenido peligroso directamente a los jóvenes.
La demanda, presentada por la madre de Zackery, acusa a ambas empresas de negligencia, responsabilidad por producto y muerte injusta. Si se demuestra que los algoritmos empujaron activamente ese contenido hacia el menor, el juicio podría sentar un precedente sobre la responsabilidad legal de las redes sociales en la era digital.
El caso ha reabierto un debate cada vez más urgente: ¿deberían las plataformas rendir cuentas no solo por lo que permiten publicar, sino también por lo que eligen mostrar?