Meta se encuentra actualmente en juicio en Nuevo México y enfrenta acusaciones de que sus plataformas (Facebook e Instagram) no protegieron a los menores de la explotación sexual. El estado argumenta que las elecciones de diseño y los algoritmos de Meta crearon condiciones peligrosas para los usuarios jóvenes, violando la Ley de Prácticas Desleales de Nuevo México. Este juicio marca la primera vez que un estado lleva a Meta a los tribunales por estos reclamos específicos, sentando un posible precedente para futuras batallas legales.
Lo que está en juego: adicción, explotación y precedente legal
El caso de Nuevo México se desarrolla junto con otro juicio histórico en California, que examina la naturaleza adictiva de las redes sociales. Ambos juicios destacan el creciente escrutinio legal de los gigantes tecnológicos y su impacto en los usuarios vulnerables. Los demandantes en el caso de California, incluidos Snap, TikTok y Google junto con Meta, están acusados de diseñar negligentemente plataformas que dañan a menores. Snap y TikTok ya llegaron a un acuerdo, lo que deja a Meta como un acusado clave frente a un posible testimonio ejecutivo.
Esta presión legal es significativa. Si tiene éxito, el caso de Nuevo México podría obligar a Meta a modificar fundamentalmente su enfoque sobre la seguridad infantil, lo que podría costarle a la empresa millones en sanciones y remodelar sus políticas de moderación de contenido. El juicio no se trata sólo de repercusiones financieras; se trata de responsabilidad para las plataformas que durante mucho tiempo han sido criticadas por permitir la explotación.
La defensa de Meta y el escudo de la Sección 230
Meta niega las acusaciones e insiste en que está comprometida con la protección de los jóvenes. La compañía ha presentado numerosas mociones para limitar pruebas potencialmente dañinas, incluidas referencias al pasado de Mark Zuckerberg, detalles financieros e incluso discusiones sobre los daños a la salud mental de las redes sociales. También se espera que Meta se apoye en gran medida en la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las plataformas de la responsabilidad por el contenido de terceros.
Los expertos legales señalan que la Sección 230 es una estrategia de defensa clave para las empresas de tecnología: si tiene éxito, puede conducir al despido antes de que se realice un descubrimiento en profundidad. Sin embargo, el ensayo de Nuevo México puede ampliar aún más estos límites, examinando si la amplificación algorítmica y las opciones de diseño de Meta contribuyen activamente a resultados perjudiciales.
La lucha por la transparencia y la percepción pública
El fiscal general de Nuevo México alega que Meta proporcionó proactivamente contenido explícito a usuarios menores de edad, permitió la explotación y permitió un fácil acceso a la pornografía infantil. Según se informa, la investigación del estado descubrió casos en los que investigadores que se hacían pasar por padres podían ofrecer niños menores de edad a traficantes sexuales en la plataforma. Meta cuestiona estas afirmaciones y acusa al fiscal general de ataques por motivos políticos y violaciones éticas en la investigación.
La batalla judicial se extiende más allá de los argumentos legales. Meta ha tratado de restringir las pruebas que se presentan, incluso intentando prohibir la palabra “denunciante”. Esto sugiere una estrategia para controlar la narrativa y minimizar la exposición pública a información potencialmente dañina. El Estado, sin embargo, está presionando por una transparencia total, argumentando que Meta ha engañado al público sobre los peligros de la plataforma durante años.
¿Qué sigue? Sanciones, cambios de políticas y un ajuste de cuentas más amplio
Se espera que el juicio en Nuevo México dure siete semanas. De ser declarado responsable, Meta podría enfrentar sanciones civiles por un total de millones o incluso cientos de millones de dólares. El estado también exige cambios significativos en la plataforma, incluida una verificación de edad más estricta, una mejor moderación del contenido y revisiones de los algoritmos que promueven contenido dañino.
Este caso representa un punto de inflexión en el debate sobre la responsabilidad tecnológica. Como lo expresó un observador, estas pruebas pueden ser “el costo de hacer negocios” para Meta, pero también indican un ajuste de cuentas más amplio para las grandes empresas tecnológicas. El resultado dará forma a las regulaciones futuras y potencialmente obligará a las plataformas a priorizar la seguridad del usuario sobre la participación a cualquier costo.






























