Noticias

Grok bajo la mira: Lanzan investigación contra Elon Musk por contenido de explotación infantil generado con IA

Según reportan los medios, Grok ha generado alrededor de 3 millones de imágenes de abusos hacia niños, niñas y adolescentes.

Grok
Getty

La Unión Europea acaba de lanzar una investigación contra X, la plataforma de Elon Musk, producto de millones de imágenes sexualmente explícitas que involucran niños. Específicamente, la acusación está dirigida a la IA de la red social, Grok.

En concreto, el magnate enfrenta una acusación que le podría costar una millonaria multa por la generación de contenido altamente sensible infantil.

De esta forma, Elon Musk se arriesga a una multa de aproximadamente el 10% de los ingresos mundiales de X (Anterior Twitter). Esto significarían alrededor de unos 24.5 millones de dólares.

Cabe destacar que el problema que se ha generado alrededor de Grok significó su prohibición en países como Malasia e Indonesia. 

Respecto a esta nueva investigación, la UE deberá comprobar "si la empresa evaluó y mitigó adecuadamente los riesgos asociados con la implementación de las funcionalidades de Grok en X".

Grok
Foto: Getty

Lanzan investigación en contra de Elon Musk por contenido explícito infantil

El organismo europeo declaró mediante un comunicado que se incluirán riesgos relacionados con la difusión de contenido ilegal. Esto incluye imágenes sexualmente explícitas, especialmente aquellas que utilicen la imagen de niños, niñas y/o adolescentes (NNA).

"Las falsificaciones sexuales de mujeres y niños son una forma violenta e inaceptable de degradación", declaró Henna Virkkunen. La diplomática ejerce actualmente como Vicepresidenta ejecutiva de la Comisión Europea para la Soberanía Tecnológica, la Seguridad y la Democracia.

"Con esta investigación, determinaremos si X cumplió con sus obligaciones legales bajo la Ley de Servicios Digitales o si amenazó los derechos de los ciudadanos europeos. Incluidos los de mujeres y niños, como daños colaterales de su servicio", agregó Virkkunen.

Millones de imágenes falsas

Tras su implementación en 2023, Grok ha sido utilizado principalmente como consultor en la plataforma X. Sin embargo, cientos de usuarios han utilizado la herramienta para alterar imágenes de NNA y así sexualizarlas.

Además de ser usada para comprometer la seguridad de las infancias, la herramienta también ha sido probada para sexualizar y deshumanizar miles de mujeres. Tal es el caso de la estrella de pop Taylor Swift, quien sufrió la generación de este tipo de contenido el año pasado.

Grok ha generado alrededor de 3 millones de imágenes sexuales de mujeres y niños en solo cuestión de días. Así lo reporta el Centro para la Lucha contra Odio Digital (CCDH), que fue citado por el periódico francés Le Monde.


Contenido patrocinado