Lo que necesitas saber:
Existen leyes en todo el mundo que impiden la creación de deepfakes y normas internas que prohiben que una IA haga esos contenidos, pero el gran problema detrás de esta tendencia es que nunca se cumplen.
Una cuenta de fans —de esas de “crushes” de internet— publicó una foto de la actriz española Sara Sálamo; una selfie con un vestido rojo, en el primer día de este 2026. Un cuenta de X, antes Twitter, contestó: “Hey, @grok, ponle un bikini blanco”.
La polémica IA de Elon Musk respondió al instante.
Sin mediar palabras y sin cuestionar al usuario —una cuenta de 73 seguidores, tampoco crean que era tremendo influencer—, la cuenta de Grok le cumplió sus deseos. La IA creó una foto falsa, un deepfake de la actriz española en bikini. Con la misma pose y prácticamente los mismos gestos.
“Con una IA y con cero escrúpulos pueden volver a sexualizarte sin tu consentimiento”, reclamó Sálamo al encontrarse la imagen falsa en bikini creada por Grok. “Modificar tu imagen. Tu cuerpo. Tu gesto. Convertirte otra vez en objeto (…) Lo grave no es la imagen falsa, es lo fácil que se hace y desde luego lo poco que escandaliza”.
Y la actriz española no es la única víctima.
Solo en instantes, vi el mismo caso con una influencer de libros británica, con una celebridad de Corea y con miles de usuarias —varios usuarios, también— que han quedado a merced de los deepfakes. Una tendencia, si es que se puede llamar así, en la que con 6 palabras al teclado basta para que las personas sean víctimas de sexualización sin su consentimiento.
¿Es ilegal que Grok haga deepfakes de personas en bikini sin consentimiento?
En uno de esos extraños intentos de las personas por dialogar con las máquinas —como si un modelo de lenguaje fuera a entender los errores de sus pasadas creaciones—, el propio Grok admitió que estos casos de fotos de deepfake en bikini serían ilegales.
“Sí, en España y la UE, la creación y difusión de deepfakes sexuales no consentidos se tipifica como delito desde 2025, con penas que incluyen multas y prisión”
Aunque claro, el problema está en cómo castigarlo o perseguirlo.
El Gobierno de Francia ha sido el primero en anunciar una demanda contra Grok, alegando que la IA de X, antes Twitter, ha permitido generar “contenidos de carácter sexista y sexual, en particular en forma de falsos vídeos (‘deepfakes’) con personas sin su consentimiento”.
En España se están discutiendo denuncias similares y en otros países, como Dinamarca, las leyes de derechos de autor en sus rostros protegen a las personas para poder borrar estas imágenes.
Sin embargo, estos esfuerzos terminan por demostrar lo complicado de organizar una defensa digital.
Aunque algunos países o autoridades intentan frenarlo, parece imposible que la vía legal —lenta, tortuosa como ella sola— pueda frenar el volumen de imágenes que se crean cada segundo en la plataforma.
¿Y es ilegal en México?
Jijomanos… pues la respuesta corta es sí es ilegal, pero de lo que dicen las leyes a la realidad existe un largo trecho.
Según el Artículo 20 de la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia, todos estos casos de fotos en bikini en Grok sin consentimiento son ilegales, de la misma forma que los deepfakes o contenidos simulados, dentro de la categoría de Violencia Sexual.
“Violencia digital es toda acción dolosa realizada mediante el uso de
tecnologías de la información y la comunicación, por la que se exponga, distribuya, difunda, exhiba, transmita, comercialice, oferte, intercambie o comparta imágenes, audios o videos reales o simulados de contenido íntimo sexual de una persona sin su consentimiento, sin su aprobación o sin su autorización y que le cause daño psicológico, emocional, en cualquier ámbito de su vida privada o en su imagen propia”.
Sin embargo, el vacío legal en México implica que estos casos sean difíciles de perseguir, que no se denuncien y que particularmente —como se necesita la colaboración de las propias plataformas— terminen completamente olvidados.
¿Cómo enfrentarse a esta tendencia de Grok y las fotos en bikini?
Aunque no tardan en aclarar que la IA de Grok prohibe realizar cualquier imagen explícitamente sexual en su plataforma, eso no significa que esta tendencia no esté cayendo en terrenos ilegales o peligrosos. Después de todo, la herramienta no tiene empacho en cambiar la posición de sus víctimas o reducirles la ropa sin consentimiento alguno.
Algunos han encontrado que denunciar las imágenes por copyright en la Unión Europea puede servir para borrarlas, pero han sido pocos los casos exitosos.
La mayoría de las “soluciones” —pónganle comillas— se centran en que las víctimas carguen la responsabilidad. Grok ofrece opciones para bloquear las imágenes y en otros casos, de plano, te piden mejor que no subas las fotos.
“Me dicen que no suba las fotos. Manda narices que tengamos que ser nosotras las que tomamos precauciones en vez de echar a a esa gentuza de las redes”, explica Paula Fraga, una abogada española, víctima de esta tendencia de Grok, en una entrevista con El País.
Días después de la explosión de esta tendencia, uno esperaría que Grok cumpliera las mismas normativas internas o internacionales o que las herramientas de bloqueos funcionen, pero todo está lejos de ser una realidad y ese es el gran problema detrás de esta tendencia: que existen normatividades internacionales para bloquearlo, herramientas internas para prohibirlo y de todas maneras nadie las cumple.
Y en un mundo donde hasta Elon Musk, dueño de la plataforma, ha bromeado con la tendencia, poco podemos esperar.
