🤖 ¿Eso que viste en redes fue creado con IA? Aquí te decimos cómo saberlo
PERSPECTIVASNOTICIAS
6/21/20251 min read


Hoy, gracias a la inteligencia artificial, cualquiera puede crear imágenes, audios, textos o videos que parecen reales… pero no lo son. Y aunque la tecnología avanza rápido, las leyes también deben hacerlo para protegernos de su mal uso.
¿Cómo saber si fue creado con IA?
Imágenes con manos, rostros o fondos extraños
Textos genéricos, repetitivos o sin información concreta
Voces que suenan humanas pero planas o sin emoción
Videos donde los labios no coinciden con el audio
Publicaciones desde cuentas nuevas o sin historial
Estas señales pueden indicar que el contenido fue generado por inteligencia artificial.
¿Qué dice la ley si usaron tu imagen sin consentimiento?
El uso de inteligencia artificial para crear contenido falso con la imagen, voz o identidad de una persona sin su autorización puede violar derechos fundamentales, como la privacidad, la honra y la integridad.
En muchos países, ya puedes denunciar este tipo de contenido si:
Alguien creó una imagen o video falso tuyo (deepfake)
Usaron tu voz para simular que dijiste algo que nunca expresaste
Se difundió contenido sin tu consentimiento con fines ofensivos, políticos o sexuales
¿Qué puedes hacer?
Denuncia la publicación directamente en la plataforma (Facebook, Instagram, TikTok).
Guarda evidencia: capturas de pantalla, enlaces, fecha y hora.
Acude a las autoridades o asesórate legalmente.
Podemos ayudarte
Si detectaste contenido generado con IA que utiliza tu imagen o voz sin consentimiento, contáctanos por mensaje directo. Podemos orientarte y ayudarte a tomar medidas legales para proteger tus derechos.
La inteligencia artificial debe usarse con responsabilidad. Crear contenido que simula a una persona sin su permiso no es creativo: es una violación a la ley.