La inteligencia artificial es mucho más que ChatGPT o Gemini. Se trata de una tecnología que cada vez más borra todo tipo de límites: puede imitar voces, crear videos hiperrealistas y replicar la imagen de una persona en segundos.
Lo que hasta hace poco parecía ciencia ficción hoy comienza a ser algo cotidiano en redes sociales y hasta en fraudes digitales. En ese contexto, Matthew McConaughey decidió anticiparse y proteger legalmente su propia identidad.
El actor presentó ante la Oficina de Patentes y Marcas de Estados Unidos una serie de solicitudes para registrar su imagen y su voz como marcas comerciales. Según reveló The Wall Street Journal, la oficina ya aprobó ocho de esos registros, que incluyen clips de video y audio donde aparece mirando a cámara, sonriendo o pronunciando su clásica frase “alright, alright, alright”.
La ley estadounidense ya prohíbe que una empresa use la imagen o la voz de una persona para vender productos sin permiso. Pero el problema aparece en una zona gris: ¿qué pasa cuando una IA genera una réplica digital y la utiliza para entrenar modelos, simular contenidos o crear versiones sintéticas de alguien?
“Queremos crear un perímetro claro de propiedad, donde el consentimiento y la atribución sean la norma en el mundo de la IA”, explicó McConaughey en un comunicado. Su postura no es anti-tecnología —de hecho es inversor en ElevenLabs, compañía dedicada al estudio y el análisis de IA—, sino que apunta a establecer un precedente en un escenario donde las reglas todavía no están definidas.
El movimiento del actor se inscribe dentro de una discusión más amplia. En 2023, el sindicato de actores SAG-AFTRA ya había puesto el tema en agenda durante su histórica huelga contra los estudios de Hollywood. La preocupación era la misma: evitar que las productoras usen copias digitales de los actores sin compensación ni consentimiento.
Pero el conflicto ya no es exclusivo de las estrellas de cine o televisión, puesto que las herramientas de IA generativa son cada vez más populares, están al alcance de cualquier usuario. De este modo, la clonación de voz para engañar familiares, la creación de avatares falsos en publicidades y los deepfakes íntimos forman parte de un fenómeno en expansión.
De Hollywood a la Argentina: el caso Luciano Castro
Luciano Castro cuando Angel le pregunte por los audios… pic.twitter.com/7cRsb1MdG9
— Fabian (@BillionaireX589) January 13, 2026
Lo que en Estados Unidos se discute en tribunales, el caso de Luciano Castro funciona como un ejemplo local y concreto de cómo audios y videos que pueden viralizarse, ser editados, sacados de contexto o incluso alterados con herramientas digitales, generando un daño tanto emocional como a su reputación.
Tras conocerse su infidelidad a Griselda Siciliani, comenzaron a circular audios del actor intentando seducir a una joven danesa con un acento forzado. El material se volvió viral, fue objeto de burlas y memes, y terminó amplificando una situación privada hasta convertirla en un fenómeno público.
Luciano Castro porque con tal de ponerla te habla en todos los idiomas pic.twitter.com/cR98rR5l1e
— Porque es tendencia🥏 (@tendenciasxx) January 10, 2026
Por ejemplo, en redes sociales también circularon versiones editadas y videos manipulados, donde se lo ve a Castro intentando seducir a mujeres exagerando su forma de hablar en diversos idiomas.
El propio Castro lo reconoció públicamente: “Escucharme me da mucha vergüenza, me siento patético”, admitió en más de una entrevista televisiva. Pero más allá del contenido, el episodio dejó en evidencia: una vez que la voz o la imagen de una persona se vuelve insumo digital, el control prácticamente desaparece.
El marco legal que intenta ponerle límites a la IA
Foto: IAEstos casos no solo abren una discusión ética sobre el uso de la inteligencia artificial generativa, sino también una pregunta legal clave: ¿qué herramientas existen hoy para proteger la imagen y la voz de una persona frente a la IA?
En Estados Unidos, el llamado right of publicity protege la imagen y la voz frente al uso comercial no autorizado. Sin embargo, la IA expuso zonas grises. Por eso surgieron leyes como la Take It Down Act, que obliga a retirar deepfakes íntimos, y proyectos como la NO FAKES Act, que busca reconocer explícitamente la propiedad de la identidad digital.
En paralelo, algunos estados avanzaron con legislaciones propias. Tennessee aprobó el ELVIS Act, que protege a músicos del uso no autorizado de su voz por parte de la IA. Nueva York, por su parte, exige transparencia en avisos que utilicen avatares generados artificialmente.
En la Argentina, no existe aún una ley específica sobre IA y derecho a la imagen. Pero el Código Civil y Comercial considera la imagen y la voz como derechos personalísimos, y la Ley de Protección de Datos Personales habilita reclamos cuando hay uso no autorizado.
Según una especialistas en libertad de expresión e IA consultado por Clarín, en la región estos derechos se desprenden del derecho a la vida privada, la protección de datos personales y los llamados derechos de la personalidad, que incluyen la imagen, la reputación, el honor y la identidad.
“La imagen y la voz son datos personales. Su utilización a través de sistemas de inteligencia artificial sin consentimiento puede constituir una violación legal, incluso si no existe una ley específica de IA”, explicó Raquel A. Charquero, abogada mexicana y maestrante en Derechos Humanos.
Lejos de quedar indefenso, quien descubre que su imagen o su voz fue utilizada sin permiso puede iniciar acciones legales concretas. La principal vía es la acción por daño moral, que permite reclamar por la afectación al honor, la reputación o la vida privada, según explica la abogada.
En estos casos, los tribunales deben evaluar si hubo un hecho ilícito, si existió daño y si hay una relación directa entre el contenido generado por IA y la afectación sufrida. El desafío, reconocen los especialistas, está en la prueba: acreditar el uso indebido y su impacto real suele requerir peritajes técnicos y psicológicos.
«La legislación actual no está completamente preparada para los desafíos que plantea la inteligencia artificial generativa; en muchos sentidos, el derecho reacciona después de que el daño ya ocurrió«, remarcó Charquero.
Entre los cambios urgentes que se discuten actualmente aparecen el reconocimiento explícito de la imagen y la voz —incluso sintéticas— como extensiones de la persona, la exigencia de consentimiento previo y la obligación de etiquetar contenidos generados por IA. También se reclama mayor responsabilidad para plataformas y mecanismos rápidos de remoción de estos contenidos.
Por eso, la discusión que abren la decisión de McConaughey y el episodio de Luciano Castro anticipa un escenario donde proteger la identidad digital será tan importante como proteger los datos personales o las contraseñas. Cualquier audio enviado por WhatsApp, cualquier video subido a Instagram o TikTok puede convertirse en materia prima para una IA.
Foto: ReutersHoy, una persona común no tiene un mecanismo simple ni universal para “registrar” su imagen o su voz contra el uso de la inteligencia artificial. Sin embargo, sí existen herramientas legales y prácticas para reducir riesgos y reaccionar ante abusos.
En la Argentina, la imagen y la voz están protegidas como derechos personalísimos por el Código Civil y Comercial, lo que habilita reclamos si se usan sin consentimiento, incluso cuando ese uso proviene de contenidos generados por IA.
En la práctica, los especialistas recomiendan limitar la exposición innecesaria (audios largos, videos en alta calidad), revisar los términos de uso de plataformas y aplicaciones que permiten clonar voces o generar avatares, y documentar rápidamente cualquier uso indebido (capturas, enlaces, fechas).
Ante un caso concreto, se puede solicitar la baja del contenido en plataformas, enviar cartas documento o intimaciones legales, y avanzar con acciones por daño moral o afectación a la imagen, aunque el mayor desafío sigue siendo la prueba técnica del origen y el impacto del material.