Metaverso y deepfakes: la nueva esfera pública en disputa
Miguel Romero Martínez
Pablo Hernández Tene
Alejandro Panera Pascual
Zeus Martín Betancor
Leia Giroud
Soline Ollier
Imagínese entrar a un mundo virtual. Un usuario se coloca un visor VR y al instante aparece en VRChat, rodeado de avatares de todos los colores y formas. En este entorno inmersivo, personas de diversos países conversan y crean comunidades espontáneas. ¿Acaso esta plaza digital tridimensional expande la participación democrática, permitiendo a cualquiera expresarse y asociarse libremente? Ahora, en contraste, imagine el escenario de la serie Sword Art Online: miles de jugadores atrapados en un juego de realidad virtual donde un desarrollador todopoderoso impone las reglas y nadie puede escapar. Esta distopía ficticia plantea el extremo opuesto: un metaverso completamente privatizado, donde los participantes carecen de derechos y garantías básicas. Entre ambos polos –la utopía participativa y la distopía autoritaria– se debate el porvenir de la esfera pública digital. En la primera parte de este ensayo examinaremos si los mundos inmersivos como VRChat efectivamente crean nuevos ágoras democráticos o si, por el contrario, privatizan la plaza pública bajo las reglas de plataformas corporativas. En la segunda parte, abordaremos otro riesgo tecnológico para la deliberación democrática: los deepfakes en campañas políticas. Analizaremos tres posibles respuestas –etiquetado de contenidos, verificación previa y alfabetización crítica– y defenderemos por qué una de ellas surge como la medida prioritaria más realista en el contexto electoral actual. A lo largo del texto, conectaremos estos fenómenos con el marco teórico de la ciberpolítica y la gubernamentalidad algorítmica, apoyándonos en los análisis de Perugachi (2025) y Tirado & Blasco (2025), así como en ejemplos de activismo digital contemporáneo.
Mundos inmersivos: ¿ágoras democráticos o peceras privadas?
La promesa inicial de los entornos virtuales inmersivos fue la de expandir las fronteras de la interacción humana. Plataformas sociales de realidad virtual como VRChat permiten a cualquier persona crear un avatar y sumergirse en espacios comunitarios donde rigen, en teoría, la creatividad y la libre expresión. En estos mundos, uno puede personalizar su identidad y entorno, colaborar en tiempo real y debatir con otros sin las limitaciones físicas tradicionales. Este potencial participativo recuerda a la idea de una esfera pública digital vibrante y horizontal, en la que los ciudadanos prosumidores no solo consumen contenido sino que también lo generan y lo moldean. Sin embargo, a medida que nos adentramos en la realidad de estas plataformas, surgen señales de alerta: ¿quién controla las reglas de juego en estos espacios virtuales? En VRChat, por ejemplo, tras la fachada lúdica subyacen términos de servicio y códigos de conducta dictados por la empresa que opera la plataforma. La “plaza” puede parecer pública, pero en esencia es un recinto privado cuya autoridad última no es la ciudadanía, sino los desarrolladores-propietarios (lo que Castronova llamaría la “autoridad del código”). Así, mientras los usuarios sienten una libertad novedosa al asociarse con otros en entornos creados por la comunidad, esa libertad está condicionada por normas corporativas y por la infraestructura técnica que la empresa controla.
Teóricos de la comunicación digital advierten que el metaverso corre el riesgo de convertirse en el “monopolio del ciberespacio”, consolidando una hegemonía de plataformas privadas sobre nuestra vida pública en línea[1]. Como señala Perugachi (2025), en estos espacios virtuales “no hay reglas ni límites claros” impuestos democráticamente; operamos como prosumidores en un entorno en el que “no existen garantías” formales de nuestros derechos[2]. De hecho, estas plataformas persiguen esencialmente la participación continua de los ciudadanos –buscando que generemos datos e interacción constante– porque “participar y generar datos es el imperativo” de la nueva economía digital algorítmica[3]. VRChat y mundos similares fomentan la creación de perfiles atractivos y lazos sociales en línea, pero esto funciona muchas veces como “gancho” para fidelizar a los usuarios dentro de la plataforma[3]. Se reproduce así una forma de poder suave: el espacio virtual nos atrae con ocio y sociabilidad, mientras en segundo plano la plataforma recopila nuestra información y modera la conducta a su discreción. En palabras de Tirado & Blasco (2025), esta “gubernamentalidad algorítmica” esquiva la frontalidad de las leyes estatales y, en cambio, moldea comportamientos de forma sutil –mediante sugerencias, algoritmos de recomendación y normas de comunidad– sin pasar por sujetos deliberativos ni procesos participativos tradicionales[4][5]. El resultado es un ejercicio de poder flexible, adaptativo y totalizante por parte del sistema: los usuarios pueden sentir que actúan libremente en el metaverso, cuando en realidad su experiencia está canalizada por infinidad de decisiones automatizadas opacas.
El contraste con el caso distópico de Sword Art Online nos ayuda a visibilizar las garantías democráticas ausentes en estos entornos. En la ficción de SAO, los participantes quedan atrapados bajo las normas absolutas impuestas por el creador del juego. No existe allí libertad de expresión efectiva (cualquier protesta o disentimiento carece de efecto real si el game master no lo permite) ni rendición de cuentas: el arquitecto de ese mundo virtual no responde ante ninguna institución ni comunidad por las muertes o injusticias ocurridas dentro del juego. Del mismo modo, los usuarios de VRChat u otras plataformas inmersivas se hallan sujetos a la moderación privada: pueden ser expulsados o censurados si violan reglas de contenido que decidieron corporaciones, no asambleas ciudadanas. A diferencia de una plaza pública física –donde rige un orden legal público y derechos constitucionales– en la plaza virtual la noción de libertad de expresión es contractual y limitada: un usuario expulsado por “conducta inapropiada” difícilmente pueda apelar a principios democráticos, pues el foro pertenece a un ente privado. Otra garantía ausente es la igualdad de acceso. Para “entrar” al metaverso se requiere tecnología costosa (visores de VR, buena conectividad); esto excluye de entrada a poblaciones menos favorecidas, agudizando brechas digitales. La prometida universalización de la participación tropieza con la realidad material: el ágora virtual tiene barreras socioeconómicas que las plazas tradicionales no tenían en igual medida. Asimismo, falta trazabilidad y transparencia en las decisiones: las plataformas raramente divulgan cómo funcionan sus algoritmos de recomendación o cuáles son los criterios exactos con que filtran contenidos y comportamientos. En VRChat, por ejemplo, un mundo creado por usuarios puede ser “instanceado” o moderado automáticamente sin que el proceso sea visible; los participantes no tienen manera de auditar las lógicas internas que regulan su interacción. Esta falta de visibilidad en la toma de decisiones contrasta con las expectativas democráticas de publicidad de las normas y control ciudadano de la autoridad. En última instancia, la accountability (rendición de cuentas) es limitada o inexistente: si la plataforma falla en proteger a sus usuarios de acoso, o si abusa de censura injustificada, las vías de reclamo son débiles (formularios de soporte, arbitraje privado) y no un debate público vinculante.
Las experiencias prácticas confirman esta tensión entre potencial democrático y privatización. Por un lado, han surgido intentos de aprovechar lo virtual para revitalizar la política participativa. Por ejemplo, el colectivo Wikipolítica en México exploró plataformas digitales inspiradas en el modelo wiki para organizar agendas ciudadanas horizontales[6]. En teoría, un wikiliderazgo de este tipo, apoyado en entornos colaborativos en línea, permitiría co-crear programas políticos con amplia base y sin jerarquías rígidas[7][8]. Imaginemos campañas donde los candidatos aparecen como avatares en Second Life o VRChat, recorriendo con los votantes plazas virtuales y discutiendo propuestas en tiempo real, como si de un videojuego participativo se tratara. De hecho, ya en 2020 la fórmula Biden-Harris incursionó en este terreno creando un mapa interactivo de su plan de gobierno dentro del videojuego Fortnite[9][10]. Estas innovaciones sugieren que la tecnología inmersiva podría acercar representantes y ciudadanos en entornos de interacción directa. Sin embargo, incluso esos experimentos se desarrollan bajo la infraestructura de empresas privadas (Epic Games, en el caso de Fortnite) que tienen la “llave” del espacio virtual. Volviendo a Perugachi, “no hay reglas ni límites claros” en estos mundos: carecemos de un marco jurídico democrático que garantice derechos dentro del metaverso[2]. Así, cualquier avance hacia la horizontalidad en la participación puede verse socavado por nuevas formas de control social que vienen imbricadas con la tecnología[11]. La misma herramienta que permite a un candidato dialogar en VR con miles de votantes también puede servir para vigilarlos mediante hiperdataficación –registrando cada movimiento o palabra de sus avatares– o para manipular su percepción con entornos simulados diseñados estratégicamente. En palabras de Perugachi, “el metaverso fractura la realidad” y difumina la frontera entre lo real y lo ilusorio, pudiendo sumergirnos en “una sociedad ilusoria ... caracterizada por la deshumanización”[12][13].
Un síntoma preocupante de esta falta de garantías es la experiencia de quienes alzan la voz en el ámbito digital. La joven activista argentina Ofelia Fernández es un ejemplo elocuente. Con solo 18 años, Ofelia saltó a la fama viral por su elocuencia en una asamblea estudiantil filmada; en pocos años pasó de Instagram a obtener un escaño legislativo en Buenos Aires, demostrando el poder democratizador de las redes sociales para catapultar liderazgos emergentes. “Hoy cuenta con casi un millón de seguidores en sus redes sociales. Su popularidad en Internet le sirvió para su campaña por el derecho al aborto,” relata un perfil periodístico[14]. Sin embargo, “este éxito también tiene su lado oscuro” –advierte el mismo texto–: “las mujeres que defienden sus convicciones en Internet se convierten en blanco de discursos de odio”. Ofelia ha debido enfrentar una avalancha de insultos y amenazas en línea, desde descalificaciones sexistas hasta deseos explícitos de violencia en su contra[14]. La suya no es una situación aislada. La misoginia y el acoso digital proliferan en las plataformas de redes sociales, al punto de que muchas jóvenes políticas y periodistas contemplan silenciarse o abandonar sus carreras debido a la toxicidad del entorno[15]. Este caso real ilustra con crudeza la ausencia de mecanismos de protección y rendición de cuentas efectivos en la esfera pública digital: si bien Ofelia pudo amplificar su voz gracias a Internet (participación expandida), esa misma esfera no le brindó garantías básicas de seguridad ni de justicia frente a la violencia recibida. En un espacio público democrático, las amenazas de muerte o violación serían materia de intervención legal; en cambio, en Twitter o Instagram a menudo quedan impunes o son tratadas como un simple incumplimiento de normas comunitarias cuyo castigo rara vez disuade a los agresores. La lección es clara: el nuevo ágora virtual todavía carece de un estado de derecho. Hoy por hoy, son las plataformas –como dueñas del espacio– las que moderan contenidos y comportamientos, usualmente con criterios comerciales o de reputación corporativa más que con principios democráticos de fondo.
En síntesis, los mundos inmersivos ofrecen oportunidades inéditas para la interacción y organización ciudadana, pero no garantizan por sí mismos una esfera pública democrática. VRChat puede asemejarse a una plaza global donde cualquiera se expresa bajo el anonimato de un avatar, pero sigue siendo una “pecera” construida en código propietario: transparente quizás en apariencia, pero contenida por muros invisibles de propiedad privada. La narrativa de Sword Art Online llevada al extremo nos previene contra entregar nuestro debate público a plataformas cerradas: si la ciudadanía queda “atrapada” dentro de sistemas que no controla, la democracia corre peligro de volverse una ilusión virtual. Como señala Perugachi, el metaverso permite “personalizar distopías” a gusto del usuario –escenarios y personajes a medida[1]–, pero esa libertad superficial podría encubrir una distopía mayor si la hegemonía de las plataformas digitales reemplaza a las garantías institucionales. La ausencia de reglas claras, límites éticos y garantías jurídicas en estos espacios demanda atención urgente. Para que un mundo inmersivo sea un verdadero ágora, haría falta repensar su gobernanza: quizás introducir mecanismos de co-gobierno con los usuarios, mayor transparencia algorítmica y la aplicación de principios de derechos digitales (libertad de expresión, igualdad, privacidad) equivalentes a los derechos humanos offline. Algunos investigadores hablan de explorar una “policéntrica” o “ciber-federalista” gobernanza en VR, donde las comunidades de usuarios coproduzcan las normas junto a desarrolladores y reguladores[16][17]. Los primeros indicios, como prácticas de auto-moderación en salas de VRChat o la presencia de frameworks de políticas públicas que limitan abusos en línea, sugieren que es posible empoderar a los usuarios para que ejerzan cierto control. De hecho, estudios muestran que cuando las plataformas empoderan a sus comunidades para auto-gestionarse, surgen comunidades virtuales más robustas y sustentables[18]. En última instancia, la cuestión es cómo impedir que el metaverso termine sirviendo exclusivamente a los intereses del “imperativo de datos” corporativo, y en cambio logre encarnar los valores democráticos de pluralismo, deliberación informada y control ciudadano.
Deepfakes en campañas: un engaño ultrarreal y cómo enfrentarlo
Si los mundos inmersivos reconfiguran dónde debatimos, la tecnología de los deepfakes amenaza con distorsionar qué debatimos y en qué creemos. En plena era de la posverdad, los ultrafalsos –videos e imágenes falsificados mediante inteligencia artificial– se han convertido en una inquietante arma de manipulación política. Imaginemos una noche durante una cerrada campaña electoral: circula por redes sociales un video escalofriante en el que un candidato presidencial aparentemente admite haber cometido un crimen. Su voz y su gesto lucen auténticos; la indignación pública es inmediata. Horas más tarde, analistas independientes demuestran que era un deepfake fabricado con técnicas avanzadas de IA, superponiendo el rostro y voz del político sobre otra persona. Pero el daño ya está hecho: miles de ciudadanos habrán visto y creído la mentira, minando la confianza en ese candidato (o en el proceso electoral en general) antes de que la verificación llegue a desmentirlo. Ejemplos como éste no son mera especulación. La tecnología deepfake ha evolucionado hasta permitir editar videos de eventos que nunca ocurrieron, clonando identidades con alto realismo[19]. Tal es su poder desinformador que hoy en día “los deepfakes son considerados un arma en la ciber-guerra”[19], integrándose al arsenal de ataques de información que pueden afectar a democracias enteras.
Frente a esta amenaza, surgen al menos tres grandes opciones de política pública y social: (1) imponer un etiquetado obligatorio que identifique el contenido sintético, (2) establecer mecanismos de verificación ex ante (previa) de la autenticidad de los mensajes de campaña, o (3) invertir en la alfabetización mediática y pensamiento crítico del electorado para que los ciudadanos sepan discernir por sí mismos la veracidad de lo que consumen. Cada vía tiene sus méritos y dificultades. La pregunta es cuál de ellas resulta más realista de implementar en el contexto electoral actual. Considerando la rapidez con que avanzan las campañas y la escala del ecosistema informativo, la medida prioritaria más factible en el corto plazo es el etiquetado obligatorio de contenidos audiovisuales generados por IA, especialmente en propaganda política. Esta solución, centrada en la transparencia tecnológica, consiste en exigir que todo video o audio sintético difundido en el contexto electoral venga acompañado de una marca visible (por ejemplo un sello o disclaimer) que alerte su carácter artificial, o incluso en insertar watermarks digitales indetectables al ojo humano pero reconocibles por algoritmos de las plataformas. Veamos por qué el etiquetado se destaca en viabilidad técnica, impacto y compatibilidad con la democracia.
En primer lugar, el etiquetado de deepfakes ya no es una mera idea teórica, sino una práctica incipiente apoyada por la industria tecnológica. Plataformas globales como TikTok han comenzado a implementar sistemas automatizados capaces de “reconocer y etiquetar instantáneamente” el contenido generado por IA, limitando así la difusión de desinformación ultrarrealista[20][21]. Gracias a iniciativas como la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), se están integrando metadatos en las imágenes y videos para rastrear su origen y alertar si han sido sintetizados digitalmente[21]. Esto demuestra que la viabilidad técnica existe: las herramientas de detección y marcado de deepfakes están en desarrollo activo y pueden incorporarse a redes sociales y medios. De hecho, la propia TikTok –una plataforma con cientos de millones de usuarios– anunció en 2024 la adopción de Content Credentials, que adjuntan información sobre cuándo, dónde y cómo fue creado o editado un video, permitiendo saber si es obra de IA y en qué contexto[21]. Si una red social de tal magnitud puede implementar el etiquetado automático, es razonable pensar que otras (Facebook, X/Twitter, YouTube) podrían seguir el mismo camino, más aún bajo presión regulatoria.
En segundo lugar, el impacto social del etiquetado sería inmediato y fácilmente comprensible para la ciudadanía. Un mensaje claro –por ejemplo, un rótulo “Contenido generado por IA, no real” superpuesto en un video manipulado– brinda al espectador una señal cognitiva directa para dudar de lo que ve. Estudios sobre desinformación señalan que la sobreabundancia de contenido manipulador solo logra influir si encuentra un público proclive a creerlo sin cuestionar[22][23]. Por tanto, alertar al público en el mismo canal de difusión reduce la probabilidad de que acepten acríticamente la falsedad. El objetivo es reforzar ese pequeño instante de duda saludable en el receptor: “Cuidado, esto podría ser falso”. Esto es similar a las etiquetas de advertencia sanitarias en productos: no impiden su existencia pero informan del riesgo, buscando corregir la percepción del consumidor. Transparency by design, podríamos llamarlo. Incluso si algunos espectadores inicialmente ignoraran la alerta, su mera presencia facilita que periodistas, verificadores y ciudadanos críticos señalen públicamente “miren, ese video tiene marca de agua de deepfake, tómenlo con pinzas”. Es decir, el etiquetado empodera a los actores pro-democracia (medios, fact-checkers, activistas) con una base objetiva para desmentir contenido falso antes de que cale hondo. Cabe mencionar que la medida ya cuenta con respaldo en principios democráticos: varias iniciativas internacionales la recomiendan como parte de la defensa de la integridad electoral. Un informe de International IDEA sobre IA e información electoral señala que entre las medidas adoptadas globalmente “se incluían el etiquetado obligatorio de contenido sintético en los anuncios políticos”, acompañado de mayor supervisión de las campañas digitales[24]. Esta recomendación se alinea con el valor democrático de la transparencia informativa. Al fin y al cabo, en democracia consideramos legítimo exigir que la publicidad política sea identificable como tal; del mismo modo, es razonable exigir que un deepfake se identifique como deepfake. No se trata de coartar la libertad de expresión –pues incluso contenidos satíricos o paródicos podrían difundirse mientras se reconozca su naturaleza ficticia–, sino de garantizar el derecho del público a saber qué es real y qué no, para emitir un voto informado.
Por supuesto, la efectividad del etiquetado depende de su implementación universal y obligatoria, ya que los malos actores no van a autoinculparse voluntariamente. Aquí entra el rol de la regulación. Un marco legal puede imponer sanciones a quienes distribuyan deliberadamente deepfakes no etiquetados con intención de engañar al electorado. Ya vemos pasos en esa dirección: en la provincia argentina de Tucumán se presentó en 2025 un proyecto de ley pionero que penaliza duramente la difusión intencional de contenidos falsos generados por IA en campañas[25][26]. Este proyecto obliga, además, a las plataformas digitales a intervenir proactivamente: tendrían que identificar o remover en pocas horas cualquier material manipulado denunciado, e incluso proporcionar metadatos (como la IP del origen) a las autoridades[27][28]. Notablemente, la propuesta contempla exenciones explícitas para contenidos que incluyan “etiquetado o marca de agua visible y persistente” indicando su carácter no auténtico[29]. Es decir, si alguien difunde un video sintético pero se asegura de marcarlo claramente como tal, no sería sancionado. Esta formulación legal respalda nuestro argumento: el etiquetado es visto como un remedio suficiente para neutralizar el engaño, al menos desde el punto de vista normativo. Un contenido identificado como falso deja de ser considerado una amenaza a la “voluntad del electorado” porque difícilmente podrá inducir a error grave[30][29]. Vemos entonces que el andamiaje institucional para el etiquetado comienza a construirse, dándole mayor realismo a esta medida.
En contraste, las otras opciones enfrentan obstáculos considerables en el hoy electoral. La verificación ex ante –entendida como un filtro o certificación previa de autenticidad para todo material de campaña– suena ideal en teoría (impedir que el falso mensaje circule siquiera), pero en la práctica conlleva riesgos para las libertades y enormes desafíos operativos. ¿Quién sería el árbitro que “verifique” cada video antes de su publicación? Si recae en un ente gubernamental o electoral, podríamos estar al borde de la censura previa, chocando con la libertad de expresión y abriendo la puerta a sesgos políticos en la aprobación de contenidos. Además, la velocidad de las redes hace imposible interceptar cada pieza a tiempo: millones de usuarios generan y comparten contenidos políticos diariamente en campaña, un volumen imposible de someter a examen manual sin retrasos intolerables. La IA podría ayudar a filtrar, pero confiar ciegamente en algoritmos para bloquear videos conlleva falsos positivos y negativos preocupantes[31]. Imaginemos un filtro automatizado demasiado estricto que bloquee un video legítimo de denuncia ciudadana confundiéndolo con un deepfake: estaríamos vulnerando derechos políticos. Por tanto, la verificación ex ante, aunque deseable como estándar, no se vislumbra viable hoy sin sacrificar principios democráticos (esencialmente sería instaurar una suerte de “Ministerio de la Verdad” digital, algo que ninguna sociedad abierta aceptaría fácilmente).
Por su parte, la alfabetización crítica del electorado es incuestionablemente necesaria a largo plazo: una ciudadanía educada en medios e información será la mejor defensa contra cualquier engaño, sea analógico o digital. De hecho, esta medida ataca la raíz del problema al fomentar votantes conscientes y difíciles de manipular. Iniciativas de alfabetización mediática ya existen y deben ampliarse; por ejemplo, TikTok ha lanzado campañas educativas y colaborado con organizaciones especializadas para enseñar a sus usuarios –especialmente jóvenes– a “separar los hechos de la ficción en la web”[32]. Sin embargo, los resultados de la educación no son inmediatos ni uniformes. Elevar el pensamiento crítico de toda una población es un proyecto generacional que requiere reformas educativas profundas, programas masivos de capacitación y un cambio cultural en la forma en que consumimos noticias. En contextos electorales que ya están en curso o próximos, confiar solo en la alfabetización sería dejar desprotegida a buena parte de la ciudadanía actual, particularmente a aquellos grupos de mayor edad o menor acceso educativo que son a veces los más vulnerables a la desinformación. Además, el efecto de la alfabetización es difícil de medir y asegurar: incluso personas conscientes pueden ser engañadas por un deepfake bien hecho si no tienen herramientas adicionales para comprobarlo. Por ende, aunque la formación crítica es la estrategia democrática por excelencia (fortalece la resiliencia social sin coartar libertades), su implementación plena es de mediano a largo plazo. No podemos darnos el lujo de esperar a que cale en toda la población mientras los deepfakes proliferan. Esto nos lleva de vuelta al etiquetado como medida inmediata que, en conjunto con esfuerzos de alfabetización, puede mitigar el problema ya en las próximas elecciones.
Debe señalarse que ninguna solución es perfecta por sí sola. Incluso el etiquetado obligatorio tendrá limitaciones: algún contenido malicioso escapará a los detectores, o ciertos electores podrían ignorar las etiquetas debido a sesgos partidistas (quienes quieren creer en el escándalo tal vez lo hagan aunque diga “falso”). Los expertos enfatizan que la lucha contra la desinformación es multifacética[33][34]. Un reciente análisis subraya que “la IA no hará más que mejorar con el tiempo, al igual que debería hacerlo nuestra defensa de la democracia”[35]. Esto implica combinar estrategias. El etiquetado obligatorio proporcionaría una base de transparencia esencial; sobre ella se deben montar otras capas: mejoras constantes en detección tecnológica (IA contra IA), fortalecimiento de leyes electorales que castiguen la difamación digital deliberada, y sí, programas continuos de alfabetización mediática que reduzcan la “demanda” de contenido engañoso en la población. En última instancia, el objetivo es construir una realidad compartida basada en hechos, como propone International IDEA[36], donde las fuerzas democráticas acuerden que ciertas líneas no se cruzan (por ejemplo, no se tolera la mentira fabricada para ganar votos). El etiquetado de deepfakes aporta a esa construcción al evidenciar los hechos (o la ausencia de ellos) detrás de cada pieza de información.
A modo de cierre, regresamos a la visión más amplia: tanto el auge del metaverso como la irrupción de los deepfakes son síntomas de una transformación profunda en la esfera pública digital. Esta transformación conlleva promesas y amenazas. De un lado, tecnologías que amplían la participación y la creatividad política; del otro, nuevos mecanismos de manipulación y control privados. Hemos argumentado que los mundos virtuales inmersivos, si bien pueden abrir canales de interacción, encierran a la deliberación en infraestructuras opacas regidas por la lógica de la plataforma, donde faltan garantías democráticas tradicionales como la libertad de expresión protegida, la equidad de acceso o la accountability de los poderosos. Asimismo, los deepfakes representan un desafío sin precedentes a la verdad pública, capaz de erosionar la confianza ciudadana en cuestión de segundos con falsificaciones creíbles. Ambos fenómenos nos enfrentan a la misma pregunta de fondo: ¿cómo preservar los principios democráticos –libertad, igualdad, transparencia, justicia– en un ámbito digital dominado por la innovación vertiginosa y, muchas veces, por intereses privados globales? Las respuestas empiezan a vislumbrarse en la acción conjunta de sociedad civil, academia, empresas responsables y Estados. Vimos cómo colectivos activistas han logrado exponer y resistir usos abusivos de la IA, descentralizando el conocimiento y demostrando que el control ciudadano es posible incluso frente a sistemas opacos[37]. Ese mismo empuje cívico deberá influir en la construcción del metaverso para que este no sea una distopía corporativa, sino un espacio plural con derechos garantizados. Del lado de la información, iniciativas legales y tecnológicas para etiquetar y frenar las ultrafalsificaciones muestran que no estamos indefensos: con más transparencia y cooperación, es factible blindar la integridad del debate democrático sin renunciar a la libertad en la red. En definitiva, el metaverso y los deepfakes nos obligan a repensar el contrato social digital. Si logramos integrar principios democráticos en el diseño mismo de estas tecnologías –gobernanza participativa de plataformas, veracidad etiquetada, educación digital masiva–, quizás la próxima vez que entremos en una plaza virtual lo hagamos con la certeza de estar pisando terreno firme de derechos, y no solo un brillante espejismo. La tarea es enorme, pero ineludible: de ello depende que la próxima etapa de nuestra vida pública, por muy virtual que sea, permanezca anclada en los valores reales de la democracia.
Fuentes consultadas
Fuentes consultadas: Perugachi (2025), Tirado & Blasco (2025), informes de International IDEA, Wired, Tendencia de Noticias, material de redes sociales (Enlaces, DW) y otros indicados a lo largo del texto.
Pegurachi_IA-25.pdf
file://file-KhZtAkAzPyFLkm2jPo3NCj
Tirado-Blasco_25.pdf
file://file-K5vVTZyBW2v9ugw2qChE9C
Export word - Redes sociales una importante via para el activismo 1080p25fpsH264128kbitAAC.mp4 (11_11_2025).docx
file://file-7L42mLtfp1YJtEKqEztdpF
Phantoms, Crashers, and Harassers - The CGO
https://www.thecgo.org/research/phantoms-crashers-and-harassers/
TikTok añade nueva etiqueta para los contenidos generados por IA | WIRED
https://es.wired.com/articulos/tiktok-anade-nueva-etiqueta-para-contenidos-ia
Inteligencia Artificial e Integridad de la Información: Experiencias Latinoamericanas | International IDEA
Proyecto contra 'deepfakes' electorales busca blindar la democracia tucumana de la desinformación artificial | Tendencia de Noticias