viernes, 20 marzo 2026

· Manzanares | Toledo ·

La confianza digital en la era de la inteligencia artificial

Comparte

Durante años, la discusión sobre inteligencia artificial generativa se centró en una cuestión relativamente acotada: la posibilidad de producir contenido sintético, ya fueran imágenes, vídeos o textos, que pudiera confundirse con material real. Ese escenario, en gran medida, ya es una realidad técnica.

Sin embargo, el cambio más relevante no se está produciendo únicamente en la capacidad de generación, sino en cómo se evalúa la veracidad del contenido.

Los modelos generativos actuales, basados en arquitecturas como transformers o redes adversariales, no operan sobre criterios de verdad, sino sobre probabilidad. Su objetivo es reproducir patrones estadísticos coherentes con los datos de entrenamiento. Esto implica que un contenido puede ser altamente plausible sin ser necesariamente correcto o auténtico.

En el ámbito audiovisual, este principio se ha materializado en la evolución de los denominados deepfakes. Informes recientes del World Economic Forum y de ENISA señalan que la accesibilidad de estas tecnologías ha reducido significativamente la barrera técnica para su generación, lo que amplifica su uso potencial en contextos de fraude o desinformación.

Advertisement

Un caso ampliamente documentado es el ocurrido en Hong Kong en 2024, donde un empleado autorizó transferencias por valor de más de 25 millones de dólares tras participar en una videollamada con supuestos directivos de su compañía. Posteriormente se confirmó que todos los interlocutores eran recreaciones sintéticas generadas mediante IA. Este tipo de incidente no se apoya en la perfección técnica del contenido, sino en su capacidad para resultar creíble en un contexto operativo concreto.

De forma paralela, se han identificado campañas de phishing basadas en vídeo, como las advertencias emitidas por YouTube sobre contenidos que imitaban a su propio CEO con fines fraudulentos. Asimismo, organismos como el Federal Bureau of Investigation han alertado del incremento en el uso de audio y vídeo sintético en esquemas de ingeniería social.

Advertisement

Estos ejemplos reflejan un cambio relevante. El contenido ya no necesita ser impecable para ser eficaz, sino simplemente suficientemente coherente como para no activar mecanismos de sospecha inmediata.

Sin embargo, limitar el análisis a la generación de contenido falso resulta incompleto.

Lokinn

En paralelo, se está observando un fenómeno inverso: contenido legítimo que es cuestionado o descartado bajo la presunción de haber sido generado por inteligencia artificial. Este efecto, descrito en la literatura como “liar’s dividend”, introduce la posibilidad de desacreditar información veraz apoyándose en la existencia de tecnologías capaces de imitarla.

Desde una perspectiva informacional, esto supone un cambio de paradigma. La veracidad deja de ser una propiedad percibida directamente en el contenido y pasa a depender de factores externos como la fuente, la trazabilidad o la validación contextual.

El ámbito del texto presenta dinámicas similares. Los modelos de lenguaje han alcanzado niveles de fluidez que dificultan la diferenciación entre contenido humano y sintético mediante criterios superficiales. Como respuesta, han proliferado herramientas de detección automática.

No obstante, estudios recientes de Stanford University y University of Maryland han puesto de manifiesto limitaciones significativas en estos sistemas. Al basarse en análisis probabilísticos de patrones lingüísticos, presentan tasas relevantes de falsos positivos y negativos. En pruebas realizadas, textos humanos, incluyendo documentos académicos e incluso textos históricos ampliamente conocidos, han sido clasificados como generados por IA, mientras que contenido sintético ha superado los filtros sin ser detectado.

Este comportamiento no constituye un error puntual, sino una consecuencia inherente al enfoque. Los sistemas intentan inferir origen a partir de distribución estadística, lo que impide una clasificación determinista.

Este fenómeno no es exclusivamente académico. En entornos reales ya se han producido situaciones donde trabajos legítimos han sido cuestionados por herramientas de detección automatizada. En un caso cercano, un proyecto técnico desarrollado íntegramente por una persona fue etiquetado como contenido generado por IA. La discrepancia no estaba en el contenido, sino en la capacidad del sistema para interpretarlo.

El uso de estos mecanismos como apoyo puede resultar útil en determinados contextos. Sin embargo, su utilización como criterio concluyente introduce riesgos operativos y reputacionales, especialmente en ámbitos educativos o profesionales.

A este escenario técnico se suma un componente social relevante. El crecimiento de posturas críticas hacia la inteligencia artificial ha contribuido a intensificar el debate sobre su impacto. En algunos casos, esta discusión se articula sobre riesgos bien fundamentados, como el sesgo algorítmico o el uso indebido de datos. En otros, se traduce en una generalización de la desconfianza hacia el contenido digital.

Como consecuencia, la atribución de “contenido generado por IA” comienza a utilizarse no solo como clasificación técnica, sino como mecanismo de cuestionamiento. Este desplazamiento del debate desde la evidencia hacia la sospecha afecta directamente a los modelos de confianza sobre los que se ha construido el ecosistema digital.

Desde el punto de vista de la ciberseguridad y la gestión de la información, la implicación es clara. Las heurísticas tradicionales, basadas en la apariencia del contenido, han perdido eficacia como mecanismos de validación. Elementos como la calidad visual, la coherencia narrativa o la estructura lingüística ya no son indicadores suficientes de autenticidad.

El foco se desplaza hacia principios más robustos: verificación de origen, integridad del dato, trazabilidad y contraste de fuentes. Es decir, hacia modelos de validación más cercanos a la gestión de la información crítica que al consumo cotidiano de contenido digital.

Este cambio no implica que la veracidad haya dejado de existir ni que sea imposible determinarla. Implica que los mecanismos para evaluarla requieren un mayor nivel de análisis y contexto.

La inteligencia artificial no ha eliminado la distinción entre lo real y lo artificial. Pero sí ha reducido de forma significativa la utilidad de los criterios intuitivos que durante años han permitido establecerla.

Y en ese desplazamiento, más que en la tecnología en sí, es donde se sitúa el verdadero reto.

José García González
José García Gonzálezhttps://www.yottadesarrollos.com/
Yotta Desarrollos Tecnológicos es una empresa joven e innovadora especializada en desarrollo de software, consultoría y asesoramiento tecnológico. Creadores de la plataforma Lokinn.com, combinan experiencia en teledetección, SIG y herramientas a medida para impulsar la digitalización empresarial. Su compromiso es ofrecer soluciones eficaces, seguras y adaptadas al futuro de cada organización.

Más noticias

+ noticias