“Si quieres, también puedo crear una versión aún más vistosa, al estilo de la portada, con estadísticas impactantes (...). ¿Quieres que lo haga a continuación?”. Este texto, generado por una IA, se coló por error en una noticia del diario Dawn. El desliz desencadenó una oleada de críticas y reabrió el debate sobre el uso de la IA en la redacción de noticias. “Ya es muy difícil diferenciar el contenido generado por IA del elaborado por seres humanos, y cada vez lo será más”, advierte Ferran Lalueza, profesor de los Estudios de Ciencias de la Información y de la Comunicación de la Universitat Oberta de Catalunya (UOC). “Acabaremos asumiendo que, por defecto, todos los contenidos que consumimos pueden haber sido elaborados utilizando herramientas de IA, excepto aquellos procedentes de fuentes que hagan bandera de la autoría humana”, añade.
A pesar de la adopción masiva de estas herramientas, existe lo que los expertos denominan la brecha de confianza. Según un informe elaborado en 47 países por la Melbourne Business School en colaboración con KPMG, aunque el 66% de la población utiliza la IA habitualmente, ni siquiera la mitad (46%) confía realmente en ella. Las personas confían en la capacidad técnica de la IA para procesar datos, pero son mucho más escépticas en lo que respecta a la seguridad y al impacto social. En esta línea, un estudio del Pew Research Center (septiembre de 2025) indica que el 50% de los entrevistados se muestra más preocupado que ilusionado por el avance de la IA, y el 53% teme especialmente la pérdida de la capacidad de pensamiento creativo humano.
Y es que la IA tiene grandes ventajas, pero también carencias: “Falta de autenticidad, de responsabilidad firme, de compromiso ético, de fiabilidad, de trazabilidad y de empatía real (no impostada)”, enumera Lalueza. Por su parte, Alexandre López Borrull, también profesor de los Estudios de Ciencias de la Información y de la Comunicación de la UOC, destaca que la creación humana permite, a diferencia de la generación por IA, ofrecer diferentes capas de contexto y valores al relato de un mismo dato, además de tener la capacidad de personalizar y adaptar el conocimiento a cada pregunta.
Ante estas deficiencias, los buscadores y las plataformas de IA están ajustando sus algoritmos para responder a criterios como el EEAT (experiencia, conocimiento, autoridad y confianza, por sus siglas en inglés), que valora, posiciona y premia en mejores posiciones el contenido escrito o firmado por humanos.
En un mundo impregnado de contenidos sintéticos, ¿podría convertirse la etiqueta 'made by a human' en un criterio de valor positivo? La demanda social ya existe: para el 76% de los adultos es extremadamente importante o muy importante poder distinguir si un texto, imagen o vídeo ha sido creado por una IA o por una persona, según el citado estudio del Pew Research Center.
Ya existen iniciativas en este sentido para certificar la autoría humana en diferentes ámbitos: en el sector editorial, destacan sellos como ‘Organic Literature’ (Literatura escrita por humanos), de Books by People, y ‘Human Authored’ (Escrito por humanos), de The Authors Guild; en el campo gráfico, existen insignias como ‘Not By AI’ (No hecho por IA) o la certificación ‘AI Free’ (Libre de IA), y en el ámbito de los videojuegos, el sello ‘No Gen AI’ (Sin IA generativa).
El consenso académico descarta que una IA pueda firmar artículos científicos por falta de responsabilidad ética y jurídica
¿Cómo se protege el conocimiento científico ante la irrupción de la IA? Según López Borrull, el ámbito académico está levantando muros desde dos vertientes. La primera es la transparencia. “Se exige detallar en qué fases exactas del proceso de investigación se ha utilizado la IA (traducción, revisión de estilo, etc.)”, comenta el experto. La segunda es la confidencialidad. “Las editoriales científicas están prohibiendo alimentar a las IA generativas con manuscritos no definitivos o utilizar estas herramientas para redactar informes de evaluación de expertos (peer review), con el fin de proteger la propiedad intelectual de datos aún no publicados”, detalla el también investigador del Grupo de Investigación en Aprendizajes, Medios y Entretenimiento (GAME).
Además, se ha resuelto el debate sobre si una IA puede firmar un artículo científico. “El consenso académico es que no se puede ser autor si no se puede asumir la responsabilidad ética y jurídica de la investigación; por ejemplo, responder ante resultados falsos o errores en los experimentos. Si no se le puede exigir responsabilidad, no es un autor; es una herramienta”, advierte López Borrull.
Así pues, ¿serán estos sellos un distintivo de calidad, ética y conexión emocional? “Creo que habrá dos grandes tendencias: una de plena aceptación de la IA como recurso válido para generar contenidos de manera rápida y económica, y otra que potenciará el contenido elaborado sin ningún tipo de apoyo de la IA como distintivo de calidad ‘prémium’, afirma Lalueza. López Borrull apuesta por una etiqueta como ‘supervisado por un experto’, que ofrecería una capa de valor adicional. “El éxito vendrá de aquellos que tengan a los mejores expertos y hayan sabido adaptar adecuadamente la IA generativa para mejorar la calidad, y no la cantidad”, matiza.
No obstante, que esta etiqueta se convierta en un elemento de prestigio dependerá, según los expertos, de las preferencias de los usuarios. “No creo que sea determinante a la hora de consumir contenidos, sino una acción que dependerá más de gustos personales que de las herramientas utilizadas. Sobre todo, porque habrá mucha hibridación, desde contenidos generados casi exclusivamente por IA hasta contenidos en los que el uso de la IA está presente, pero de forma residual”, comenta Lalueza, también investigador del grupo GAME.
Hay escenarios en los que descubrir una IA detrás genera un rechazo inmediato por el factor del engaño, como el arte, las opiniones personales o la información firmada. En cambio, para resúmenes, consultas técnicas rápidas o datos utilitarios (el tiempo, resultados deportivos), el pragmatismo se impone.
El 76% de los usuarios considera muy importante distinguir si un contenido es humano o artificial
Aquí surge el problema: aunque existe interés en la transparencia de los contenidos, la capacidad real de los usuarios para detectar si el origen es humano o sintético es deficiente. El 53% de las personas encuestadas no está muy seguro o nada seguro de poder distinguir si algo ha sido creado por IA o por una persona, según el estudio del Pew Research Center. “Pasamos mucho tiempo intentando ver si el resultado final tiene indicios de IA (en el formato, en el texto), pero quizá deberíamos valorar más el proceso, si ha aportado valor como lo habría hecho en el caso humano o si, en cambio, le ha restado originalidad, espontaneidad y ética”, puntualiza López Borrull.
Estudios recientes indican que identificar los contenidos como creados por una IA no reduce la aversión de los lectores hacia la IA. Saber que el autor es una máquina mantiene intacta la preferencia del público por las noticias escritas por humanos, especialmente cuando se trata de temas complejos o sensibles que requieren matices más allá del simple dato. Existe una buena disposición a leer a la máquina por novedad y utilidad, pero se sigue reservando la credibilidad para lo humano.
Esta aversión provoca que, hoy en día, la transparencia no siempre esté bien vista; a veces parece un engaño o una falta de profesionalidad. “Se emite un mensaje como si todo fuera humano, pero en el backoffice hay IA generativa, porque su uso declarado parece penalizado, ya que todavía no se percibe su valor”, comenta López Borrull.
Quizá, con el tiempo, etiquetas como ‘made by a human’, ‘asistido por una IA’ o ‘creado por una IA’ modifiquen el valor que tienen en el imaginario social. “Decir que no se ha utilizado la IA puede tener un valor a corto plazo, pero en el péndulo del tiempo no se entenderá como artesanal, sino como poco eficiente”, concluye López Borrull.

Noticias sobre marcas y empresas de deporte