La discusión central de la entrevista con Juan Carlos López Calvet es simple y concreta: la métrica relevante para evaluar la IA en medios no es el clic sino la confianza. La afirmación no es retórica: la nota señala que, por ahora, Schibsted tiene “solo un servicio donde la IA toma decisiones autónomas” y que el resto de las herramientas opera con revisión humana (Fuente: La Nación, 11/4/2026). Ese dato obliga a distinguir entre adopción tecnológica y gobernanza responsable.

¿Qué propone López Calvet y por qué importa?

López Calvet plantea que la IA debe usarse para ampliar el acceso y la comprensión de noticias de interés público, no para multiplicar formatos sin rigor. Subraya tres dimensiones centrales: integridad editorial, explicabilidad y privacidad (Fuente: La Nación, 11/4/2026). El ejemplo operativo que menciona —Videofy, que transforma artículos largos en piezas audiovisuales— muestra un punto clave: la automatización obliga a repensar la narrativa y la selección de evidencia para mantener contexto y rigor. En su diagnóstico, el riesgo aparece cuando los indicadores premiados son CTR o tiempo de permanencia, métricas eficaces comercialmente pero potencialmente destructivas para el valor público. Si lo medimos por clics, el periodismo puede volverse más rápido y menos profundo; si lo medimos por confianza, la inversión y los controles cambian.

¿Cómo impacta esto en el mercado argentino?

La discusión es relevante para medios locales porque las decisiones de producto definen incentivos y presupuestos. Schibsted llega a la discusión con una decisión concreta: por ahora solo 1 servicio autónomo y humanos con veto en el resto (Fuente: La Nación, 11/4/2026). Eso es instructivo para redacciones argentinas que experimentan con asistentes de redacción, resúmenes automáticos y generación de video. En la práctica, vemos dos efectos: i) ahorro de tiempo en tareas repetitivas y ii) riesgo de desviar recursos hacia escala en vez de calidad. La pregunta para editores y anunciantes es práctica: ¿vamos a reinvertir la productividad en verificación y periodismo investigativo o la vamos a usar para reducir planteles y aumentar formatos? La decisión tendrá consecuencias fiscales y laborales locales: menor inversión editorial puede derivar en menos cobertura regional y menos control sobre información de interés público.

Riesgos concretos y controles necesarios

López Calvet identifica la explicabilidad como el desafío más complejo: los modelos no siempre permiten trazar por qué generaron una frase o una imagen (Fuente: La Nación, 11/4/2026). Para nosotros, eso implica tres exigencias no negociables: auditorías externas de algoritmos, documentación pública de criterios de priorización y veto humano en piezas sensibles. Además, la personalización debe convivir con espacios no personalizados para temas de interés público (electoral, emergencias, explicativos). Sin estas reglas, la personalización por afinidad erosiona la plaza pública y fortalece burbujas. En términos concretos, la implementación debe incluir métricas de confianza editorial —porcentaje de contenido que pasa controles de calidad, porcentaje de correcciones publicadas y encuestas de confianza de lectores— y reportes públicos periódicos sobre su evolución (propuesta alineada con criterios de gobernanza señalados por López Calvet, La Nación, 11/4/2026).

Qué deben pedir los medios, los reguladores y la audiencia

Vemos tres demandas prácticas y complementarias. Primero, los medios deben formalizar marcos de uso interno: políticas que describan qué significa “mejor” para cada producto, procesos de co-diseño con redacciones y bibliotecas de estilos para outputs generativos (Lección de Schibsted; Fuente: La Nación, 11/4/2026). Segundo, los reguladores deberían exigir transparencia técnica y auditorías independientes sobre algoritmos que afecten la información pública. Tercero, la audiencia merece métricas de confianza públicas y accesibles: si un resumen o un video fue generado por IA, debe indicarse y enlazarse a las fuentes originales. López Calvet propone una prueba simple de dos años: si volvemos a hablar dentro de 2 años y la industria priorizó atribución, explicabilidad y calidad por sobre clicks, diremos que hubo un cambio real; si no, será humo (Fuente: La Nación, 11/4/2026). Nosotros exigimos gobernanza, transparencia y auditorías independientes en la adopción de IA en medios: la tecnología puede potenciar el periodismo, pero solo si se miden los resultados por confianza y servicio público, no por volumen.