This publication runs on Streamed.News. Yours could too.

Get this for your newsroom →

— From video to newspaper —

Thursday, May 7, 2026 streamed.news From video to newspaper
Autenticidad

Una sola mirada lo cambió todo: lo que el teatro le enseñó a Ashley Faus sobre la autenticidad

Una sola mirada lo cambió todo: lo que el teatro le enseñó a Ashley Faus sobre la autenticidad

🌐 Read this in English

Fuente original: Leveraging Thought Leadership Podcast
Este artículo es un resumen e interpretación editorial de ese contenido. Las ideas son de los autores originales; la selección y redacción son de Streamed.News.


Este programa de Leveraging Thought Leadership Podcast abordó varios temas. Se destacan 6 segmentos por su relevancia. Cada sección enlaza directamente al momento en el video original.

Los momentos más reveladores de quiénes somos rara vez provienen de lo que decimos, sino de los microgestos que ni siquiera sabemos que estamos haciendo.


Una sola mirada lo cambió todo: lo que el teatro le enseñó a Ashley Faus sobre la autenticidad

Durante una producción de teatro musical, Ashley Faus descubrió que levantar la vista para hacer contacto visual con un compañero de escena —en lugar de permanecer con la cabeza entre las manos— generaba una reacción emocional visceral que las palabras del guion nunca lograban por sí solas. Su compañera confesó que sentía una preocupación genuina por Faus como persona, no simplemente como personaje. Las palabras, las pausas y la coreografía eran idénticas cada noche; solo ese pequeño instante de contacto visual directo transformaba la verdad emocional de la escena.

La anécdota cristaliza un argumento más amplio que Faus plantea sobre la identidad digital: cuando la presencia en línea de una persona diverge de su manera de ser en el mundo real, el público percibe la disonancia de inmediato. El contenido generado por inteligencia artificial, sostiene, fracasa precisamente en ese punto: no puede replicar la huella lingüística idiosincrásica que hace que una voz resulte coherente y auténtica en cualquier contexto.

"A veces simplemente me da mucha pena por ti en ese momento, más de lo que mi personaje debería sentir. Es como si genuinamente me preguntara: ¿estás bien? Y me di cuenta de que lo siento cuando me miras, cuando haces contacto visual conmigo, a diferencia de cuando estás con la cabeza entre las manos."

▶ Ver este segmento — 31:19


Una IA marcó las propias palabras de un CEO de Fortune 500 como 'denigrantes', y ese fallo revela un problema más profundo

Cuando Bill Sherman introdujo en una herramienta de IA la cita directa de un CEO retirado de Fortune 500 como parte de la revisión de un manuscrito, el sistema marcó el lenguaje como denigrante, aparentemente incapaz de conciliar la voz real del ejecutivo con su modelo entrenado sobre cómo debería comunicarse un alto directivo. Ashley Faus sostiene que el incidente expone una brecha estructural: la IA maneja la lógica con competencia y puede imitar la empatía aprendiendo normas sociales codificadas, pero la autenticidad —la cualidad que hace que una persona sea reconocible como ella misma— resiste toda codificación.

Faus articula esto a través del modelo de tres elementos de la investigadora de la confianza Frances Fry —lógica, empatía y autenticidad—, y concluye que el peso excesivo que la IA otorga al primer elemento hace que sistemáticamente aplane la complejidad humana que la confianza genuina requiere.

"No se puede codificar la autenticidad. No puedes decir que estas son las palabras que usamos o que esta es la postura que adoptamos. La lógica y la empatía las hemos codificado más, por eso la IA puede imitarlas, pero no puede imitar la autenticidad."

▶ Ver este segmento — 39:59


Una autora escribió un libro entero sobre la confianza humana sin usar IA, y asegura que esa decisión era el mensaje

Ashley Faus pasó años postergando su libro sobre marketing centrado en las personas porque se negó a permitir que ningún ghostwriter —humano o artificial— pusiera palabras a sus ideas. Estableció una distinción tajante entre un ghostwriter, que considera aceptable, y un ghost thinker, que no lo es: el pensamiento original debe provenir de la persona. Para un libro explícitamente dedicado a construir confianza con las personas, sentía que recurrir a la IA para generar el texto habría sido una contradicción de fondo.

Su propuesta para los demás se basa en la transparencia antes que en la abstracción: si se usa IA, hay que revelar el modelo, el prompt y la proporción de participación de la IA. Lo que erosiona la confianza no es la IA en sí misma, sino la ocultación.

"Puedes tener un ghostwriter. No puedes tener un ghost thinker."

▶ Ver este segmento — 25:19


Un viaje a Palm Springs planificado de tres formas distintas demuestra por qué las recomendaciones humanas siguen superando a la IA

Al planificar un viaje de aniversario a Palm Springs, Ashley Faus formuló la misma pregunta en Google, ChatGPT y a una colega de confianza que se había casado allí recientemente. Google devolvió una avalancha abrumadora de listas; ChatGPT produjo lo que ella describió como un resumen reciclado de los mismos resultados. La respuesta de su colega —una lista curada con anotaciones como 'muy elegante, vístete bien' o 'lugar informal'— era directamente accionable porque llevaba implícito el conocimiento del nivel de ingresos, los gustos y la dinámica de pareja de Faus, información que ningún prompt puede transferir del todo.

La historia ilustra por qué las recomendaciones humanas conservan una ventaja estructural frente a la IA: el contexto compartido entre dos personas que se conocen no puede replicarse simplemente describiéndose a uno mismo en un cuadro de texto.

"Necesito a alguien que esté en la misma etapa de vida que yo, con un nivel de ingresos similar y una mentalidad parecida. Ella me conoce, así que sabe lo que estoy buscando, y confío en que filtre el ruido mucho mejor que los amplios resultados de Google o los resultados personalizados de ChatGPT."

▶ Ver este segmento — 2:33


Una investigación de Stanford explica por qué las videollamadas son agotadoras, y por qué eso importa para la confianza

Una investigación del Instituto de Interacción Humano-Computadora de Stanford identificó tres mecanismos detrás de la fatiga por Zoom: la proximidad en vídeo obliga a los ojos a enfocar a una distancia antinatural; un leve retardo de procesamiento hace que el cerebro trabaje más de lo que registra conscientemente; y el lenguaje corporal parcial —las manos cortadas por el encuadre de la cámara— activa una respuesta de detección de amenazas de bajo nivel mientras el cerebro intenta completar las señales sociales que faltan. En conjunto, estos factores hacen que la interacción sostenida por vídeo sea considerablemente más exigente desde el punto de vista cognitivo que el contacto cara a cara.

Faus conecta esto directamente con la estrategia de marketing, argumentando que a medida que el vídeo generado por IA se vuelve indistinguible del material real, el problema del 'valle inquietante' se suma a la carga cognitiva ya existente de las pantallas, lo que hace que los encuentros presenciales sean cada vez más valiosos como herramientas para construir confianza.

"Si la única experiencia que alguien tiene de ti es con una pantalla de por medio, cada vez resulta más difícil seguir construyendo esa confianza."

▶ Ver este segmento — 5:58


650 episodios de pódcast, 2,6 millones de palabras y una IA que inventó una entrevista con Tina Fey

Ante un corpus de aproximadamente 2,6 millones de palabras extraídas de 650 entrevistas grabadas, Bill Sherman recurrió a la IA para identificar los momentos más significativos, una tarea que ningún equipo humano podría completar en un plazo razonable. La herramienta rindió bien a la hora de señalar pasajes que valía la pena revisar, pero sus limitaciones quedaron al descubierto cuando incluyó a Tina Fey entre los invitados del pódcast. La capacidad de Sherman para detectar la alucinación de inmediato dependió por completo de su profundo conocimiento del material, precisamente el saber que la IA debía ayudar a procesar.

El episodio refuerza un punto que tanto Sherman como Faus destacan a lo largo de la conversación: la IA puede comprimir el tiempo y agudizar el pensamiento, pero la precisión y el juicio siguen siendo responsabilidades humanas que no se pueden delegar.

"Tienes que estar lo suficientemente cerca del material para saberlo. No puedes externalizar el pensamiento. No puedes externalizar la precisión, pero sí puedes usarla para realmente agudizar ese pensamiento."

▶ Ver este segmento — 28:00


También se menciona en este vídeo


Resumen de Leveraging Thought Leadership Podcast · 55:06. Todo el mérito corresponde a los creadores originales. Streamed.News resume contenido de vídeo disponible públicamente.

Streamed.News

Esta publicación se genera automáticamente desde YouTube.

Convierte tu biblioteca de vídeos en un diario digital.

Consigue esto para tu redacción →
Share