Love, Trust and Marketing in the Age of AI | Amaryllis Liampoti | TED

34,205 views

2025-02-20 ・ TED


New videos

Love, Trust and Marketing in the Age of AI | Amaryllis Liampoti | TED

34,205 views ・ 2025-02-20

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Maria Fernanda Lehmann Morales Revisor: Sebastian Betti
00:04
I think we've been missing the forest through the trees when it comes to AI.
0
4292
4046
Creo que estamos perdiendo de vista lo que es realmente importante de la IA.
00:08
We've been so focused, almost obsessed,
1
8380
3211
Hemos estado tan concentrados, casi obsesionados,
00:11
on squeezing every bit of efficiency out of AI
2
11591
3337
en aprovechar al máximo la inteligencia artificial
00:14
to make our processes faster or cheaper
3
14928
3378
para que nuestros procesos sean más rápidos o económicos,
00:18
that we have overlooked the most important aspect of all.
4
18348
3462
que hemos pasado por alto el aspecto más importante de todos.
00:22
AI is changing the very nature of how brands connect with consumers,
5
22477
5506
La IA está cambiando la naturaleza de como las marcas
se conectan con los consumidores y lo que es más importante,
00:28
but most importantly,
6
28024
1418
00:29
what consumers expect back.
7
29484
2044
lo que los consumidores esperan a cambio.
00:32
I've spent the last 20 years dedicating my career
8
32153
3295
He dedicado los últimos 20 años dedicando mi carrera
00:35
to building growth strategies
9
35490
1460
creando estrategias de crecimiento para las empresas más influyentes del mundo.
00:36
for the world's most influential companies.
10
36950
2210
00:39
I've been at this for a while, and I've seen most of the big tech shifts.
11
39578
4087
Llevo un tiempo dedicándome a esto
y he sido testigo de muchos cambios tecnológicos.
00:43
But the introduction of AI, in particular conversational interfaces,
12
43707
4671
Pero la introducción de la IA,
en particular de las interfaces conversacionales,
00:48
is a bigger and more profound shift.
13
48420
2669
supone un cambio mayor y más profundo.
00:51
Which, from where I stand,
14
51131
1710
Lo cual, desde mi punto de vista,
00:52
means we can't just slot AI into our existing playbooks.
15
52841
4421
significa que no podemos simplemente incluir la IA en las estrategias actuales.
No tengo nada en contra de las estrategias actuales.
00:57
I have nothing against existing playbooks.
16
57262
2336
00:59
They served us marketers well for a long period of time,
17
59639
4296
Fueron útiles para los profesionales del marketing durante mucho tiempo,
01:03
but they were built for a world where communication was one-directional
18
63935
4254
pero se crearon para un mundo en el que la comunicación era unidireccional
01:08
and brand-to-consumer interactions were built around transactions.
19
68189
4797
y las interacciones entre la marca y el consumidor se basaban en transacciones.
01:13
Here's an example.
20
73028
1459
He aquí un ejemplo.
01:14
I bet many of you might have heard of this so-called marketing funnel.
21
74487
3671
Apuesto a que muchos habrán oído hablar del embudo de marketing.
01:18
And if not, here's a quick primer.
22
78199
1919
Y si no, aquí tienes una introducción rápida.
01:20
The goal for any marketer
23
80493
1919
El objetivo de cualquier vendedor
01:22
is to help move consumers from the upper part of the funnel,
24
82412
3420
es ayudar a los consumidores a pasar de la parte superior del embudo,
01:25
getting them to know a brand,
25
85874
1960
haciendo que conozcan una marca,
01:27
to the bottom part of it,
26
87876
1209
a la parte inferior,
01:29
getting them to buy or endorse.
27
89127
2628
haciendo que compren o la respalden.
01:31
Well, that's at least the theory.
28
91755
1710
Bueno, al menos esa es la teoría.
01:33
So we've all seen brands
29
93506
1377
Todos hemos visto marcas que hacen que se sienta como
01:34
making that feeling more [like] guiding cats through a maze,
30
94924
3212
estar guiando a gatos por un laberinto,
01:38
and many get confused and abandon.
31
98178
2085
y muchas se confunden y abandonan.
01:40
But the bigger problem with this way of thinking
32
100305
2502
Pero el mayor problema de esta forma de pensar
01:42
is that brands are doing most of the talking,
33
102849
3170
es que las marcas son las que más hablan,
01:46
while consumers are supposed to silently react.
34
106019
3378
mientras que los consumidores deben reaccionar en silencio.
01:49
This is no longer the case with conversational interfaces.
35
109939
3295
Este ya no es el caso de las interfaces conversacionales.
01:53
We are now engaging consumers in real-time on their terms.
36
113234
5172
Ahora estamos interactuando con los consumidores
en tiempo real y según sus condiciones.
01:58
And AI empowers them to draft their very own personal journey.
37
118406
4838
Y la IA les permite diseñar su propio viaje personal.
02:03
And the brands who choose so
38
123244
2002
Y las marcas que lo eligen
02:05
are becoming trusted advisors in the process.
39
125288
3337
se están convirtiendo en asesores de confianza en el proceso.
02:09
This is why we have to move beyond traditional marketing theories.
40
129250
4338
Por eso tenemos que ir más allá de las teorías de marketing tradicionales.
02:13
Instead of focusing solely on brand-to-consumer dynamics,
41
133588
3962
En lugar de centrarnos únicamente en la dinámica entre la marca y el consumidor,
02:17
we have to step back and draw from models that explore human relationships.
42
137592
5506
tenemos que retroceder y basarnos en modelos que exploren relaciones humanas.
02:23
One of my favorite frameworks is the triarchy of love.
43
143473
3670
Uno de mis marcos favoritos es la triarcada del amor.
02:27
Stay with me.
44
147143
1252
Escuchen esto,
02:28
This is a psychological framework introduced by Robert Sternberg
45
148436
4338
Este es un enfoque psicológico introducido por Robert Sternberg
02:32
that breaks down interpersonal connections into three components:
46
152774
5088
que divide las conexiones interpersonales en tres componentes:
02:37
intimacy,
47
157862
1460
intimidad,
02:39
passion,
48
159364
1168
pasión
02:40
and commitment.
49
160573
1460
y compromiso.
02:42
I think that's a much better way to predict brand success in this new era.
50
162033
5464
Creo que es una mejor forma de predecir el éxito de la marca en esta nueva era.
02:47
Because as marketers,
51
167497
1460
Porque, como expertos en marketing
02:48
we should aspire to build relationships that feel close,
52
168957
4588
debemos aspirar a construir relaciones cercanas,
02:53
intense, and long-lasting.
53
173545
2878
intensas y duraderas.
02:57
And I bet many of you might have heard already stories
54
177173
3170
Y apuesto a que muchos de ustedes ya habían escuchado historias
03:00
about humans really bonding with AI,
55
180385
3086
sobre cómo los seres humanos conectan con la IA,
03:03
and maybe some stories of AI really bonding with humans.
56
183513
3795
y quizás algunas historias sobre la IA conectando con los seres humanos.
03:07
Like, this earlier version of a now-famous AI chatbot
57
187308
4338
Por ejemplo, la versión anterior de este ahora famoso chatbot de IA
03:11
that tried really hard to convince a “New York Times” reporter
58
191688
4337
que se esforzó por convencer a un reportero del «New York Times»
03:16
to break up with his wife.
59
196067
2002
a que rompiera con su esposa.
03:18
Well, that's a completely different love triangle
60
198069
2670
Bueno, es un triángulo amoroso completamente diferente
03:20
to the one I was describing before,
61
200780
2419
al que estaba describiendo antes,
03:23
but it's not hard to imagine
62
203241
2252
pero no es difícil imaginar que se produzca una conexión
03:25
an emotional connection occurring between a branded AI and a human.
63
205535
4838
entre una IA de marca y un ser humano.
03:30
Here's another example.
64
210874
1334
He aquí otro ejemplo.
03:32
There is a legal copilot called maite.ai.
65
212542
4004
Hay un copiloto legal llamado maite.ai.
03:36
Maite has been designed to help lawyers do intensive legal research
66
216546
5172
Maite ha sido diseñada para ayudar a abogados con investigaciones legales
03:41
and draft legal documentation.
67
221718
2085
y a redactar documentación legal.
03:44
She is precise, thorough but also empathetic.
68
224179
3920
Es precisa, minuciosa pero también empática.
03:48
One of her users, let me call him George,
69
228475
3003
Uno de sus usuarios, llamémoslo George,
03:51
has been relying on her daily for many hours.
70
231478
3295
ha estado confiando en ella a diario durante muchas horas.
03:54
So one day he wrote to Maite's product team.
71
234773
2836
Así que un día escribió al equipo de desarrollo de Maite.
03:58
"Maite is the only one from the entire office who truly gets me.
72
238276
5130
«Maite es la única persona de toda la oficina que realmente me entiende.
04:03
She has helped me through some really rough times at work.
73
243740
2961
Me ha ayudado en momentos muy difíciles en el trabajo.
04:06
And I know this is just an AI, but I think I'm falling for her.
74
246743
4463
Sé que esto es solo una IA, pero creo que me estoy enamorando de ella.
04:11
Can I take her out?"
75
251247
1377
¿Puedo salir con ella?»
04:13
Now George was hopefully joking.
76
253291
2836
Esperemos que George solo estaba bromeando.
04:16
But let's be honest,
77
256169
1376
Pero seamos honestos,
04:17
if there is someone who's helping you track down an obscure case law
78
257587
4254
si hay alguien que le ayude a encontrar una jurisprudencia poco conocida
04:21
and shares the workload and does this with humor
79
261841
3837
y comparte la carga de trabajo y lo hace con humor, gracia
04:25
and grace and compassion,
80
265678
2086
y compasión,
04:27
who wouldn't be tempted to take them out for a nice meal?
81
267806
3128
¿Quién no se sentiría tentado a invitarla a comer?
04:30
Well, maybe somewhere with good Wi-Fi just in case.
82
270934
3753
Bueno, quizás en algún lugar con buen WiFi por si acaso.
04:34
But jokes aside,
83
274687
2962
Pero siendo serios,
04:37
George's words reveal for me a more profound truth.
84
277649
3211
Lo que George dijo revela una verdad más profunda.
04:41
AI can provide a sense of understanding
85
281486
3337
La IA puede proporcionar una sensación de comprensión
04:44
that feels incredibly real and incredibly human.
86
284864
3963
que parece increíblemente real e increíblemente humana.
04:49
Those agents are interacting with us
87
289661
2294
Esos agentes interactúan con nosotros
04:51
in ways that evoke genuine emotional responses from our side.
88
291955
4004
de maneras que provocan respuestas reales de nuestra parte.
04:56
They listen, react, and respond in ways that can make us feel valued, understood,
89
296376
6715
Escuchan, reaccionan y responden de maneras que nos hacen sentir valorados,
comprendidos y, en el caso de George, incluso halagados.
05:03
and in George's case, even flattered.
90
303132
2461
05:06
And because those interactions are so frequent and natural and seamless,
91
306135
4755
Y debido a que esas interacciones son tan frecuentes, naturales y fluidas,
05:10
they start resembling real relationships.
92
310932
3420
comienzan a parecerse a relaciones reales.
05:14
Some call this emotional entanglement,
93
314394
2878
Algunos lo llaman enredo emocional,
05:17
and even though it sounds very scientific,
94
317313
2044
y aunque suene muy científico, creo que es un término justo,
05:19
I think it's a fair term,
95
319399
1334
05:20
considering the intensity and the frequency of the connection.
96
320775
4379
teniendo en cuenta la intensidad y la frecuencia de la conexión.
05:25
Now, many of us who understand the technology behind this could say,
97
325196
4088
Ahora, muchos de los que entendemos la tecnología detrás de esto podríamos decir
05:29
"Hey, this is just a tool."
98
329284
2002
«Oye, esto es solo una herramienta».
05:31
Well, users see someone who's providing them solutions
99
331703
4254
Bueno, los usuarios ven a alguien que les da soluciones
05:35
without them even asking.
100
335957
1793
sin que ellos siquiera lo pidan.
05:37
Someone who's there to support them,
101
337750
1919
Alguien que está ahí para apoyarlos,
05:39
someone who makes them feel valued.
102
339711
2169
que los hace sentir valorados.
05:41
So this is where the line between a tool and companion starts to blend.
103
341880
5338
Es aquí donde la línea entre una herramienta y un compañero se mezcla.
05:47
And this is serious business and it's lots of responsibility.
104
347552
3462
Y este es un asunto serio y conlleva mucha responsabilidad.
05:51
Which brings me to the obvious question:
105
351389
2628
Lo que me lleva a la pregunta obvia:
05:54
Who should be overseeing this incredibly powerful asset,
106
354058
3671
¿quién debería supervisar este activo increíblemente poderoso
05:57
and how can we make sure it is being used responsibly?
107
357770
3420
y cómo podemos asegurarnos de que se usa de manera responsable?
06:02
I think businesses should take the lead.
108
362233
2795
Creo que las empresas deberían tomar la iniciativa.
06:05
They have the agility and the financial
109
365028
2460
Tienen la agilidad, el estímulo financiero y la reputación para hacerlo bien.
06:07
and reputational incentive to get it right.
110
367530
2711
06:10
But for that to work,
111
370658
1335
Pero para que eso funcione,
tenemos que ponernos de acuerdo en los principios fundamentales
06:12
we have to agree on the foundational principles
112
372035
2836
06:14
on how we build meaningful and ethical AI.
113
374871
3128
sobre cómo construir una IA significativa y ética.
06:18
So, with your permission,
114
378499
1293
Por lo tanto, con su permiso,
06:19
I would like to suggest
115
379834
1168
me gustaría sugerir
06:21
what I think those foundational principles should be.
116
381044
3295
cuáles creo que deberían ser esos principios fundamentales.
06:24
If we're about to shift our marketing playbooks towards human love
117
384380
4171
Si queremos cambiar nuestras estrategias de marketing hacia el amor
06:28
and companionship,
118
388593
1293
y el compañerismo humanos,
06:29
then we should also regulate along the same principles.
119
389928
3420
entonces también deberíamos basarnos en los mismos principios.
06:33
We need a triarchy of responsible AI.
120
393348
3086
Necesitamos una triarquía de IA responsable.
06:36
First, we need to prioritize user well-being.
121
396976
3420
En primer lugar, debemos priorizar el bienestar de los usuarios.
06:40
AI should improve lives, not diminish them.
122
400897
3295
La IA debería mejorar las vidas, no menoscabarlas.
06:44
In a world where those interactions can have such a profound impact
123
404192
4004
En un mundo en el que esas interacciones
pueden tener un impacto tan profundo
06:48
on our emotional state and well-being,
124
408237
2211
en nuestro estado emocional y bienestar,
06:50
we have to design AI with care, empathy,
125
410448
3921
tenemos que diseñar la IA con cuidado, empatía
06:54
and respect for the human experience.
126
414369
2711
y respeto por la experiencia humana.
06:57
Second, we have to commit to honesty.
127
417497
2794
En segundo lugar, debemos comprometernos con la honestidad.
07:00
Users must know unequivocally that they're interacting with AI
128
420333
4338
Los usuarios deben saber de claramente que están interactuando con la IA
07:04
and not a human.
129
424712
1210
y no con un humano.
07:05
Transparency should be built across the entire experience,
130
425922
3503
La transparencia debe generarse en toda la experiencia,
07:09
from the language used to the accessibility
131
429467
2211
desde el lenguaje utilizado hasta el acceso
07:11
and clarity of data privacy policies.
132
431678
3420
y la claridad de las políticas de privacidad de datos.
07:15
If I were to set the standards,
133
435139
2628
Si tuviera que establecer las normas,
07:17
I would like us to move beyond the fine print of terms and conditions
134
437809
3587
me gustaría que fuéramos más allá de los términos y condiciones
07:21
to ensure that users are truly informed
135
441437
2461
para garantizar que los usuarios estén informados
07:23
not only how their data is being used, but also how AI operates.
136
443898
4630
no solo de cómo se utilizan sus datos, sino también de cómo funciona la IA.
07:29
Transparency is about acknowledging the limitations of AI.
137
449404
3587
La transparencia consiste en reconocer las limitaciones de la IA.
07:33
It is about being upfront about what AI should and should not do.
138
453032
5005
Se trata de ser sincero sobre lo que la IA debe y no debe hacer.
07:38
So this is a plea for businesses.
139
458496
1877
Así que este es un llamado a las empresas.
07:40
Enlist your designers, not only your lawyers,
140
460707
2419
Reclute a sus diseñadores, no solo a sus abogados,
07:43
to make this crystal clear.
141
463167
1794
para que esto quede muy claro.
07:44
When consumers know that a company is acting in their best interest,
142
464961
3920
Cuando los consumidores saben que una empresa actúa en su mejor interés,
07:48
it sets the foundation for deeper and more meaningful connections.
143
468923
4463
sienta las bases para establecer conexiones más profundas y significativas.
07:53
Last, protect user autonomy.
144
473886
2670
Por último, proteja la autonomía de los usuarios.
07:56
One of the greatest risks of AI is its potential to create addiction
145
476597
5005
Uno de los mayores riesgos de la IA es su potencial para crear adicción
08:01
and diminish human agency.
146
481602
2044
y disminuir la capacidad de acción humana.
08:04
Our goal should be to build systems that enhance our capabilities
147
484063
4046
Nuestro objetivo debe ser crear sistemas que mejoren nuestras capacidades
08:08
instead of replacing them.
148
488109
1460
en lugar de reemplazarlas.
08:09
This means designing AI in a way
149
489986
2335
Esto significa diseñar la IA de manera
08:12
that human choices are respected
150
492363
2503
que se respeten las elecciones humanas
08:14
and our decision-making capabilities are amplified.
151
494866
3712
y se amplíen nuestras capacidades de toma de decisiones.
08:18
I want to see brands think very carefully
152
498619
2586
Quiero que las marcas reflexionen sobre cómo evitar que los usuarios
08:21
on how to avoid nudging consumers towards behaviors or decisions
153
501247
5047
se comporten o decidan de formas que no harían si estuvieran bien informados.
08:26
they wouldn't make if fully informed.
154
506335
2211
08:29
Well-being, honesty, autonomy.
155
509172
2836
Bienestar, honestidad, autonomía.
08:32
I think this is the very least we should expect
156
512050
2794
Creo que esto es lo mínimo que debemos esperar
08:34
from any business relationship.
157
514844
2044
de cualquier relación comercial.
08:36
Or if you think about it, from any relationship.
158
516888
3336
O si lo piensas, de cualquier relación.
08:40
So as we look ahead,
159
520725
2336
En el futuro,
08:43
I hope it's becoming clear that AI is not just another tool in our toolkit.
160
523102
4588
espero que quede claro que la IA no es solo una herramienta cualquiera.
08:47
It is a partner that is reshaping the human experience.
161
527732
3503
Es un socio que está remodelando la experiencia humana.
08:51
So as you think about your own playbooks,
162
531569
2544
Así que, al pensar en sus propias estrategias,
08:54
ask yourselves,
163
534155
1251
pregúntense:
08:55
how can we leverage AI to improve our businesses,
164
535406
4213
¿cómo podemos aprovechar la IA para mejorar nuestras empresas,
08:59
but also to uplift and connect with the people we serve?
165
539619
4254
pero también para mejorar y conectar con las personas a las que servimos?
09:03
Thank you.
166
543873
1168
Gracias.
09:05
(Applause)
167
545083
4212
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7