Oye, ChatGPT, por favor y gracias (o cómo hablar con una IA sin parecer un cavernícola)

¿Tienes la costumbre de decir «gracias» cuando Alexa te dice el clima o «por favor» cuando le pides a ChatGPT que te haga un resumen?

Si la respuesta es «no», tranquil@, no te juzgaré 🙃.

En cualquier caso, aquí va la pregunta importante:

¿Y si el tono con el que hablamos con una inteligencia artificial también influyera en nuestra manera de relacionarnos con otras personas?

Puede parecer una tontería, pero no lo es.

Resulta que la manera en que nos comunicamos con la tecnología podría estar moldeando nuestra interacción con las demás personas.

Un estudio de Nass y Reeves (1996), en su libro The Media Equation, sugiere que las personas tienden a aplicar normas sociales en sus interacciones con computadoras, de la misma manera que lo hacen con otros humanos.

Y otras investigaciones más recientes, como la de Huang et al. (2021), han analizado cómo las características acústicas y el tono afectivo en la interacción con asistentes de voz pueden influir en la percepción de la tecnología y el comportamiento de los usuarios (Frontiers in Psychology).

También en el estudio de Pezenka et al. (2024) encontraron que los chatbots con respuestas emocionales son percibidos como más confiables y mejoran la satisfacción del usuario (Journal of Human-Computer Interaction).

¿Hablarle mal a un bot te hace peor persona?

Piénsalo un momento. Si todo el día le ordenamos a una IA con un «dame esto», «hazme lo otro», «resúmeme esto en 10 palabras o menos», ¿no se nos pegará algo de esa «brusquedad» cuando hablemos con compañeros de trabajo?

La neurociencia ya nos ha dejado claro que nuestro cerebro es muy maleable y se adapta a patrones de conducta (hábitos).

De forma que si estamos en modo «dame-dame» con la IA, luego no nos extrañemos cuando respondamos igual de secos a nuestro equipo.

De hecho, hay estudios que sugieren que ser cortés con los chatbots podría mejorar la calidad de sus respuestas. Es decir, si eres amable con la IA, te puede devolver mejor información.

Me ha gustado mucho el artículo de Adrián Prats en el blog de ENCAMINA, donde habla precisamente de la importancia del tono en la era digital.

Menciona que hay dos posturas en debate:

  • Los que creen que los prompts deben ser directos y funcionales
  • Los que piensan que un tono más humano y empático podría mejorar la interacción.

Yo, como psicólogo organizacional, evidentemente, me incluyo en el segundo grupo.

¿Por qué esto importa en el trabajo?

Ahora bien, más allá de que la IA te conteste de mejor humor (si es que eso fuera posible), el verdadero impacto está en cómo puede influir en la cultura de una empresa.

Si acostumbramos a los equipos a interactuar con chatbots de manera seca y mecánica, podría reflejarse en una cultura laboral más fría y distante.

¿Queremos eso? Probablemente no, ya que hoy sabemos que el componente afectivo positivo es más efectivo para el compromiso laboral y la actitud ante los problemas del día a día en el trabajo.

En cambio, si promovemos una comunicación más empática y respetuosa, aunque sea con asistentes virtuales, estamos reforzando hábitos comunicativos positivos que luego se trasladan al trato entre compañeros y clientes.

No es que haya que decirle «gracias por tu esfuerzo, querido ChatGPT o Copilot», pero tampoco tratemos a la IA como si fuera un esclavo digital sin alma (aunque lo sea, de momento 🤔).

En fin, que no seamos unos «ogros» (ni con humanos ni con robots)

La inteligencia artificial está aquí para quedarse, y lo interesante no es solo cómo la usamos, sino cómo nos afecta en nuestro día a día.

En el trabajo, en casa, en nuestras interacciones humanas y, quién sabe, hasta en cómo nos percibimos a nosotros mismos.

Así que la próxima vez que le pidas algo a un asistente virtual, ponle un poco de cariño 🥰.

No porque la IA lo necesite, sino porque tú (y tu entorno laboral) sí.

No es ilusión ni magia, es inteligencia emocional.

Referencias

Huang, H., Dong, Y., Wang, Y., & Yu, Z. (2021). Acoustic-prosodic and linguistic cues in emotional speech: A study on human-computer interaction. Frontiers in Psychology, 12, 664925. https://doi.org/10.3389/fpsyg.2021.664925

Nass, C., & Reeves, B. (1996). The media equation: How people treat computers, television, and new media like real people and places. Cambridge University Press.

Pezenka, I., Schüller, S., & Gnewuch, U. (2024). The role of chatbot emotionality: How emotional expressions impact user perception and trust. Journal of Human-Computer Interaction. https://doi.org/10.1080/10510974.2024.2363259

Leave a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

About admin

Psicólogo Organizacional