En modalidad de pago, los usuarios ahora pueden escuchar a este robot dando consejos en temas de salud mental.
Con el avance de la inteligencia artificial, diferentes sectores de la psicología se han visto preocupados, ya que los jóvenes están utilizando esta herramienta tecnológica como terapia, en vez de acudir a un profesional.
De acuerdo con Lilian Weng, Jefa de Sistemas de Seguridad en OpenAI, desde la tecnología no se puede minimizar las enfermedades mentales. Ante esta situación, mencionó: "Acabo de tener una conversación personal bastante emotiva con ChatGPT en modo voz, sobre el estrés y el equilibrio entre el trabajo, la vida y lo personal", escribió en la red social X, anteriormente conocida como Twitter.
Del mismo modo, escribió: "Curiosamente, me sentí escuchada y reconfortada. Nunca intenté la terapia antes, pero ¿probablemente se parece a esto?"
Nueva función de la inteligencia artificial
En modalidad de pago, los usuarios ahora pueden escuchar a este robot. Sin embargo, esta tecnología ha causado críticas, ya que según la activista estadounidense Cher Scarlett, “la psicología tiene como objetivo mejorar la salud mental y es un trabajo duro", resaltando que no se puede comparar a la inteligencia artificial con la experiencia del humano.
Con la llegada de esta tecnología, los usuarios se preguntaron: ¿la interacción con una IA puede realmente producir la experiencia positiva descrita por Weng?
Para resolver esta inquietud, la revista científica Nature Machine Intelligence y la universidad de Arizona entrevistaron a 300 participantes, diciéndole a unos que el chatbot era empático, a otros que era manipulador y a un tercer grupo que tenía un comportamiento neutro.
Aquellos que pensaban que hablaban con un asistente virtual considerado eran más propensos a verlo como digno de confianza. "Vemos que, de alguna manera, la IA se percibe según las ideas preconcebidas del usuario", afirmó Pat Pataranutaporn, coautor del estudio.
Además de ello, usuarios de Replika, una aplicación conocida por aportar supuestamente beneficios psicológicos, se quejaron de que la IA podía obsesionarse con el sexo o volverse manipuladora.
"La empatía simulada se siente rara, vacía", escribió el cofundador de Koko, Rob Morris, en X.
Usuarios toman la inteligencia artificial para contar sus problemas
De acuerdo con la compañía estadounidense Bloomberg, un profesional en Charleston, Carolina del Sur, se acostumbró a desahogarse con esta herramienta tecnológica mencionando que las respuestas le brindaban tranquilidad y liberación emocional, volviéndose viral esta historia en las redes sociales.
Nuestras fuentes: