Mendoza, de de

Economía Ahora

Apps de citas: crece el miedo de estar chateando con bots de inteligencia artificial

Una encuesta reveló que más del 60% de los usuarios se sienten inseguros ante la posibilidad de encontrar perfiles falsos

Viernes, 14 de Febrero de 2025
(99449)

Aunque algunas de estas preguntas están lejos de ser respondidas, los bots y sistemas de IA como Samantha ya están entre nosotros, dejando entrever sus efectos sobre la manera en que entendemos las relaciones sociales: en la Argentina, más del 60% de los usuarios de aplicaciones de citas se sienten inseguros ante la posibilidad de encontrar bots o perfiles falsos, mientras que dos de cada tres personas sospecha o descubrió fehacientemente que uno de sus "match" no es una persona física. Los datos se desprenden de un informe realizado por la fundación World, en la que participaron más de 18.500 encuestados.

"Hoy la IA está transformando la manera en que nos relacionamos, impactando en nuestras emociones y en cómo nos conectamos con el mundo. La IA puede ser una aliada al momento de buscar una relación, porque al conocer a cada usuario puede ofrecerle recomendaciones más específicas basadas en sus intereses, costumbres y valores, aunque también plantea desafíos emocionales a los que hay que prestarle atención", explicó a LA NACION la psicóloga y sexóloga Mariana Kersz.

Para Kersz, la interacción con bots puede generar falsas expectativas y aumentar niveles de ansiedad, desconfianza e inseguridad. Además, la dependencia tecnológica podría conducir al distanciamiento social, donde "no hay lugar para la frustración" y "todo es perfecto". Al respecto, Mabel Tripcevich Piovano, doctora en psicología y miembro titular la Asociación Psicoanalítica Argentina (APA), objetó que esto tenderá a ocurrir en personas que acostumbran a evitar el contacto humano: "Siempre hubo quienes ponían fin a una relación por carta. La tecnología actual ofrece nuevos escondites".

Alejandra Gómez, psicoanalista y directora del Departamento de Psicosis de APA, sostuvo que entablar una relación de este tipo lleva, a largo plazo, a que las personas caigan en una "trampa". "En principio, hay un primer encuentro gratificante, paliativo de situaciones de soledad. Están cuando se los solicita , generan ilusión de compañía y no tienen olvidos. Con el tiempo, en ese intercambio se puede ir revelando el automatismo y la falta de emocionalidad", analizó.

Esta fotografía del 28 de julio de 2020 muestra el icono de la aplicación de citas Tinder en un dispositivo, en Nueva York. (AP Foto/Patrick Sison, Archivo)Patrick Sison - AP

El estudio también indica que el 27% de los encuestados admitió haber coqueteado con un chatbot o IA, ya sea por diversión o sin saberlo. A su vez, el 18,5% experimentó intentos de phishing (links o mensajes engañosos para compartir información personal), el 8% tuvo conversaciones con bots y el 16% enfrentó tanto phishing como bots. En este sentido, Gómez remarcó la importancia de proteger la seguridad de los datos de los usuarios. "¿A quién se le están dando datos de la vida personal? ¿Cómo saber los derechos de confidencialidad de datos tan preciados e íntimos?", reflexionó.

La búsqueda de relaciones "perfectas" y su posible impacto

Alberto Álvarez, psicoanalista y psiquiatra miembro titular de APA, opinó que un motivo que lleva a las personas a interactuar emocionalmente con un bot es el deseo de no querer "ningún compromiso afectivo verdadero" y preferir "la ilusión de una imagen". Gómez sumó la búsqueda de diversión y compañía, así como también el poder desplegar ciertas fantasías "sin correr el riesgo de poner el cuerpo".

Si se establece un diálogo continuo, Tripcevich Piovano señaló que una persona puede ver a un bot como una "figura idealizada" que no halla en la realidad y, por lo tanto, provocar un efecto de "enamoramiento". "Que el bot te halague a veces se suele usar como programación mental para mejorar la autoestima", aseveró.

A su vez, Kersz comentó que una conversación con IA deja de lado aspectos como presiones y exigencias sociales, abriendo un espacio de mayor relajación para las personas. "No hay una mirada o una palabra que juzgue esas conductas o ese pasado. Al sentirse más libres y sin evaluaciones, las personas pueden sentirse más seguras de explorar otro tipo de emociones sin dificultades", detalló.

Sin embargo, los especialistas advirtieron sobre las consecuencias de establecer un vínculo amoroso con la tecnología. En primera instancia, Gómez destacó que estas relaciones se vuelven adictivas ya que se alejan de la condición humana, caracterizada por ser imperfecta, conflictiva y emocional.

El 27% de los encuestados admitió haber coqueteado con un chatbot o IA, ya sea por diversión o sin saberloShutterstock

Según Kersz, esto podría desconectarnos y alejarnos de las relaciones sociales con las personas, favoreciendo al aislamiento. "Probablemente se juegue un factor de 'acostumbramiento' o de cierta 'adicción' o 'dependencia' a la tecnología de la IA o la posibilidad de relacionarnos con un bot, tal como hoy ocurre con las redes sociales", ilustró.

La epidemia de la soledad ya es una problemática: el 25% de la población mundial reporta sentimientos de aislamiento social y soledad, mientras que el 5% de los adultos padecen depresión, lo que equivale aproximadamente a 280 millones de personas, según estadísticas de la Organización Mundial de la Salud (OMS). "Si elementos como la desconfianza ya existían en la era pre-tecnológica, es esperable que aumente y genere aislamiento, pero por supuesto no en todas las personas", opinó Tripcevich Piovano.

Por otro lado, el desconocimiento sobre quién se encuentra del otro lado de la pantalla y la posibilidad de ser engañado no solo aumenta los niveles de ansiedad e inseguridad, sino que también daña la autoestima. "A veces aparecen pensamientos rumiantes que desconectan de la realidad porque son creencias limitantes: 'No voy a encontrar pareja', 'todos tienen menos yo', 'hay algo malo en mi'", puntualizó Kersz.

Verificación humana

La encuesta de World revela que el 65% de los encuestados cree que las aplicaciones no están tomando acciones suficientes para verificar que quienes interactúan con ellos son personas reales. Además, el 91% expresó que le gustaría que estas apps incluyan una verificación que garantice que los usuarios con las que están interactuando son reales y no un bot o deepfake.

Frente a esta situación, Kersz subrayó la importancia de estar atento a ciertas señales, como la foto de perfil, si hay pedidos de información financiera, no hacer videollamada o no mandar audios. "Una forma que puede servir también para identificar a una IA o un bot es pidiéndole que te cuente algo personal, por ejemplo de su familia", agregó.

Es aquí cuando comienzan a cobrar relevancia iniciativas como World ID, de la fundación World, que consiste en una credencial digital basada en una prueba de humanidad. A su vez, los expertos consultados por este medio sostuvieron que es fundamental trabajar en la regulación de la IA. "Estoy convencido que es la regulación es muy importante y los ejecutivos de estas aplicaciones tendrían que aprender a manejarse con una ética donde importe más la permanencia de lo humano que el mercado", dijo Álvarez.

"La IA deberá ser regulada y probablemente legislada para un uso ético, sin manipulaciones ni interacciones negativas o que vayan contra los valores de los usuarios", resumió Kersz.

Futuria

Temas

FuturIAInteligencia artificialPsicologíaVínculos