Chatbots: ¿El nuevo gurú de los usuarios?

Cada vez son más las tendencias llamativas que invitan a interactuar con la inteligencia artificial. Sin embargo, la mayoría de los usuarios expone sus datos sin considerar los riesgos que esto puede generar. Nota al Pie dialogó al respecto con Daniel Ionadi, especialista en ciberseguridad de F5 LATAM.
IA Chat bot
La IA es cada vez más usada hasta el punto en que los Chatbots, que son simuladores del diálogo humano, son tratados de manera “respetuosa y amable” por los usuarios. Créditos: Caltech

En la era digital, la Inteligencia Artificial (IA) se convirtió en una de las herramientas más utilizadas por los internautas a nivel mundial. En una entrevista con Nota al Pie, el especialista en ciberseguridad Daniel Ionadi explicó cómo los usuarios se exponen a los chatbots sin medir las consecuencias.

En las últimas semanas, miles de personas comenzaron a usar a Chat GPT como tarotista y se sorprendieron por su capacidad de “acertar”. Rápidamente, la IA se convirtió en tendencia por esta situación. Entre corazones rotos, vidas pasadas y la ansiedad de saber por el futuro personal, los usuarios brindan datos privados sin considerar a qué se exponen.  

Ante un contexto en el que la comunicación entre humano y bots se vuelve cada vez más persuasiva, Ionadi de F5 LATAM explicó: “Esta elección de diseño resulta en una ilusión de reciprocidad emocional que, si no se comunica de forma transparente, deriva en relaciones de dependencia o confianza desmedida hacia una tecnología que no siente, no entiende y no juzga”.

Daniel Ionadi, especialista en ciberseguridad
Daniel Ionadi, especialista en ciberseguridad de F5 LATAM. Créditos: prensa, Daniel Ionadi.

-¿A qué se debe que los chatbots tienen tendencia a “humanizar” la tecnología?

Los chatbots están diseñados para imitar interacciones humanas, no solo por cuestiones técnicas, sino también estratégicas. Cuando un asistente virtual te responde con amabilidad o empatía simulada, lo hace para generar confianza, facilitar la conversación y lograr que los usuarios se sientan cómodos. Esto hace que sea más probable que compartas datos o que continúes la interacción si sentís que estás siendo entendido por una “persona”.

-¿Cómo afecta este simulacro de “empatía artificial”?

El problema es que esto puede inducir a errores de interpretación, ya que detrás de esa “voz” o interacción amable no hay una comprensión real o auténtica, tampoco existen las emociones o el juicio humano. Es una ilusión programada cuidadosamente. Eso tiene implicancias éticas profundas, sobre todo si no está claramente informado que se trata de una IA.

-¿Cómo influye el uso de este tipo de lenguaje en la calidad de las respuestas de los modelos de IA actuales?

¡Influye muchísimo!, las IA actuales son mucho más efectivas cuando entienden el contexto del usuario: cómo habla, desde dónde se conecta, qué palabras usa, si está molesto o relajado. Esto mejora la calidad de las respuestas, pero también implica una mayor recolección y procesamiento de datos.

-¿Y en el uso de lenguaje natural y contextualizado?

En este caso, permite que los modelos respondan de manera más cercana, eliminando ambigüedades y mejorando la experiencia del usuario. En la práctica, esto también significa que los modelos están entrenados no solo para entender lo que decís, sino cómo lo decís, y responder con un tono que puede simular emociones, calma o urgencia.

-¿Qué ley respalda a los usuarios?

Acá es donde entra en juego la Ley 25.326 de Protección de Datos Personales, que establece que cualquier tratamiento de datos personales debe ser informado, proporcional y con consentimiento explícito y muchas veces, en estos sistemas, ese consentimiento no está del todo claro. 

Desde una perspectiva técnica, esto implica el procesamiento de grandes volúmenes de datos personales y comportamentales, algo que en Argentina está regulado por esta ley. Sin embargo, aún existen vacíos legales cuando estas IA son entrenadas fuera del país y se accede a ellas mediante plataformas extranjeras.

-¿Cuáles son los riesgos más críticos que ves en términos de privacidad y seguridad de datos?

El principal riesgo es que la gente baja la guardia. Como el chatbot no es una persona, algunos creen que no hay consecuencias al contarle cosas íntimas, pero toda esa información queda almacenada, procesada y, en muchos casos, reutilizada para entrenar otros modelos o versiones del mismo. Esto deriva en que se pierda el control sobre los datos.

También hay un riesgo con las filtraciones, si esas plataformas no cumplen con los estándares de seguridad o no están alojadas en jurisdicciones que respeten nuestros derechos, en Argentina, la AAIP (Agencia de Acceso a la Información Pública) tiene autoridad para intervenir, pero muchas de estas plataformas están fuera del alcance local. Ese vacío legal es crítico.

-¿Qué cosas suelen ignorar más los usuarios respecto al uso excesivo de estos chatbots?

La exposición de datos sensibles cuando los usuarios interactúan con la IA de forma informal, pueden revelar información personal sin percibirlo como riesgoso. Además, la falta de consentimiento informado muchas veces no queda claro si la conversación es con un humano o una IA, ni qué datos se están recolectando.

-Además, los datos pueden transferirse incluso al exterior…

Sí, el almacenamiento y transferencia internacional de datos como las plataformas de Chat GPT o Bard pueden almacenar información fuera del territorio nacional, sin cumplir necesariamente con las leyes que nos protegen ante alguna eventualidad o necesidad de control, como es la Ley 25.326 en Argentina. También está el uso indebido de datos recopilados para entrenamiento o publicidad ya que una vez que se entregan datos, el usuario pierde el control sobre su utilización y/o reutilización.

-¿Argentina en qué situación se encuentra?

En el contexto argentino, esto se agrava por la falta de alfabetización digital generalizada y por el uso de estas herramientas en entornos no regulados, como grupos de redes sociales o canales informales de atención al público.

Compartir:

Nota al Pie es un joven medio alternativo y autogestivo. Precisamos tu aporte para sostener el día a día de un periodismo popular que encuentra cada día más dificultades para mantenerse independiente. Con tu suscripción mensual nos ayudás muchísimo. Podés cancelarla cuando quieras. Por mail te iremos informando de los beneficios de ser parte de Nota al Pie.
¡Muchas Gracias!

Notas Relacionadas

Seguir Leyendo

Milei y otro ataque a la libertad de expresión: el Gobierno quiere echar a El Grito del Sur de Virrey Cevallos

La cooperativa periodística El Grito del Sur, que funciona desde hace más de ocho años en el Espacio para la Memoria, denuncia presiones de la gestión libertaria. Frente a esta situación, convocan a una conferencia de prensa este jueves 24 de abril a las 17, en Virrey Cevallos 630 (CABA).

“Catedral-Papa Francisco”: Buscan renombrar la estación cabecera de la Línea D

En homenaje a la obra del Papa Francisco, el Gobierno porteño envió a la Legislatura un proyecto de Ley para modificar el nombre.

Nueva protesta: jubilados y organizaciones sociales se movilizan

Las agrupaciones de jubiladas y jubilados convocan a una gran movilización desde el Congreso a Plaza de Mayo para exigir el fin del ajuste económico, los ataques a la seguridad social y la violencia institucional.

Ultimas Noticias

Más del autor

Nota al Pie | Noticias en contexto