En la era digital, la Inteligencia Artificial (IA) se convirtió en una de las herramientas más utilizadas por los internautas a nivel mundial. En una entrevista con Nota al Pie, el especialista en ciberseguridad Daniel Ionadi explicó cómo los usuarios se exponen a los chatbots sin medir las consecuencias.
En las últimas semanas, miles de personas comenzaron a usar a Chat GPT como tarotista y se sorprendieron por su capacidad de “acertar”. Rápidamente, la IA se convirtió en tendencia por esta situación. Entre corazones rotos, vidas pasadas y la ansiedad de saber por el futuro personal, los usuarios brindan datos privados sin considerar a qué se exponen.
Ante un contexto en el que la comunicación entre humano y bots se vuelve cada vez más persuasiva, Ionadi de F5 LATAM explicó: “Esta elección de diseño resulta en una ilusión de reciprocidad emocional que, si no se comunica de forma transparente, deriva en relaciones de dependencia o confianza desmedida hacia una tecnología que no siente, no entiende y no juzga”.
-¿A qué se debe que los chatbots tienen tendencia a “humanizar” la tecnología?
Los chatbots están diseñados para imitar interacciones humanas, no solo por cuestiones técnicas, sino también estratégicas. Cuando un asistente virtual te responde con amabilidad o empatía simulada, lo hace para generar confianza, facilitar la conversación y lograr que los usuarios se sientan cómodos. Esto hace que sea más probable que compartas datos o que continúes la interacción si sentís que estás siendo entendido por una “persona”.
-¿Cómo afecta este simulacro de “empatía artificial”?
El problema es que esto puede inducir a errores de interpretación, ya que detrás de esa “voz” o interacción amable no hay una comprensión real o auténtica, tampoco existen las emociones o el juicio humano. Es una ilusión programada cuidadosamente. Eso tiene implicancias éticas profundas, sobre todo si no está claramente informado que se trata de una IA.
-¿Cómo influye el uso de este tipo de lenguaje en la calidad de las respuestas de los modelos de IA actuales?
¡Influye muchísimo!, las IA actuales son mucho más efectivas cuando entienden el contexto del usuario: cómo habla, desde dónde se conecta, qué palabras usa, si está molesto o relajado. Esto mejora la calidad de las respuestas, pero también implica una mayor recolección y procesamiento de datos.
-¿Y en el uso de lenguaje natural y contextualizado?
En este caso, permite que los modelos respondan de manera más cercana, eliminando ambigüedades y mejorando la experiencia del usuario. En la práctica, esto también significa que los modelos están entrenados no solo para entender lo que decís, sino cómo lo decís, y responder con un tono que puede simular emociones, calma o urgencia.
-¿Qué ley respalda a los usuarios?
Acá es donde entra en juego la Ley 25.326 de Protección de Datos Personales, que establece que cualquier tratamiento de datos personales debe ser informado, proporcional y con consentimiento explícito y muchas veces, en estos sistemas, ese consentimiento no está del todo claro.
Desde una perspectiva técnica, esto implica el procesamiento de grandes volúmenes de datos personales y comportamentales, algo que en Argentina está regulado por esta ley. Sin embargo, aún existen vacíos legales cuando estas IA son entrenadas fuera del país y se accede a ellas mediante plataformas extranjeras.
-¿Cuáles son los riesgos más críticos que ves en términos de privacidad y seguridad de datos?
El principal riesgo es que la gente baja la guardia. Como el chatbot no es una persona, algunos creen que no hay consecuencias al contarle cosas íntimas, pero toda esa información queda almacenada, procesada y, en muchos casos, reutilizada para entrenar otros modelos o versiones del mismo. Esto deriva en que se pierda el control sobre los datos.
También hay un riesgo con las filtraciones, si esas plataformas no cumplen con los estándares de seguridad o no están alojadas en jurisdicciones que respeten nuestros derechos, en Argentina, la AAIP (Agencia de Acceso a la Información Pública) tiene autoridad para intervenir, pero muchas de estas plataformas están fuera del alcance local. Ese vacío legal es crítico.
-¿Qué cosas suelen ignorar más los usuarios respecto al uso excesivo de estos chatbots?
La exposición de datos sensibles cuando los usuarios interactúan con la IA de forma informal, pueden revelar información personal sin percibirlo como riesgoso. Además, la falta de consentimiento informado muchas veces no queda claro si la conversación es con un humano o una IA, ni qué datos se están recolectando.
-Además, los datos pueden transferirse incluso al exterior…
Sí, el almacenamiento y transferencia internacional de datos como las plataformas de Chat GPT o Bard pueden almacenar información fuera del territorio nacional, sin cumplir necesariamente con las leyes que nos protegen ante alguna eventualidad o necesidad de control, como es la Ley 25.326 en Argentina. También está el uso indebido de datos recopilados para entrenamiento o publicidad ya que una vez que se entregan datos, el usuario pierde el control sobre su utilización y/o reutilización.
-¿Argentina en qué situación se encuentra?
En el contexto argentino, esto se agrava por la falta de alfabetización digital generalizada y por el uso de estas herramientas en entornos no regulados, como grupos de redes sociales o canales informales de atención al público.