El desarrollo de Inteligencia Artificial (IA) y la explosión de Chat GPT generaron una fuerte revolución. Por esta razón, WatchGuard, firma experta en seguridad en red, remarcó que su utilización negativa trajo severos impactos. La creación de malwares (programas maliciosos) y ataques de phishing (técnicas de engaño para recopilar información de una víctima) son parte de las 5 ciberamenazas modernas.
Corey Nachreiner, Chief Security Officer de la empresa, brindó una entrevista a periodistas especializades y analizó esta problemática. “Ciertamente representa una amenaza”, consignó el avezado al ser consultado por los perjuicios que ocasionará que ciberdelincuentes utilicen estas nuevas tecnologías.
El lanzamiento de OpenAI significó un recurso peligroso en manos de estafadores. A través de este chatbot de IA, crearon malware, bots maliciosos, ataques, robos y suplantación de identidad. En este contexto, uno de les referentes de la firma anunció los principales problemas.
“La tecnología deepfake, que puede crear imágenes, audio y video convincentes de personas reales utilizando imágenes existentes o grabaciones de ellas, facilitará la suplantación de objetivos para su uso en ingeniería social”, certificó.
Les delincuentes comenzaron a utilizar el modelo de lenguaje de IA GPT-3 para elaborar cepas de malware y realizar diversos ataques. En consecuencia, la creación de una cuenta en OpenAI de forma gratuita desde el sitio web favorece la perpetración de ciberataques.
Las principales 5 ciberamenazas
El desarrollo de malware es una de las principales amenazas del Chat GPT al servicio de estafadores. La utilización de esta herramienta con bajos conocimientos de programación facilita las amenazas. Así, implementan efectivas acciones de hackeo o cierre de lagunas informáticas.
“Hemos visto a miembros de un foro clandestino popular usar Chat GPT para escribir información que roba malware”, resaltó Nachreiner. A su vez, reconoció que “en el futuro esperamos ver a los actores de amenazas aprovechar el aprendizaje automático adversario para combatir algoritmos de aprendizaje automático utilizados en servicios y controles de seguridad”.
La creación de este tipo de ataque por medio de un código basado en Python puede buscar, copiar y filtrar 12 tipos de archivos comunes. Desde documentos de Office, PDF hasta imágenes de un sistema infectado. Y se recurre a Chat GPT para crear chatbots, engañar usuaries y realizar estafas.
El spam o lanzar ataques de phishing es un claro ejemplo. Por este motivo, el especialista subrayó que “los actores de amenazas seguramente aprovecharán los proyectos de IA de código abierto”. Y agregó que “los bromistas encontraron formas de hacer que Chat GPT supere algunas de esas restricciones”.
“El FBI afirmó que los niveles C falsos de audio falso ya se han utilizado en el phishing de fraude financiero a través de plataformas de reuniones virtuales” puntualizó Nachreiner. Además, destacó la facilidad del sistema para crear correos electrónicos sumamente convincentes para concretar este engaño.
El impacto de estos ataques
La funcionalidad del uso dado a herramientas derivadas de IA puede ser positiva o negativa según como sean empleadas. El Chat GPT en manos de ciberdelicuentes trae aparejados ataques a la seguridad y la privacidad de las personas.
El Chief Security Officer de WatchGuard expresó que “los investigadores ya han demostrado que estas IA pueden escribir correos electrónicos de phishing tan convincentes, si no más, que los humanos”. Por ello, explicó que “pueden automatizar y escalar masivamente ataques de spear phishing más sofisticados”.
Además, genera severas consecuencias en los puestos de trabajo porque puede implicar la reducción de ofertas laborales. “La IA puede volverse lo suficientemente buena como para ver reducciones de personal en todas partes, incluida la seguridad”, argumentó.
No obstante, reconoció que esta tecnología aún requiere de la supervisión humana para su correcto funcionamiento, pero su perfeccionamiento crece a pasos agigantados. “A medida que la IA mejora puede no ser el caso por mucho tiempo”, aseveró.
La privacidad frente a Chat GPT
La seguridad y la privacidad son aspectos afectados porque los datos de personas y organizaciones que circulen en Internet podrán estar incluidos en Chat GPT. En ciertas oportunidades, sucede que hay información en redes sociales o Wikipedia que puede utilizarse con fines maliciosos.
“OpenAI no nos preguntó si podrían usar todos estos datos, simplemente asumieron que podría porque es de acceso público”, ratificó Nachreiner. Asimismo, añadió que “si tiene cosas personales, las respuestas y capacidades de Chat GPT pueden tenerlas en cuenta de alguna manera”.
Aún no diferencia entre desinformación, falsedades y mentiras. Esto es un gran problema porque resulta funcional a la difusión de fake news. “Las personas no dedican el tiempo necesario para seleccionar los datos que Chat GPT obtiene para tomar decisiones”, destacó.
Ahora bien, él aseguró: “no creo que OpenAI pretenda matar nuestra privacidad y hacernos inseguros, pero hay muchas consecuencias potenciales que la sociedad todavía tiene que resolver por la seguridad de todos nosotros”.
Los protocolos de protección
La IA también puede instalarse como un recurso para fortalecer protocolos de seguridad y protección. Las compañías recurren a nuevos modelos de aprendizaje automático y profundo basados en Inteligencia Artificial. A través de estos recursos desarrollan barreras de protección.
De esta forma, implementa un sistema de defensa contra amenazas avanzadas, malware, ransomware (virus que impide la utilización de los equipos o sistemas que infecta) y phishing. Del mismo modo, puede sobreponerse a rootkits (software malicioso que hace que les hackers puedan controlar los equipos afectados), vulnerabilidad de memoria y detectar actividades maliciosas. Por lo tanto, Nachreiner destacó el uso positivo de estas nuevas tecnologías.
“Algunos beneficios incluyen la detección inmediata y proactiva de malware, análisis de comportamiento y detección de anomalías”, enfatizó. Además, concluyó que “facilita la correlación, análisis de registros, valuación y validación”.