Jueves, 21 de Noviembre 2024

Así puedes protegerte de estafas por inteligencia artificial

Las estafas a través de las funciones que ofrece la Inteligencia Artificial son cada vez más difíciles de identificar

Por: NotiPress .

La Inteligencia Artificial permite que cualquier persona pueda crear contenido al clonar la voz de otra persona o usar su imagen. Esto es utilizado para llevar a cabo meticulosas estafas. ESPECIAL / Imagen de Nikita Belokhonov en Pexels

La Inteligencia Artificial permite que cualquier persona pueda crear contenido al clonar la voz de otra persona o usar su imagen. Esto es utilizado para llevar a cabo meticulosas estafas. ESPECIAL / Imagen de Nikita Belokhonov en Pexels

El avance tecnológico de las Inteligencias Artificiales ha sido prominente en los últimos años. Sin embargo, a pesar de que estas herramientas fueron creadas para ayudar a la humanidad en su vida cotidiana, la versatilidad y accesibilidad a las mismas ha permitido que ciertas personas puedan aprovecharse de otras. La capacidad de la IA para crear imágenes o voces idénticas a las reales es un medio para realizar estafas meticulosas.

A pesar de su sutileza, la realidad es que las estafas de la era de la inteligencia artificial no se diferencian demasiado de las llevan mucho más tiempo existiendo. Pero también es cierto que la inteligencia artificial ayuda a los delincuentes a encubrir más detalladamente sus malévolas intenciones.

Según el equipo de A3Sec, la inteligencia artificial ha sido adoptada por la ciberdelincuencia como una herramienta bastante efectiva para sus ataques.

A pesar de las medidas de seguridad que sitios web y aplicaciones emplean en contra de las inteligencias artificiales, estas últimas son entrenadas para evadir los sistemas de defensa y encontrar las vulnerabilidades de los usuarios. Las estafas con ayuda de la IA preocupan a la sociedad, pues cada vez son más difíciles de detectar. Es por ello que aquí recopilamos información que te ayudará a protegerte

Te puede interesar: WhatsApp: ¿Cómo saber si una persona con visto desactivado vio mi mensaje?


Clonación de voz de familiares y amigos  

La IA permite la clonación idéntica de la voz de una persona, para ello solo necesita unos segundos de grabación de audio. De forma general, los estafadores utilizan esta función para pedir dinero a través de los audios creados de personas cercanas a la víctima del crimen. Aunque este no es el único modo en el que se puede malemplear la IA, pues se ha llegado a copiar la voz del presidente Joe Biden para manipular la elección de los votantes estadounidenses.

Ante esto, la solución es simple: por lo general llaman de un número o cuenta desconocido, así que si esa persona dice ser alguien conocido, se debe comunicar con esa misma a través de su número o cuenta.

Phishing y spam personalizados vía correo electrónico y mensajería  

Mediante datos personales como ubicaciones, compras o hábitos personales, los spams pueden tornarse más personalizados con IA. Los mails recibidos pasan de ser un texto genérico a llamar al usuario por su nombre ofreciéndole alguna oferta o avisándole de alguna deuda. Como estos correos suelen adjuntar algún archivo, lo más recomendable es no abrir bajo ninguna circunstancia ese archivo.

 Asegurar cada una de tus cuentas es un método de protección en contra de estafas. ESPECIAL / Imagen de Pixabay en Pexels
Asegurar cada una de tus cuentas es un método de protección en contra de estafas. ESPECIAL / Imagen de Pixabay en Pexels

Fraude de identificación y verificación “falso”  

Como producto de la gran cantidad de información que circula de cada persona en la red, la IA puede crear una identidad falsa y tener acceso a los datos utilizados para verificar la identidad. Para proteger mejor las cuentas personales se debe simplemente asegurar cada una para que, en el caso de haber un movimiento sospechoso, le notifiquen a la persona en su teléfono o le llegue un correo electrónico sobre un intento de ingresar a alguna de ellas.

Deepfakes generados por IA y chantaje  

Quizás la forma más perturbadora de esta época es la estafa a través de imágenes autogeneradas. Uno de los crímenes más inéditos producto de la IA generativa ha sido la "porno venganza", la cual implica la creación de imágenes pornográficas con el rostro de personas objetivos sin su consentimiento. Este contenido puede ser utilizado para chantajear a la víctima con la amenaza de hacer públicas esas imágenes.

Este caso es el más difícil de la materia. Su complejidad se debe a que la humanidad nunca se enfrentó a un nivel tan desarrollado de falsificación, ya que los “deepfakes” pueden llegar a ser demasiado realistas. Por otro lado, la ley aun no ha alcanzado este tipo de crímenes. Sin embargo, existen recursos a los cuales las víctimas pueden acceder para obligar legalmente a los proveedores de imágenes a que eliminen las fotos o prohibir a los estafadores el acceso a los sitios donde las publican. A pesar de que no hay una garantía de que esto funcione, al menos es una forma de intimidar al estafador para que desista de sus planes.

MB

Mantente al día con las noticias, únete a nuestro canal de WhatsApp

Temas

Lee También

Recibe las últimas noticias en tu e-mail

Todo lo que necesitas saber para comenzar tu día

Registrarse implica aceptar los Términos y Condiciones