La inteligencia artificial se está utilizando cada vez más con fines delictivos y esto ya preocupa a todos

Categorias: Sociedad | Tecnología |

El hecho de que la inteligencia artificial no solo es algo bueno se dijo a principios de los 90, ahora las tecnologías no solo resuelven problemas, sino que también se utilizan para el control que viola los derechos y las libertades. La delincuencia no se está quedando atrás en este sentido: los ciberdelincuentes son cada vez más ingeniosos y equipados. Para obtener el dinero de otra persona, ni siquiera necesitas ser un hacker.

La inteligencia artificial se está utilizando cada vez más con fines delictivos y esto ya preocupa a todos

En 2020, un gran banco fue robado en los Emiratos Árabes Unidos de una manera fundamentalmente nueva. Los criminales, usando inteligencia artificial, forjaron la voz de un gran cliente. Convencieron al empleado por teléfono para transferir dinero a sus cuentas en diferentes bancos. El crimen se cometió hace un año y medio, pero se supo de él solo ahora.

La inteligencia artificial se está utilizando cada vez más con fines delictivos y esto ya preocupa a todos

La voz de deepfake era indistinguible de la voz del director de una de las grandes empresas que utilizaban los servicios del banco. El estafador le dijo al empleado del banco que la compañía estaba planeando un gran negocio. Por lo tanto, es necesario transferir 3 35 millones (2,5 mil millones de rublos) a una nueva cuenta de la empresa.

El empleado del banco conocía bien la voz de este cliente, así que tomó su palabra. También sabía que el director de la empresa había hablado recientemente de un acuerdo de este tipo con el jefe de su departamento. El empleado del banco finalmente se calmó con cartas falsas de la compañía y una llamada de un abogado falso.

La inteligencia artificial se está utilizando cada vez más con fines delictivos y esto ya preocupa a todos

En total, la operación para retirar dinero del banco tomó un par de horas. Los investigadores descubrieron que 17 personas participaron en el esquema, y deepfake technologies jugó un papel clave. El dinero recibido por fraude se dispersó inmediatamente a muchas cuentas en bancos de diferentes países. Los criminales no tenían miedo de abrir dos cuentas, incluso en el prestigioso American Centennial Bank.

Los expertos en el campo de la seguridad de la información creen que cualquiera puede estar en el lugar de un banco árabe. Las tecnologías de inteligencia artificial son cada vez más accesibles y no solo el banco puede sufrir. No cuesta nada a los atacantes obtener una muestra de la voz de cualquier persona. Con tal archivo, pueden falsificar el habla con un alto grado de precisión.

La inteligencia artificial se está utilizando cada vez más con fines delictivos y esto ya preocupa a todos

Después de eso, es fácil llamar a amigos, empleados o familiares y pedirles que transfieran dinero. La razón puede ser cualquier cosa, que van desde una gran compra no planificada, terminando con la solución de un problema con la ley. Ahora nadie se sorprende por las llamadas a las personas mayores en nombre de sus hijos y nietos. Los estafadores están pidiendo ayuda para pagar un automóvil roto o para pagar el tratamiento.

Este método funciona bien incluso sin alta tecnología. Imagina lo efectivo que será si los criminales piden dinero en primera persona, en la voz de un ser querido. ¿Y qué tal una llamada al departamento de contabilidad con la voz del director? De acuerdo, puede ser un crimen casi perfecto.

Los programas para crear deepfakes no son lo único con lo que la tecnología ha enriquecido a los "caballeros de la fortuna" modernos. Ya no es raro que un tipo de fraude como una llamada de un número sustituido. Las aplicaciones de reemplazo de números de teléfono fueron concebidas una vez como una forma de broma divertida. Pero ahora algunas personas no se reían.

La inteligencia artificial se está utilizando cada vez más con fines delictivos y esto ya preocupa a todos

Los programas especiales le permiten llamar desde un número que ha grabado como "Mamá", "Esposa"o " Director". El plan de divorcio es simple: el mensaje le pide que recargue su tarjeta bancaria o cuenta móvil. Después de haber llamado bajo la apariencia de un pariente de un número sustituido, los atacantes exigen dinero. Most often they present themselves as police officers and extort a bribe. La razón es un delito cometido por un ser querido, al que la policía "puede hacer la vista gorda."

Hay muchos esquemas para retirar dinero de los ciudadanos con la ayuda de un phishing tan simple. Y para crear un número de sustitución, no es necesario ser un genio de la informática. La forma más fácil utilizada por los delincuentes es la función de número virtual de Skype. Los estafadores más avanzados usan aplicaciones de pago como"Cambiar número".

La inteligencia artificial se está utilizando cada vez más con fines delictivos y esto ya preocupa a todos

Pero las soluciones más innovadoras se pueden comprar en el segmento de la sombra de Internet, la llamada Deep Web. Allí, los programadores que no están sobrecargados con principios ofrecen tanto soluciones listas para usar como creación de software personalizado. La combinación de una voz deepfake y la sustitución de números puede engañar a la persona más cautelosa. Técnicamente, esto ya es bastante factible.

¿Cómo protegerse y proteger a sus seres queridos de estafadores atrevidos y bien equipados? Esto no es fácil de hacer, pero es muy posible. En primer lugar, entrénate para no ser guiado por las emociones. Revise la información, especialmente cuando se trata de dinero. Después de recibir una llamada o mensaje extraño de un número familiar, llame al suscriptor. Utilice otro canal de comunicación, por ejemplo, Viber, Skype o un segundo número de teléfono.

La inteligencia artificial se está utilizando cada vez más con fines delictivos y esto ya preocupa a todos

Para hacerlo más difícil para los criminales, nunca use declaraciones en una conversación con extraños. Se pueden considerar palabras peligrosas: "sí", "por supuesto", "confirmo", "estoy de acuerdo", "soy yo". Estas palabras y frases pueden ser copiadas por atacantes astutos y utilizadas para la verificación en el banco.

     

origen