La IA es utilizada por los estafadores de oficina para fidelas de sus costos, y un experto en seguridad cibernética advirtió.
Se pide a la mayoría de los lugares de trabajo que carguen una foto del recibo que requiere un reembolso antes de que se acepte su costo.
Los estafadores no necesitan habilidades sofisticadas en tecnología o Photoshop, ya que es fácil pedirle al chatbot que cree un recibo para las transacciones comerciales que nunca han sucedido.
Incluso con fallas menores que los modelos de IA a veces pueden hacer, los administradores faltan porque faltan porque a menudo tienen mucho asedio.
El asesor mundial de seguridad cibernética de Eset, Jake Moore, dijo que el escándalo era muy real y que podía volar el pasado bajo la nariz de los equipos financieros.
Le dijo al Daily Mail: ‘La IA permitió que el crimen acelerara y lo pusiera a disposición de muchas personas.
‘Las herramientas como Photoshop son difíciles y lleva mucho tiempo aprender. Ahora con AI, puedes obtener lo que quieres hablando en un lenguaje natural y avisarlo.
‘Si le pide que haga uno desde cero, se verá falso, pero si comienza el mensaje con un recibo real, será rápido. Esto es impactante lo que es muy realista. ”
La IA es utilizada por los estafadores de oficina para fidelas de sus costos, y un experto en seguridad cibernética advirtió. Cyber Expert puso un chatbat para la prueba e hizo un recibo de 38.20 Starbucks, que casi puede ser engañado por cualquier persona
El experto cibernético pone el chatbat para la prueba e hizo un recibo de 38.20 Starbucks, que casi puede engañar a cualquier persona. Y esto se puede hacer en un período de segundos.
El Sr. Moore dijo: ‘Las imágenes de IA a veces se producen, pero cuando alguien en el equipo financiero va de manera rápida y colectiva, puede obtenerlo.
‘Esta es un área potencial en la que los equipos financieros no pueden considerarse y ir muy a la ligera bajo el radar.
‘La gente está atrapada por £ 35 adicionales, pero estamos en la crisis en la que vivimos y que es interesante para aquellos que desean probar un poco de dinero extra.
“Tenemos un problema de robo de tiendas en este país, donde vemos a las personas saliendo con latón con bolsas de compras, porque la policía es como un límite de £ 200”, y algunos robos son un gran éxito.
El Sr. Moore es difícil de reducir contra la facilidad y sofisticado de este tipo de fraude, especialmente cuando se ven muy auténticos “.
Aconsejó a las empresas que comenzaran a emitir tarjetas de crédito en lugar de pedir una comprensión del cambio de IA para obtener ganancias financieras.
‘Si están utilizando su propia tarjeta para reclamar reembolsos, generalmente necesita una tarjeta de empresa, por lo que generalmente necesita una tarjeta de empresa, lo cual es una buena manera de monitorear los pagos y reducirla.

Las personas a menudo reconocen correos electrónicos y lecciones de estafa porque están mal escritos, pero algunos chatbots pueden crear fácilmente mensajes que se confían en las empresas y las instituciones oficiales.
‘Los equipos financieros deben buscar un texto vago, un formato incorrecto y un número de IVA.
‘Si es falso, cuando los cheques cruzados (usando el servicio de número de IVA), la tienda en el recibo no es correcta.
“Todos necesitamos aumentar nuestra comprensión”.
Esto se debe a que los expertos advierten que los estafadores en línea pueden usar IA para comenzar la ola de fraudes convincentes.
La compañía de seguridad cibernética Norton Criminales advirtió que se están inclinando hacia herramientas de IA como ChatGPT, creando ‘cebo’ para producir correos electrónicos de pesca más confiables y robar a las víctimas.
La CEO Julia O Tool of Myzena Security Solutions advirtió que los chatbots eliminarán por completo la barrera del idioma a las pandillas cibercriminales en todo el mundo.
Ella dice: “Los fraudes por correo electrónico han llegado significativamente desde las primeras bandejas de entrada de éxito, pero la falta de habilidad en el lenguaje y la cultura sigue siendo un gran obstáculo para los estafadores, trabajaron muy duro para que su correo electrónico sea realista”.
Las personas a menudo reconocen correos electrónicos y lecciones de estafa porque están mal escritos, pero algunos chatbots pueden crear fácilmente mensajes que hacen que las empresas y las instituciones oficiales confíen.
¿Qué grupo de usuarios? Anteriormente, se le pidió a Chatgt que creara un correo electrónico al destinatario que alguien había iniciado sesión en su cuenta de PayPal.
En segundos, fue producido por correo electrónico escrito profesionalmente con un “aviso de seguridad significativo: una actividad anormal que se encuentra en su cuenta de PayPal”.
Hay pasos sobre cómo restablecer la contraseña y consultar el servicio de atención al cliente y cómo asegurar los enlaces.
Pero los tramposos pueden usar estos enlaces para redirigir a los destinatarios a sus sitios dañinos.