{"id":12497,"date":"2023-06-28T14:47:45","date_gmt":"2023-06-28T19:47:45","guid":{"rendered":"https:\/\/syspertec.com.co\/web\/?p=12497"},"modified":"2023-06-28T14:47:50","modified_gmt":"2023-06-28T19:47:50","slug":"deepfakes-la-amenaza-creciente-para-organizaciones","status":"publish","type":"post","link":"https:\/\/syspertec.com.co\/web\/deepfakes-la-amenaza-creciente-para-organizaciones\/","title":{"rendered":"Deepfakes: la amenaza creciente para organizaciones"},"content":{"rendered":"\n<p class=\"has-text-align-center\">Kaspersky identifica los tres tipos de deepfakes m\u00e1s utilizados para atacar a empresas mediante extorsi\u00f3n, chantaje y espionaje industrial<\/p>\n\n\n\n<p>El n\u00famero de <a href=\"https:\/\/latam.kaspersky.com\/resource-center\/threats\/protect-yourself-from-deep-fake\"><em>deepfakes<\/em><\/a> o videos falsos crece a un ritmo anual del 900%, seg\u00fan el <a href=\"https:\/\/www.weforum.org\/agenda\/2021\/04\/are-we-at-a-tipping-point-on-the-use-of-deepfakes\/\">Foro Econ\u00f3mico Mundial<\/a>. Y es que el uso de redes neuronales (m\u00e9todo de Inteligencia Artificial) y del aprendizaje profundo o <em>Deep Learning<\/em> (de ah\u00ed el t\u00e9rmino <em>deepfake<\/em>) permite pr\u00e1cticamente a cualquiera usar im\u00e1genes, videos y audio para crear contenidos multimedia realistas, en los que se altera digitalmente el rostro o cuerpo de una persona para que parezca otra.<\/p>\n\n\n\n<p><a><\/a>Con estos contenidos, el objetivo de la ciberdelincuencia es acosar, vengarse, realizar estafas, entre otros delitos, convirti\u00e9ndose en casos que frecuentemente ocupan titulares en los medios de comunicaci\u00f3n. Recientemente, los analistas de Kaspersky descubrieron que los cibercriminales ofrecen sus servicios maliciosos en la <em>Darknet<\/em> para crear estos videos falsos y, ahora, recopilan los tres principales tipos de fraude basados en <em>deepfakes<\/em>.<\/p>\n\n\n\n<p><strong>Fraude financiero<\/strong><\/p>\n\n\n\n<p><a><\/a>Los ciberdelincuentes pueden utilizar <em>deepfakes<\/em> para hacerse pasar por celebridades, pol\u00edticos y empresarios para que las v\u00edctimas caigan f\u00e1cilmente en el enga\u00f1o. Un ejemplo de ello es un <a href=\"https:\/\/es.wired.com\/articulos\/fraude-deepfake-de-elon-musk-promoviendo-criptomonedas-en-youtube\">video<\/a> creado artificialmente el a\u00f1o pasado con Elon Musk como protagonista. En \u00e9ste, el fundador de Tesla promet\u00eda grandes ganancias si se segu\u00edan una serie de consejos para invertir en criptomonedas. El contenido se volvi\u00f3 viral y muchos usuarios perdieron su dinero. Para crear <em>deepfakes<\/em> como este, los estafadores utilizan im\u00e1genes de personas de inter\u00e9s o combinan videos antiguos y publican videos o transmisiones en vivo en redes sociales, prometiendo alg\u00fan beneficio, como duplicar cualquier pago en criptomoneda.<\/p>\n\n\n\n<p><a><\/a><strong><em>Deepfakes<\/em><\/strong><strong> pornogr\u00e1ficos<\/strong><\/p>\n\n\n\n<p><a><\/a>Con la foto de una persona, individuos malintencionados pueden crear una pieza en la que su v\u00edctima aparezca en una situaci\u00f3n comprometedora. De hecho, el <a href=\"https:\/\/www.ic3.gov\/Media\/Y2023\/PSA230605\">FBI acaba de emitir una advertencia<\/a> sobre la manipulaci\u00f3n de fotos y videos publicados en la red para la creaci\u00f3n de contenido expl\u00edcito y esquemas de extorsi\u00f3n. En varias ocasiones se han detectado videos de este tipo utilizando rostros conocidos, pero las v\u00edctimas tambi\u00e9n pueden ser personas an\u00f3nimas, sufriendo graves consecuencias. Quienes son involucrados en este ataque ven da\u00f1ada su reputaci\u00f3n y vulnerados sus derechos. Uno de los \u00faltimos ejemplos ha sido el de la cantante Rosal\u00eda, quien fue v\u00edctima de una foto falsificada donde aparec\u00eda, supuestamente, haciendo topless.<\/p>\n\n\n\n<p><strong>Estafas empresariales<\/strong><\/p>\n\n\n\n<p><a><\/a>Los <em>deepfakes<\/em> tambi\u00e9n pueden utilizarse para atacar a empresas mediante extorsi\u00f3n, chantaje o espionaje industrial. En una ocasi\u00f3n, los ciberdelincuentes <a href=\"https:\/\/www.razon.com.mx\/mundo\/copian-voz-empresario-roban-35-millones-dolares-banco-455703\">enga\u00f1aron<\/a> al gerente de un banco de Emiratos \u00c1rabes Unidos con este m\u00e9todo, robando $35 millones de d\u00f3lares. A partir de una peque\u00f1a grabaci\u00f3n de voz, crearon una locuci\u00f3n con la que lograron estafar al responsable de la entidad. En <a href=\"https:\/\/www.heraldobinario.com.mx\/criptomonedas\/2022\/8\/23\/hackers-crean-deep-fake-con-el-rostro-de-directivo-de-binance-para-estafar-criptomonedas-27975.html\">otro caso<\/a>, los criminales trataron de burlar a la mayor plataforma de criptomonedas del mundo, Binance. Generaron un <em>deepfake<\/em> de uno de sus directivos y lo utilizaron en una reuni\u00f3n en l\u00ednea para hablar en su nombre.<\/p>\n\n\n\n<p>Adem\u00e1s, los responsables de recursos humanos ya est\u00e1n en alerta ante el uso de<em> deepfakes<\/em> por parte de candidatos que solicitan trabajo a distancia, seg\u00fan otra advertencia del <a href=\"https:\/\/www.ic3.gov\/Media\/Y2022\/PSA220628\">FBI<\/a>. En el caso de Binance, los atacantes utilizaron im\u00e1genes de personas que encontraron en Internet para crear videos falsos y a\u00f1adirlos a los curr\u00edculums. Si consiguen enga\u00f1ar a los responsables de recursos humanos y m\u00e1s tarde reciben una oferta, pueden robar datos de la empresa.<\/p>\n\n\n\n<p><em>\u201cUno de los grandes peligros de los deepfake para las empresas no es solo el robo de datos. Los riesgos reputacionales pueden tener consecuencias muy graves. Basta con la publicaci\u00f3n de un video en donde, aparentemente, un ejecutivo hace declaraciones sesgadas de temas delicados. Esto puede provocar, por ejemplo, la ca\u00edda de la compa\u00f1\u00eda en la bolsa de valores. Sin embargo, la posibilidad de que se produzcan estos ataques a\u00fan es baja por el alto coste de crear un deepfake realista\u201d, <\/em>explica <strong>Dmitry Anikin, experto senior de seguridad en Kaspersky<\/strong>. <em>\u201cEs importante estar al tanto de los detalles que pueden indicar que un video es falso y mantener siempre una actitud esc\u00e9ptica. Tambi\u00e9n hay que asegurarse de que los empleados entiendan qu\u00e9 es un deepfake y c\u00f3mo pueden reconocerlo\u201d<\/em>, a\u00f1ade.<\/p>\n\n\n\n<p><a><\/a>Para protegerse de este tipo de enga\u00f1o, Kaspersky recomienda:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Revisar las pr\u00e1cticas de seguridad en la empresa<\/strong>, tanto en temas de <em>software<\/em> como de capacitaci\u00f3n del personal. Adem\u00e1s de utilizar herramientas como <a href=\"https:\/\/latam.kaspersky.com\/enterprise-security\/threat-intelligence\">Kaspersky Threat Intelligence<\/a> para estar al tanto de las \u00faltimas amenazas.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Crear un \u201cmuro humano\u201d informando al empleado sobre lo que es un <em>deepfake<\/em><\/strong> y los riesgos que implica. <a href=\"https:\/\/latam.kaspersky.com\/small-to-medium-business-security\/security-awareness-platform\">Kaspersky Automated Security Awareness Platform<\/a> mantiene a la plantilla informada sobre las \u00faltimas amenazas al tiempo que aumenta la alfabetizaci\u00f3n digital.<\/li>\n\n\n\n<li><strong>Usar fuentes de informaci\u00f3n fiables.<\/strong> La desinformaci\u00f3n es clave para la proliferaci\u00f3n de los <em>deepfakes<\/em>.<\/li>\n\n\n\n<li><strong>Ser esc\u00e9ptico<\/strong> frente a videos o grabaciones de voz es importante para ayudar a reducir las probabilidades de caer en la estafa.<\/li>\n\n\n\n<li><strong>Tener en cuenta las caracter\u00edsticas que puedan indicar que un video es falso<\/strong>: movimientos bruscos, cambios en la iluminaci\u00f3n y en el tono de la piel, parpadeo extra\u00f1o o falta de este, labios mal sincronizados respecto a la voz o baja calidad de la reproducci\u00f3n.<\/li>\n<\/ul>\n\n\n\n<p>El monitoreo constante de la <em>darknet<\/em> proporciona a Kaspersky informaci\u00f3n valiosa sobre la industria del <em>deepfake<\/em>. Esta actividad, junto con el an\u00e1lisis, permite conocer las \u00faltimas tendencias y actividades de los ciberdelincuentes, as\u00ed como mejorar la visi\u00f3n del cambiante panorama de amenazas. <a href=\"https:\/\/media.kaspersky.com\/latam\/business-security\/enterprise\/kaspersky-digital-footprint-intelligence-datasheet.pdf\">Kaspersky&#8217;s Digital Footprint<\/a> utiliza ese monitoreo, aportando informaci\u00f3n y soluciones de valor cuando se trata de amenazas relacionadas con los <em>deepfakes<\/em>.<\/p>\n\n\n\n<p>Para aprender m\u00e1s sobre la industria del <em>deepfake<\/em>, visita <a href=\"https:\/\/latam.kaspersky.com\/blog\/deepfake-darknet-market\/26322\/\">Kaspersky<\/a> Daily.<\/p>\n\n\n\n<p><strong>Acerca de Kaspersky<\/strong><\/p>\n\n\n\n<p>Kaspersky es una empresa global de ciberseguridad y privacidad digital fundada en 1997. La profunda experiencia de Kaspersky en inteligencia de amenazas y seguridad se transforma constantemente en soluciones y servicios de seguridad innovadores para proteger a empresas, infraestructuras cr\u00edticas, gobiernos y consumidores en todo el mundo. El amplio portafolio de seguridad de la compa\u00f1\u00eda incluye una protecci\u00f3n de <em>endpoints<\/em> l\u00edder y una serie de soluciones y servicios de seguridad especializados para combatir las amenazas digitales m\u00e1s avanzadas y en evoluci\u00f3n. M\u00e1s de 400 millones de usuarios est\u00e1n protegidos por las tecnolog\u00edas de Kaspersky y ayudamos a 240,000 clientes corporativos a proteger lo que m\u00e1s valoran. Obtenga m\u00e1s informaci\u00f3n en <a href=\"http:\/\/latam.kaspersky.com\/\">https:\/\/latam.kaspersky.com<\/a><\/p>\n\n\n\n<p>&#8211;<\/p>\n\n\n\n<p>Syspertec sas<\/p>\n\n\n\n<p>Agencia de prensa y relaciones p\u00fablicas<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Kaspersky identifica los tres tipos de deepfakes m\u00e1s utilizados para atacar a empresas mediante extorsi\u00f3n, chantaje y espionaje industrial El n\u00famero de deepfakes o videos falsos crece a un ritmo anual del 900%, seg\u00fan el Foro Econ\u00f3mico Mundial. Y es que el uso de redes neuronales (m\u00e9todo de Inteligencia Artificial) y del aprendizaje profundo o [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":12499,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"nf_dc_page":"","footnotes":""},"categories":[243],"tags":[176,195,119],"class_list":["post-12497","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-kaspersky","tag-kaspersky","tag-syspertec","tag-tecnologia"],"jetpack_featured_media_url":"https:\/\/syspertec.com.co\/web\/wp-content\/uploads\/2023\/06\/Kaspersky_Deep-fakes.jpg","_links":{"self":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/12497","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/comments?post=12497"}],"version-history":[{"count":1,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/12497\/revisions"}],"predecessor-version":[{"id":12500,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/12497\/revisions\/12500"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/media\/12499"}],"wp:attachment":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/media?parent=12497"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/categories?post=12497"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/tags?post=12497"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}