{"id":283,"date":"2023-10-19T00:22:36","date_gmt":"2023-10-19T00:22:36","guid":{"rendered":"https:\/\/redmocracia.org\/blog\/?p=283"},"modified":"2023-10-19T00:30:57","modified_gmt":"2023-10-19T00:30:57","slug":"detectamos-un-deepfake-en-boyaca","status":"publish","type":"post","link":"https:\/\/redmocracia.org\/blog\/index.php\/2023\/10\/19\/detectamos-un-deepfake-en-boyaca\/","title":{"rendered":"Detectamos un deepfake en Tunja, Boyac\u00e1."},"content":{"rendered":"<p style=\"text-align: justify;\">El mi\u00e9rcoles 18 de octubre a las 2 de la tarde recibimos v\u00eda WhatsApp un video editado con la imagen de John Carrero que conten\u00eda una nota de voz, el candidato a la alcald\u00eda de Tunja, con voz de preocupaci\u00f3n, conversa con alguien sobre las <strong>recientes encuestas<\/strong> compartidas en diferentes medios de comunicaci\u00f3n, junto a otros temas relacionados con la contienda electoral y su campa\u00f1a. Nos llam\u00f3 mucho la atenci\u00f3n y nos pusimos a investigar sobre el tema, \u2026\u2026\u2026\u2026\u2026.<strong>Detectamos un deepfake<\/strong>.<\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"1:1-1:329\"><strong>Qu\u00e9 es un deepfake?<\/strong><\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"1:1-1:329\">Un deepfake es un video, imagen o audio manipulado mediante un software de inteligencia artificial de modo que parezcan originales, aut\u00e9nticos y reales. El t\u00e9rmino proviene de la combinaci\u00f3n de las palabras \u00abdeep learning\u00bb y \u00abfake\u00bb, haciendo alusi\u00f3n al contenido falso generado con aprendizaje profundo (inteligencia artificial).<\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"3:1-3:238\">Los deepfakes se crean mediante el uso de redes neuronales generativas, tambi\u00e9n conocidas como GAN. Las GAN son un tipo de inteligencia artificial que puede aprender a generar im\u00e1genes, audio o texto que son indistinguibles de los reales.<\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"5:1-5:338\">Para crear un deepfake, se necesita una gran cantidad de datos de entrenamiento, como im\u00e1genes o videos de la persona que se desea falsificar. Una vez que la GAN ha sido entrenada, se puede usar para crear un nuevo video, imagen o audio en el que la persona que se desea falsificar aparece haciendo o diciendo cosas que nunca hizo o dijo.<\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"7:1-7:293\">Los deepfakes se pueden usar para una variedad de prop\u00f3sitos, tanto leg\u00edtimos como maliciosos. Por ejemplo, se pueden usar para crear contenido de entretenimiento, como videos de parodia o comedia. Tambi\u00e9n se pueden usar para crear contenido educativo, como videos de aprendizaje interactivos.<\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"9:1-9:292\">Sin embargo, los deepfakes tambi\u00e9n se pueden usar para crear contenido da\u00f1ino, como videos de pornograf\u00eda o difamaci\u00f3n. Por ejemplo, un deepfake podr\u00eda usarse para hacer que un pol\u00edtico parezca decir algo que nunca dijo, o para hacer que una celebridad parezca estar haciendo algo vergonzoso.<\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"11:1-11:212\">Los deepfakes son una tecnolog\u00eda poderosa que tiene el potencial de ser usada para el bien o para el mal. Es importante ser consciente de los riesgos de los deepfakes y estar alerta a los signos de falsificaci\u00f3n.<\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"13:1-13:22\"><strong>Tipos de deepfakes<\/strong><\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"15:1-15:61\">Los deepfakes se pueden clasificar en tres tipos principales:<\/p>\n<ul style=\"text-align: justify;\" data-sourcepos=\"17:1-20:0\">\n<li data-sourcepos=\"17:1-17:157\"><strong>Deepfakes de video:<\/strong>\u00a0Son los m\u00e1s comunes y se utilizan para crear videos en los que una persona aparece haciendo o diciendo cosas que nunca hizo o dijo.<\/li>\n<li data-sourcepos=\"18:1-18:162\"><strong>Deepfakes de imagen:<\/strong>\u00a0Se utilizan para crear im\u00e1genes en las que una persona aparece con un aspecto diferente, como con otro peinado o con un cambio de peso.<\/li>\n<li data-sourcepos=\"19:1-20:0\"><strong>Deepfakes de audio:<\/strong>\u00a0Se utilizan para crear audio en el que una persona habla con un tono o timbre de voz diferente.<\/li>\n<\/ul>\n<p style=\"text-align: justify;\"><strong>Ej. de Deepfake de Audio.<\/strong><\/p>\n<audio class=\"wp-audio-shortcode\" id=\"audio-283-1\" preload=\"none\" style=\"width: 100%;\" controls=\"controls\"><source type=\"audio\/mpeg\" src=\"https:\/\/redmocracia.org\/blog\/wp-content\/uploads\/2023\/10\/Ojo-esto-es-un-Deepfake-SF.mp3?_=1\" \/><a href=\"https:\/\/redmocracia.org\/blog\/wp-content\/uploads\/2023\/10\/Ojo-esto-es-un-Deepfake-SF.mp3\">https:\/\/redmocracia.org\/blog\/wp-content\/uploads\/2023\/10\/Ojo-esto-es-un-Deepfake-SF.mp3<\/a><\/audio>\n<p style=\"text-align: justify;\" data-sourcepos=\"21:1-21:29\"><strong>C\u00f3mo detectar un deepfake<\/strong><\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"23:1-23:105\">Hay una serie de se\u00f1ales que pueden indicar que un video o imagen es un deepfake. Estas se\u00f1ales incluyen:<\/p>\n<ul style=\"text-align: justify;\" data-sourcepos=\"25:1-28:0\">\n<li data-sourcepos=\"25:1-25:154\"><strong>Movimientos faciales o corporales extra\u00f1os:<\/strong>\u00a0Los deepfakes a menudo tienen problemas para reproducir los movimientos faciales o corporales naturales.<\/li>\n<li data-sourcepos=\"26:1-26:141\"><strong>Degradaci\u00f3n de la imagen o el audio:<\/strong>\u00a0Los deepfakes a menudo tienen problemas para mantener la calidad de la imagen o el audio original.<\/li>\n<li data-sourcepos=\"27:1-28:0\"><strong>Errores de continuidad:<\/strong>\u00a0Los deepfakes a menudo tienen errores de continuidad, como un cambio repentino de iluminaci\u00f3n o \u00e1ngulo de c\u00e1mara.<\/li>\n<\/ul>\n<p style=\"text-align: justify;\" data-sourcepos=\"29:1-29:214\">Es importante tener en cuenta que estas se\u00f1ales no son siempre un indicador definitivo de que un video o imagen es un deepfake. Sin embargo, pueden ser una buena manera de empezar a sospechar que algo no est\u00e1 bien.<\/p>\n<p style=\"text-align: justify;\" data-sourcepos=\"29:1-29:214\">Finalmente nos pusimos en la tarea de investigar la manera de detectar la diferencia entre una voz real y una creada con inteligencia artificial y debemos confesar, que no fue tarea f\u00e1cil. Luego de un par de horas encontramos una manera y fue usando la inteligencia artificial de Google, Bart.<\/p>\n<p style=\"text-align: justify; padding-left: 40px;\" data-sourcepos=\"29:1-29:214\"><b>Si bien consideramos que deben existir herramientas mucho m\u00e1s precisas y t\u00e9cnicas para realizar este tipo de an\u00e1lisis, creemos que para la ciudadan\u00eda en general este m\u00e9todo podr\u00eda ser \u00fatil para mitigar la desinformaci\u00f3n, encontramos algunos inconvenientes al ingresar prompts muy extensos, pero a la final este fue el resultado, la voz seg\u00fan la inteligencia artificial de Google (Bart) <span style=\"color: #ff0000;\"><em>es un audio falso,\u00a0 realizado con Inteligencia Artificial.<\/em><\/span><\/b><\/p>\n<p data-sourcepos=\"29:1-29:214\"><strong>Video explicativo y tutorial deepfake Tunja&#8230;.<\/strong><\/p>\n<p><iframe loading=\"lazy\" title=\"YouTube video player\" src=\"https:\/\/www.youtube.com\/embed\/OQRYxJbVCDA?si=uPUwctRL5DIaIYzN\" width=\"560\" height=\"315\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/p>\n<p style=\"text-align: justify;\">Invitamos a la ciberciudadan\u00eda a estar alerta sobre la informaci\u00f3n que recibe y comparte en cadenas de comunicaci\u00f3n masiva y a las campa\u00f1as pol\u00edticas a evitar este tipo de estrategias que perjudican nuestra democracia.<\/p>\n<h3><strong>Con el coraz\u00f3n por #Redmocracia.<\/strong><\/h3>\n<p>&nbsp;<\/p>\n<p data-sourcepos=\"29:1-29:214\">\n","protected":false},"excerpt":{"rendered":"<p>El mi\u00e9rcoles 18 de octubre a las 2 de la tarde recibimos v\u00eda WhatsApp un video editado con la imagen de John Carrero que conten\u00eda una nota de voz, el candidato a la alcald\u00eda de Tunja, con voz de preocupaci\u00f3n, conversa con alguien sobre las recientes encuestas compartidas en diferentes medios de comunicaci\u00f3n, junto a [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":285,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11,12],"tags":[],"class_list":["post-283","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-colombia","category-elecciones2023"],"_links":{"self":[{"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/posts\/283","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/comments?post=283"}],"version-history":[{"count":4,"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/posts\/283\/revisions"}],"predecessor-version":[{"id":289,"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/posts\/283\/revisions\/289"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/media\/285"}],"wp:attachment":[{"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/media?parent=283"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/categories?post=283"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/redmocracia.org\/blog\/index.php\/wp-json\/wp\/v2\/tags?post=283"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}