Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Archivo Gatopardo

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de
09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min
Texto de
Fotografía de
Realización de
Ilustración de
Traducción de

Hacia una mejor alfabetización de las audiencias digitales.

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de
09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de
09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.
09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de

Hacia una mejor alfabetización de las audiencias digitales.

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de
09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de
09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de
09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

09
.
08
.
19
2019
Texto de
Fotografía de
Realización de
Ilustración de
Traducción de
Ver Videos

Hacia una mejor alfabetización de las audiencias digitales.

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.

Deepfake, la (des)confianza que inspiran los videos

Deepfake, la (des)confianza que inspiran los videos

09
.
08
.
19
AAAA
Tiempo de Lectura: 00 min

Hacia una mejor alfabetización de las audiencias digitales.

Texto de
Fotografía de
Realización de
Ilustración de
Traducción de

El temor a los videos deepfake se extendió hace dos o tres años entre las actrices de moda por ser sus rostros los que abundarían en páginas de videos pornográficos editados. La propia Scarlett Johansson dijo que apelar legalmente sobre el uso de su imagen para fines maliciosos se había vuelto inútil, pues no había logrado ningún resultado.

Aunque hasta entonces había contados videos deepfake que usaban la imagen de Johansson o de las actrices Gal Gadot o Daisy Ridley, la tendencia de sobreponer los rostros de alguien más sobre videos existentes, se volvió cada vez más popular. Hoy abundan los videos con la cara de Nicolas Cage en el cuerpo de Superman o de otros súper héroes, películas en las que nunca ha aparecido, y hay parodias que usan la imagen de otros actores como Steve Buscemi, Will Smith y Leonardo DiCaprio.

Hasta ahora, los resultados superficiales de Internet arrojan más videos deepfake de parodia o sátira que de pornografía. Sin embargo, el Pentágono de Estados Unidos y consultoras internacionales como Deloitte ya trabajan en estrategias para contrarrestar los videos falsos que representen algún tipo de amenaza. Por ejemplo, en 2018 se dio a conocer el video en donde Barack Obama pedía no confiar en los videos de deepfake, pero en realidad no era él, si no el director de cine Jordan Peele. Si hasta la imagen de un expresidente de Estados Unidos puede ser manipulada -aunque sea a modo de lección- en un video deepfake, ¿qué le espera al resto de la población y qué herramientas tenemos para evitar caer en la desinformación o ser víctimas del uso de nuestra imagen?



Los deepfake se realizan mediante machine learning, que es la ingesta de imágenes a un procesador, que, a través de un software utiliza el rostro de la persona para imponerse en otra de un video ya existente. Aunque hacer deepfakes todavía no es tan sencillo, los programas son cada vez más accesibles, explica Pepe Flores experto en derechos digitales y director de comunicación de la organización, R3D (Red en Defensa de los Derechos Digitales).

"El deepfake no es por sí mismo más que una técnica de edición, igual a photoshopear una imagen o editar un audio. Pero uno de los problemas con esto es la confianza que depositamos en los videos, porque son nuestra prueba última y a veces somos ajenos a la idea de que pueden ser manipulado. Se tiene esta percepción de que editarlo es caro y sofisticado. Desde las teorías de comunicación, el video requiere mucho menos esfuerzo interpretativo de nosotros", explica Flores en entrevista con Gatopardo.

Él no descarta que la edición del video sea un asunto de preocupación, como lo sería alterar una fotografía o una grabación, sin embargo, no cree que un deepfake se convierta automáticamente en una suplantación de identidad, porque se le adjudicaría un sesgo negativo. "Corremos riesgos respecto al discurso de lo que es legítimo. Otro de los retos es la alfabetización de las audiencias a poner en tela de juicio lo que vemos", opina el también maestro en Comunicación y Medios Digitales por la Universidad de las Américas de Puebla.

Los deepfake pueden evidenciar lagunas legales respecto a quién puede o no apelar legalmente sobre el uso de su imagen, pues las víctimas casi siempre son personas con una capacidad política amplia, pero no se considera a aquellos usuarios que no tienen ese tipo de poder para solicitar que se elimine el contenido generado, añade Alexandra Argüelles,  Encargada de comunicaciones de la organización no gubernamental Derechos Digitales en América Latina.

En México, el INAI publicó en 2018 una guía para el tratamiento de datos biométricos, que es el documento oficial más actualizado en México sobre este tema y que habla sobre la protección de datos de usuarios. Sin embargo, actualmente no hay marco legal que regule las implicaciones de los deepfakes.

“La figura del deepfake no se contempla en ninguna regulación actual. En septiembre Estados Unidos apenas va a aprobar una ley que contempla ese término, pero es lo que hay a la mano: una regulación que es de otro país. Aunque están estas propuestas, las discusiones no permiten estar al nivel o la velocidad con la que avanza la tecnología”, comenta Argüelles.

Pepe Flores de R3D dice que en México las propuestas para tener un marco jurídico que proporcione recursos legales se convierten en un sinónimo de judicializar o criminalizar. Por ello, los especialistas en derechos digitales coinciden en que los usuarios y demás actores involucrados en el uso de Internet discutan ampliamente entre ellos para no atropellar otros derechos humanos o dar controles a empresas privadas o al gobierno. Hasta ahora, algunas plataformas de redes sociales que cuentan con reproducción de videos, mantienen políticas que dan preferencia a los usuarios respecto al uso de su imagen y responden a la solicitud de borrarlos de los sitios.

"La forma en la que generamos mecanismos que nos permitan vivir de forma segura no puede recaer absolutamente en los usuarios. El sistema del Internet se compone también por los intereses de las empresas y del gobierno. La pregunta es, ¿dónde están todos estos actores cuando estamos pensando en que se ha identificado un problema más?”, cuestiona Argüelles de Derechos Digitales.



Las mujeres, más vulnerables

Los dos expertos en derechos digitales coinciden en que los fenómenos en línea no afectan de la misma forma a todos los grupos de la población. Para abordar el tema de los deepfakes se debe hacer desde una perspectiva de derechos humanos que incluye la de género.

Alexandra explica que todavía existe el desafío de fortalecer a las mujeres en términos de seguridad digital, porque hay una brecha de acceso que contempla una figura patriarcal en el uso de dispositivos tecnológicos y en educación. Es decir, el control de la tecnología casi siempre la tienen los esposos, parejas o familias de las mujeres y eso inhibe un acceso privado y autónomo

En abril se propuso modificar desde el Senado de la República la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia y del Código Penal Federal para sancionar hasta con 10 años de cárcel a quien comparta o publique información, datos, imágenes o videos de contenido sexual en línea. La iniciativa indica que millones de usuarias podrían ser víctimas de violencia digital a nivel nacional. A nivel global, el 73 por ciento de las mujeres vivió algún tipo de violencia en línea, según un informe de la Comisión sobre la Banda Ancha de la Organización de las Naciones Unidas de 2015.

También te puede interesar:

El primer asistente de voz libre de género

Chatbots, los nuevos asistentes

La sinfonía inconclusa

Síguenos en Twitter

Newsletter
¡Gracias!
Oops! Something went wrong while submitting the form.
No items found.