Pagina web especializada en tutoriales para sony vegas pro, adobe after effects, adobe premiere pro, adobe photo shop y demás programas de edición, también materiales para tus vídeos como plugins, efectos, transiciones, plantillas, intros editables y mucho mas. Noticias de actualidad y tecnología. Estutos
Categorias: Actualidad

Yael Eisenstat, ex ejecutivo de Facebook: ‘Es injusto que los usuarios tengan que decir qué vídeo ha sido modificado’ | Tecnología


Yael Eizenstat lleva más de dos décadas luchando contra el extremismo y la polarización en las redes sociales. El estadounidense fue diplomático, analista de la CIA y la NSA y asesor del vicepresidente Joe Biden durante el segundo mandato de Barack Obama. También trabajó en el sector privado y se unió a Facebook en 2018 como directora de integridad electoral global, donde supervisó las políticas de publicidad política de la empresa. Esto fue justo cuando Escándalo de Cambridge Analyticauna consultora británica que utilizó datos de los perfiles de Facebook de 87 millones de estadounidenses para ofrecerles anuncios personalizados de campaña de Donald Trump en la campaña electoral de 2016. «Mark Zuckerberg (fundador y director ejecutivo de Facebook) testificó ante el Senado por primera vez en abril de 2018. La reunión duró cinco horas. Un minuto después de terminar, me hicieron una oferta final. Estaba muy claro por qué me necesitaban», recuerda.

Ocupó su cargo durante seis meses. Después de ver cómo operaba la empresa, se fue y habló públicamente sobre el fracaso de Facebook, luego rebautizado como Meta, para garantizar la integridad de las elecciones (es decir, no influir en los votantes con mensajes sesgados a pedido). Cuando le ofrecieron el puesto creyó que tenía «una oportunidad de ayudar a corregir la trayectoria de una empresa que juega un papel fundamental en una de las mayores amenazas que enfrenta la democracia». Estaba equivocado.

Desde entonces, esta californiana, que no quiere desvelar su edad, se ha dedicado a concienciar sobre el tema. Aizenstat es el director de políticas e impacto del centro de investigación. Ciberseguridad para la democracia. Asiste a EL PAÍS de Barcelona, ​​donde participa en I Encuentro Internacional sobre Derechos Digitales.

Preguntar. ¿Está la democracia mejor protegida de la influencia de las plataformas ahora que en 2018?

Responder. Creo que estamos en una situación diferente. En algunas áreas estamos peor. Las empresas que impulsan cada parte del discurso político y el debate en línea son incluso más poderosas que en 2018. Ahora también están incorporando inteligencia artificial (IA) en sus procesos, ya sea en sus algoritmos para clasificar información o permitir que se use para crear videos, audio o ediciones falsos. Al mismo tiempo, las grandes empresas han retrocedido en términos de seguridad y garantías. Zuckerberg dijo después de las últimas elecciones presidenciales de Estados Unidos que ya no revisarían el contenido y rescindió sus políticas de moderación del discurso de odio.

PAG. ¿Quién utiliza estas herramientas? En las elecciones de 2016 que catapultaron a Trump, se habló mucho de Rusia…

r. Es más complicado. Hay una amplia variedad de actores. Las mismas personas que utilizan estas plataformas por motivos negativos también pueden hacerlo por motivos positivos. Todavía hay actores estatales como Irán, China o Rusia que difunden propaganda, pero ahora también hay personas que simplemente quieren monetizar a la audiencia. Aprendieron que el algoritmo recompensa el contenido emocional, que a menudo está lleno de información errónea, odio y opiniones extremistas. El propio diseño de estas herramientas anima a las personas a utilizarlas de formas más extremas.

PAG. ¿Cuándo hizo la primera deepfakeseran claramente distinguibles. Ahora cuesta mucho más. ¿Qué impacto pueden tener en la democracia?

r. Es injusto esperar que las personas puedan mantenerse al día con las empresas. No podemos asumir que la responsabilidad de determinar qué vídeo se ha procesado recaiga exclusivamente en los usuarios. Incluso yo, al haberme dedicado a esto, he caído varias veces en la trampa de los vídeos generados por IA. Necesitamos que las empresas establezcan restricciones básicas, como etiquetar el contenido generado por IA o aclarar el origen del contenido. El problema es que ofrecen productos rápidos, gratuitos y interesantes, y mucha gente no comprende las consecuencias. Nosotros, como sociedad, debemos decidir no darle tanto poder a unas pocas personas en Silicon Valley sin ninguna responsabilidad.

PAG. ¿Es realista intentar responsabilizar a las grandes empresas tecnológicas dado el poder económico y político que acumulan?

r. Eso espero. Esta es la industria más poderosa de la historia. Pero creo que cuanto más se dé cuenta la gente de que están siendo manipuladas, más exigirán un cambio. No estoy abogando por destruir estas empresas, sino más bien por crear un producto más seguro a través de regulaciones e incentivos financieros, como se ha hecho con las industrias del tabaco o del automóvil: es necesario que haya pruebas básicas de seguridad y transparencia verificable. Eso es todo lo que pedimos.

PAG. ¿Crees que necesitamos que suceda algo realmente malo, como otro Cambridge Analytica, para llegar a este punto?

r. Depende de lo que entiendas por algo malo. Recientemente hemos visto cambios importantes en los Estados Unidos con respecto a la seguridad de los niños en línea. Cada vez más padres ven cómo estos sistemas explotan a sus hijos mediante el desarrollo de algoritmos y denuncian que no quieren que esto le pase a sus familias. dos frases de hace un mes y medio (que concluyó que Meta era culpable de engañar a los consumidores sobre la seguridad de sus plataformas y crear adicción entre los menores) fueron muy importantes. Pudieron demostrar que el problema no es la libertad de expresión, que está protegida en Estados Unidos. La cuestión es que el propio diseño de las redes ha hecho que los niños sean dependientes. Este es un problema de seguridad para el propio sistema.

PAG. El discurso de odio y el extremismo son recompensados ​​por los algoritmos de la plataforma, ya que generan más interacciones. ¿Cómo se puede romper esta lógica?

r. Por eso hablo de diseño. El discurso de odio no es ilegal en Estados Unidos. Sé que es un gran shock en Europa (risas); En mi país, la difusión de la propaganda nazi está protegida por la libertad de expresión. Lo llamamos «espeluznante pero legal» (terrible pero legal). No estoy diciendo que una empresa deba ser considerada responsable si alguien publica teorías de conspiración. Lo que me preocupa es qué hay en el modelo de negocio que incentiva a la gente a hacer esto. No se trata del discurso en sí, sino de lo que hacen las empresas para utilizar tus datos personales para mantenerte conectado al sistema.

PAG. Entonces, ¿deberíamos cambiar este modelo de negocio? ¿Cómo?

r. Sí. Todo el modelo se basa en la capacidad de tomar nuestros datos y personalizar nuestra experiencia. Este es un mecanismo increíblemente importante que debe abordarse. A menudo me preguntan si Zuckerberg influyó en las elecciones de 2016. Creo que esta es la pregunta equivocada. Debemos cambiar el hecho de que hemos permitido que una persona acumule tanto poder sobre cómo entendemos la información, con el potencial de influir en las elecciones sin rendir cuentas. Es un poder incontrolable que nadie debería tener.

Rate this post
Edwin Sevillano

Hola! soy edwin, espero poder apoyarte y brindarte las herramientas necesarias para tu recorrido en este mundo audiovisual.

Leave a Comment
Compartir
Publicado por
Edwin Sevillano

Nuevos articulos

Sam Altman en el juicio de OpenIA da testimonio de millones, poder y dominio: «Elon Musk sólo trabajará en aquellas empresas que él controle por completo»

Dos semanas después del juicio mediático que enfrentó a dos grandes gigantes de Internet, Elon…

1 día hace

El CEO de Microsoft defiende el ‘riesgo’ que asumió al invertir en OpenAI | Tecnología

Satya Nadella, director ejecutivo de Microsoft testificó este lunes que su empresa "se arriesgó" a…

2 días hace

El impacto de los vídeos de inteligencia artificial en los niños: vacas realistas bailando, tigres saliendo de huevos

YouTube, TikTok e Instagram se enfrentan a una avalancha de contenido generado por IA dirigido…

2 días hace

Clara Chappaz, embajadora digital de Francia: “Estamos al borde del fin del Lejano Oeste digital”

Clara Chappas (París, 1989) es la embajadora de Francia para las Tecnologías Digitales y la…

5 días hace

¿Cuál es el talón de Aquiles de las Big Tech?

En California, un movimiento ciudadano de base iniciado por un pequeño grupo de vecinos contra…

6 días hace

La UE acuerda prohibir los modelos de inteligencia artificial que permiten deepfakes sexuales

La UE limitará la capacidad de generar contenidos sexuales ofensivos utilizando inteligencia artificial (IA): el…

7 días hace

Esta Web utiliza cookies.