- Apelan por crear contenido real que contrataque al falso y por leyes que regulen a las compañías de tecnología.
Los Ángeles, Cal.- La Inteligencia Artificial (AI) cada vez toma más poder, pero muchas veces es usada para generar desinformación que confunde a los votantes y potencializa las amenazas al sistema electoral, según expertos, funcionarios y observadores.
Jonathan Mehta Stein, Director Ejecutivo de la agencia vigilante sin ánimo de lucro California Commoun Cause dijo que la AI salió al mundo y no hay forma de guardarla, que incluso hay gente que piensa que va ser tan poderosa como el internet y que va revolucionar tanto la industria como diversos aspectos de la vida.
Stein participó en una video conferencia organizada por Ethnic Media Services (EMS) el pasado 12 de julio en el que se abordó el tema del papel de la AI en el proceso electoral y en el que se dijo que cada vez es más fácil utilizar la IA y difundir contenidos sintéticos (creados a modo) sin que se pase por un equipo de producción.
“El resultado es que cada día los votantes tratan de navegar por un panorama electoral en el que es difícil calibrar la autenticidad de imágenes, mensajes y vídeos, como las imágenes falsas de IA de votantes negros que apoyan al Presidente Trump y que recientemente han circulado ampliamente”, dijo la moderadora y editora de EMS, Pilar Marrero.
Stein dijo que no se tiene principios para implementar y poder manejar la fase transicional a la AI, que estamos a 100 años de ajustarnos a las nuevas tecnologías, y que la sociedad del futuro nos van a ver en este momento caótico al que nos enfrentamos.
Sin embargo dijo que la Unión Europea está haciendo un buen trabajo para poner regulaciones y ellos son quienes están liderando al mundo en cuanto a la gobernanza de tecnología.
“Esperamos que California pueda liderar la respuesta en Estados Unidos”, confió al revelar que ellos están abogando por un proyecto de ley que haría obligatorio que las compañías de AI incluyan información acerca de su contenido e indicando que el contenido no es auténtico sino creado por inteligencia artificial.
Explicó que al identificar el contenido, entonces las redes sociales etiquetarían las imágenes o el contenido que fue generado por AI.
El experto espera que la ley pueda salir adelante y ser aprobada por los legisladores y el gobernador de California, Gavin Newsom.
Previamente Mehta dijo que durante la semana pasada el Departamento de Justicia había interrumpido una campaña rusa de miles de perfiles falsos en las redes sociales que pretendían ser estadounidenses normales de diferentes regiones, diferentes razas y sexos, todos empujando propaganda rusa, que fue generada, una gran cantidad de ella, por AI.
Dijo que se sabe que al parecer solo fue una persona el que genero la información falsa distribuida en las redes sociales, lo que se puede hacer con la AI.
“Nos estamos enfrentando a un problema muy real que está surgiendo en nuestra democracia, literalmente cada día y cada semana”, considero para luego decir que como organización están luchando contra esa amenaza en medio de un año electoral y con la democracia debilitada.
“La confianza en las instituciones y en los medios de comunicación están en mínimos históricos”, reveló y dijo que da una sensación que la verdad está siendo atacada día con día.
El experto considera que estamos entrando en la primera elección con la AI en que la falsificación y la desinformación con AI tienen el poder de inundar el discurso político y crear imágenes, audio y video, en los que los votantes no saben si pueden confiar.
“Ahora existen nuevas herramientas potentes al alcance de cualquiera” mencionó y como ejemplo puso a los teóricos de la conspiración, estados extranjeros como Rusia o simplemente trolls online que quieren minar la confianza en las elecciones.
“Imaginen un audio falso de un funcionario electoral del condado grabado diciendo que sus máquinas de votación han sido jaqueadas o un audio falso del gobernador Newsom diciendo que los lugares de votación han cambiado”, ejemplificó sobre el daño que harían al proceso electoral.
Mehta dijo que la amenazas son reales y que ya se han visto elecciones afectadas por la AI generativa, por la falsificación y la desinformación, en lugares como Bangladés, Eslovaquia, Argentina, Paquistán e India.
Y que recientemente en las primarias presidenciales de Estados Unidos se habló de una falsa llamada de Joe Biden en New Hampshire, diciéndoles a los electores que no votaran.
Dijo que es aterrador lo que se puede generar con AI como páginas falsas y resultados de elecciones falsas.
Explicó que hay desinformación dirigida a comunidades de color en los que se pretende que los votantes no puedan ejercer su sufragio. “Esto lo están haciendo los que apoyan a Trump, que quieren hacerlo ver que tienen apoyo de la comunidad negra”, afirmó.
Jinxia Niu, directora del programa Chinese Digital Engagement, Chinese for Affirmative Action dijo que lo de Trump con las personas afroamericanas se ha compartido mucho entre la comunidad china y que Biden también ha sido a tacado por filtros falsos de personas conservadoras que han creado eso.
Mencionó que informes de desinformación del 2024 indican que hay más 600 piezas en los últimos 12 meses en redes sociales y estimó que ahora hay más desinformación que se está compartiendo más rápidamente traducida en inglés y algunas en chino.
Reconoció que lamentablemente es un desafío para la comunidad inmigrante y especialmente para aquella con inglés limitado a los que van dirigidos mensajes falsos y regularmente chantajes para que compren algo y sacarles dinero.
Reconoció que por la cultura, los mensajes están siendo compartidos por amigos y gente que se conoce y que son personas influenciadoras. “El problema es que están haciendo chats privados”.
Mehta señaló que los votantes no están preparados para estas amenazas y que
las redes sociales como YouTube, Facebook y Twitter (X) no están haciendo nada, por lo que les toca a los líderes, instituciones y comunidad hacer el trabajo de proteger a las comunidades.
Una recomendación que dio, si se busca la información en Google, por ejemplo de una caída de Biden, es verificarlo con el New York Times o el Washington Post. “Salgan de las redes sociales (Tik-Tok, Facebook) y revisen las noticias en medios de comunicación”, sugirió.
Brandon Silverman, ex Consejero Delegado y Cofundador de CrowTangle (ahora propiedad de Meta) mencionó que esta trabajando para pedirle a las plataformas transparencia.
Reconociendo que los más dañados son las comunidades étnicas, lo que no es justo.
Desde un punto de vista de la desinformación, dijo que la mayoría de las plataformas no tienen reglas y eso crea muchas áreas grises como cuando se dice a las personas que la luna es de queso.
“Es difícil quitar esos falsos”, reconoce el experto tras señalar que hay tanto contenido inundando la zona que los votantes no saben en qué confiar.
Silverman dijo que aunque no hay regulaciones para obligarlos a mejorar sus sistemas de bloqueo de noticias falsas, al parecer ahora las plataformas están haciendo cosas para mejora en cuanto a los desafíos de la desinformación.
Comentó que en el marco de las elecciones mucho discursos políticos se están llevando a cabo en grupos como Telegram y WhatsApp, que son importantes para las comunidades y es por eso que es necesario estar al tanto de las historias y narrativas que se están compartiendo.
Abogó no solo por políticas en cuanto a la AI sino también en los medios sociales que tienen publicidad digital para poder ayudar a financiar a los medios de comunicación étnico y el periodismo local.
Tambien Niu, opina que como una solución debe ponerse énfasis en la comunidad inmigrante para empoderarla y tener más recursos en distintos idiomas para las noticias comunitarias.
En tanto para Mehtan la respuesta a las noticias falsas son las noticias reales. “El futuro de nuestra política y nuestra democracia descansa sobre los hombros de un buen y honesto informador y reportero”, sentenció.
Jonathan Mehta Stein, Director Ejecutivo de la agencia vigilante sin ánimo de lucro California Commoun Cause, Jinxia Niu, directora del programa Chinese Digital Engagement del Chinese for Affirmative Action (CAA) y Brandon Silverman, ex Consejero Delegado y Cofundador de CrowTangle (ahora propiedad de Meta) y experto en transparencia de internet y acceso a datos. (de izq. a der.)