miércoles, diciembre 18, 2024
HomeDestacadasLa inteligencia artificial (AI) fomenta la discriminación y mantiene en la pobreza...

La inteligencia artificial (AI) fomenta la discriminación y mantiene en la pobreza a comunidades de color

  * La tecnología es un reflejo de los prejuicios humanos.

Los Ángeles, Ca.- La inteligencia artificial (AI) promueve y fomenta la discriminación, la inequidad, la pobreza y la mala salud en las comunidades de color porque refleja los prejuicios y la forma de pensar de sus creadores por lo que debe ser revisada desde el punto de vita digital y humano para corregir los errores que contiene, según coincidieron en señalar escritores y expertos en la materia.

Lo anterior se dió a conocer el pasado jueves 30 de Mayo en el Auditorio Mark Taper de la Biblioteca Central de Los Ángeles donde los investigadores en inteligencia artificial Meredith Broussard, Virginia Eubanks y Charles Senteio expusieron sus hallazgos en el tema durante la conferencia titulada “Decodificando Prejuicios: El Papel de la Inteligencia Artificial en las Tecnologías del Servicio Público y la Economía” que organizó la Fundación de la Biblioteca de Los Ángeles.

La escritora y directora de investigación en NYU for Public Interest Technology Meredith Broussard aseguró que las personas tienen prejuicios inconscientes que no los pueden ver, precisamente porque son inconscientes pero eso sí se refleja en los sistemas tecnológicos y en los algoritmos.

“Lo que sucede es que cuando tenemos un pequeño grupo de personas genio que crean la tecnología y los algoritmos, los datos y la información que les ponen reflejan sus prejuicios inconscientes y nosotros vemos que eso sucede una y otra vez en diferentes áreas de los servicios públicos”, resaltó. “Cuando vemos este tipo de prejuicios es porque el sistema lo recibió de alguien, entonces es un problema humano, no es tecnológico”.

La escritora Meredith Broussard.

En este punto, la también escritora sobre tecnologías y justicia social Virginia Eubanks intervino para agregar que las herramientas de los programas que tienen mucho apoyo social generalmente están digitalizadas muy similarmente.

“Por ejemplo la gente merece su cheque por lo que ha trabajado, entonces el objetivo de estas herramientas tecnológicas es; quien de ellos necesita castigo, quien necesita apoyo, quien necesita una corrección, quien necesita ajuste de las barreras”, aseveró. “Entonces las computadoras dan el resultado que las personas encargadas necesitan pero en base a la información que les ha sido proveída con anterioridad por personas con prejuicios inconscientes, hay algunas áreas donde se muestra que eso funciona en contra de los individuos pero en otras donde hacen un trabajo grandioso”.

“A nivel global, esas tecnologías no hacen un buen trabajo debido a que funcionan con estándares medios y muchos de nosotros que recibimos servicios públicos somos una parte aislada en alguna forma y es allí donde en muchas ocasiones cometen equivocaciones”, mencionó Virginia. “Y  eso sucede mucho en el área de Servicios Sociales y creo que eso pasa porque los modelos automatizados de las computadoras tienen algunos prejuicios como se mencionó antes”.

Por su parte, Meredith explicó que durante su investigación encontró que cuando estos sistemas de inteligencia artificial están siendo usados en el área de Servicios Públicos es para reducir y dificultar el acceso a esos servicios y no para expandir el acceso a ellos.

“Cuando se trata de razas, los sistemas de inteligencia artificial discriminan por defecto, mire estos sistemas y pensé que era lo que posiblemente podría estar mal y yo asumí que es la discriminación en una forma muy diferente”, afirmó. “Estoy asumiendo que esos programas hacen un trabajo maravilloso en prejuicios y en la toma de decisiones”.

“La toma de decisiones humana es bastante errónea y la toma de decisiones de la inteligencia artificial también es bastante errónea por consecuencia”, recalcó. “Entonces lo que necesitamos es hacer un chequeo, necesitamos controles digitales de comportamiento humano y controles digitales de comportamiento tecnológico”.

Meredith, quien reconoció que mucha de su inspiración viene del trabajo investigativo y literario que hace su colega Virginia Eubanks, destacó  un punto que considera muy importante y es la búsqueda de protección de derechos humanos, algo que dijo, surgió de la Casa Blanca, de la Oficina de Políticas de Ciencia y Tecnología.

“Se trata de un documento que toma los derechos humanos como marco de referencia para la formulación de políticas en torno a las toma de decisiones automatizadas, es la idea de que cuando ese sistema tome decisiones equivocadas o que van en contra de la persona, entonces usted tiene el derecho a una explicación, tenemos el derecho de ponernos en contacto con un ser humano de inmediato, quien tiene que creernos, de que en realidad es más que un problema técnico, esa es la oportunidad para mirar algo que va mal en la sociedad y tenemos el derecho de que eso sea corregido”.

“Pienso que eso es muy importante”, reiteró. “Porque repara las decisiones equivocadas de la computadora, por eso me encantó hallar esta política sobre la toma de decisiones de la inteligencia artificial”.

Virginia Eubanks indicó que en el área de beneficios públicos hay un proyecto muy bueno llamado Benefits Tech Advocacy Hub donde se creó una guía que nos ayuda a responder si se sospecha que la toma de decisiones automatizadas se ha utilizado especialmente si se le ha negado algún beneficio o servicios médicos necesarios.

La escritora e investigadora Virginia Eubanks.

“Si eso sucede, la persona afectada tiene derecho a pedir una audiencia y decirles que algo está equivocado con esa decisión, se debe actuar de inmediato y pedir que se mantengan sus beneficios”, comentó. “La oficina de Servicios Públicos va a mirar que está sucediendo”.

“Las audiencias nos permiten hacer preguntas sobre cómo y quien tomó la decisión o si la inteligencia artificial tomó la decisión y cómo trabaja ésta”, agregó Eubanks. “La cuestión aquí es que los recipientes de los beneficios de los servicios públicos no tienen una amplia información de como estas herramientas automatizadas nos impactan”.

También explicó que una de las investigaciones que realizó fue sobre el proceso de elegibilidad con inteligencia automatizada en los servicios públicos en Indiana en el año 2006 que ocasionó un millón de rechazos de beneficios públicos, agregó que se trata de un modelo estadístico que debería ser capaz de predecir cuales niños podrían ser víctimas de abuso o negligencia en el futuro, pero que por muchísimos años ha tenido problemas.

Indicó que en Los Ángeles en el año 2015 empezó la investigación con ritmos de combinación automática, que es un sistema muy sofisticado para hacer sondeos con inteligencia artificial en el área de vivienda.

“Ese sistema le permitió a los proveedores de servicios de vivienda evaluar la vulnerabilidad de las personas y hacer prioridades en las tomas de decisiones, esa inteligencia artificial le daba un puntuaje a cada persona y eso sucedió cuando el problema de los desamparados no era tan grande como lo es ahora y no había lo suficientes recursos para resolver eso”, expresó Eubanks. “Lo que aprendí de todo eso es que debe hacerse un tipo de idea digital porque no hay recursos suficientes para darles a todos casa y que la solución a un problema social no es dejar todo en manos de la AI”.

El Profesor asociado de Ciencias Informativas y Bibliotecarias de la Escuela Rutgers Charles Senteio subrayó que cuando la intuición y los prejuicios afectan las conductas y como se trata a los demás y eso se refleja en los algoritmos se pueden producir inequidades en las toma de decisiones incluyendo las que hacen los doctores sobre la salud, agregó que eso es algo que se debe de enseñar pero reconoció que todavía están aprendiendo si la tecnología hace más daños a las comunidades de color para poder encontrar soluciones.

Profesor Charles Senteio.

“Las personas deben ser más participativas cuando vayan al doctor, lleven una lista de preguntas sobre su salud y/o lo que les preocupa, que pidan ver su historial médico, hagan su propia investigación sobre diagnósticos y tratamientos a través del internet”, enfatizó. “Y cuando estén con el médico hablen sobre eso y díganle que es lo que quieren, porque los galenos también consultan la inteligencia automatizada y ese sistema solo ve un aspecto no ve el todo completo, se trata de protegernos de cualquier prejuicio que pueda ser prejudicial”.

Si usted o cualquier persona ha sido afectada por un incidentes de odio pueden reportarlo al Departamento de Derechos Civiles de California o se puede llamar al (833) 866-4283 o al 833-8-NO-HATE, de lunes a viernes de 9:00 a. m. a  6:00 p. m., fuera de ese horario, las personas pueden dejar un mensaje de voz o llamar al 211 para denunciar un incidente de odio y buscar el apoyo de un profesional capacitado.

Denuncia el odio llamando al  (833) 866-4283 o al 833-8-NO-HATE, se pueden realizar de forma anónima de lunes a viernes de 9 a.m. a 6 p.m.

Los reportes a la línea directa CA vs Hate, se pueden realizar de forma anónima llamando al (833) 866-4283 o al 833-8-NO-HATE, de lunes a viernes de 9 a. m. a 6 p. m.

Denuncia el odio llamando al (833) 866-4283 o al 833-8-NO-HATE, se pueden realizar de forma anónima de lunes a viernes de 9 a.m. a 6 p.m.

Información adicional en: https://www.cavshate.org/ (eligiendo español como idioma)

Nota: Este informe es parte de la serie de trabajos que desarrolla Impulso Newspaper con Stop The Hate (STH), gracias a la financiación proporcionada por el Estado de California y administrado por la Biblioteca del Estado de California (CSL) en asociación con el Departamento de Servicios Sociales de California y la Comisión de Asuntos Estadounidenses de las Islas Asiáticas y del Pacífico de California (CAPIAA).
RELATED ARTICLES

Most Popular

Recent Comments