jueves, noviembre 21, 2024
HomeEducaciónLa Inteligencia Artificial basada en los datos, sirve pero hay que ponerle...

La Inteligencia Artificial basada en los datos, sirve pero hay que ponerle límites

*Los jóvenes tienen que saber que usarla totalmente en sus reportes puede no ser lo más conveniente a la hora de buscar trabajo, indica experto.

Por Mireya Olivera

Los Ángeles, Cal.- Al hablar de Inteligencia Artificial (AI) hay muchas preguntas por responder, lo cierto es que está sí contribuye al desarrollo del hombre, pero también afecta si no es usada correctamente, indicaron un grupo de expertos al hablar sobre el tema que está en la mesa de debates en la era de internet y del uso de los datos.

Recientemente Sam Altman, director ejecutivo del chatbot de inteligencia artificial ChatGPT, fue citado por el Congreso para explicar el impacto de la inteligencia artificial señalando que su peor temor es causar un daño significativo al mundo.

Ethnic Media Services (EMS) señala que en el último año se ha hablado mucho de la Inteligencia Artificial, una tecnología en rápida evolución que lleva décadas investigándose.

“Hemos asistido a la presentación de chatbots que escriben artículos científicos, informes jurídicos legales y noticias, provocando escalofríos a todos los científicos, abogados y periodistas. Pero, ¿deberíamos preocuparnos?”.

“Por otra parte, hay quien sostiene que, si se utiliza adecuadamente, la IA puede suponer una revolución para la educación, el periodismo, la ciencia y otras áreas del conocimiento humano”.

La presidenta de la FTC, Lina Khan, dijo recientemente que la IA puede aportar innovaciones críticas, pero también “turbo alimentar el fraude y automatizar la discriminación”, indicó EMS, quien realizó una video conferencia el pasado 5 de mayo con un panel de 3 expertos de IA.

Entre ellos, Héctor Palacios, Científico investigador en ServiceNow Research, quien trabaja en investigación fundamental y aplicada sobre Inteligencia Artificial (IA) en la intersección del razonamiento y el aprendizaje automático (ML),  el investigador Chris Dede, de la Escuela Superior de Educación de Harvard y Director Asociado de Investigación del Instituto Nacional de IA para el Aprendizaje de Adultos y la Educación Online y Sean McGregor, creador de la base de datos de incidentes de Inteligencia Artificial (AI) y doctor en aprendizaje automático, además de fundador de Responsible All Collaborative y asesor técnico de IBM Watson AI XPRIXE. 

Chris dijo que los escritores de ciencia ficción llevan medio siglo pensando y escribiendo sobre la IA y que nosotros estamos empezando a pensar en sus fortalezas y problemas.

“Si queremos generalizar hay dos tipos de AI”, dijo al comparar la primera con un actor independiente sin control de los seres humanos y que típicamente se mete en muchos problemas.

“Es como lo que vimos en la película 2001: Una odisea del espacio, cuando la IA enloquece y empieza a matar astronautas y hay otra que es cuando la AI es un compañero y un aliado, como lo que vimos en la película Star Trek: The Next Generation, donde tenemos al Capitán Picard, el sabio capitán humano de una nave estelar, y luego tenemos a Data, que parece una persona, pero en realidad es un androide-una máquina que está basada en AI-, y la complejidad de su relación.

Data es capaz de absorber enormes cantidades de datos en cuestión de un segundo, y hacer lo que se llama reckoning, que es predicción calculativa para hacer pronósticos de diferentes tipos. Picard tiene una especie de sabiduría aplicada al juicio, y utiliza las predicciones calculadoras de Data para ayudarle a tomar buenas decisiones.

El experto dijo que hay especialistas cancerólogos que tienen ayuda de AI de lo que no pueden hacer como revisar 1,500 récords similares de pacientes que están teniendo tratamientos similares. “Pero nunca yo quería que la AI tomara las decisiones porque la AI no sabe sobre dolor, profundidad y muerte, no sabe de las distintas culturas y de las familias que se verían afectadas con la muerte. AI no sabe de eso, no es una inteligencia humana sino alienada, distinta”, aclaró.

“Las personas hacen lo que hacen y la AI hace lo que tienen que hacer, y la combinación es el resultado de cosas que no se podrían hacer individualmente”, detalló al decir que AI ayuda a tener carreras productivas, ayudando en asistencia a los instructores y da asistencia a los líderes.

“Yo puedo ser un mejor mentor que antes porque la AI va ser cosas rutinarias que las tenía que hacer yo”, comentó.

Chris dijo que la idea es que la AI les permita a los seres humanos hacer cosas mejores, como lo fue la Revolución Industrial o la Revolución Agrícola.

Señaló que él personalmente, al contrario de un AI “malévolo,  la ve como un asistente útil. “En una sociedad prejuiciosa siempre va dar esa imagen en el espejo y debemos vernos a nosotros mismos y cambiar eso”, opinó.

Respecto de cómo prevenir que los estudiantes solo vayan a ChatGPT y copien sus reportes dijo que toma 5 minutos de su clase para hablarle a sus alumnos y discutir sobre el Al generativo.

“Les digo, ‘ustedes pueden ir y usarlo pero algún día van a salir a un trabajo y les van a pedir una tarea o actividad. Lo que va pasar es que de después de que produzcan su plan de mercado si no es mucho mejor que la AI- que la compañía toma y gratis- la empresa no los va a contratar”.

Por eso comentó que se debe usar la AI como socio no como sustituto. “Estoy oyendo que gente está usando AI para cartas de recomendación y eso es horrible. AI no sabe de la persona”, abundó y dijo que los estudiantes deben entender que si hacen trampa con AI ellos se están engañando.

Y reconoció que AI no tiene cultura, no puede entender la familia porque no tiene familia y no puede entender de la muerte y el cuerpo sino tienen cuerpo. “Usted no puede entender de conceptos éticos sino tiene moral y AI no puede sobre pasar eso porque está rodeado de techos y paredes de vidrio, referenció sobre la AI.

Explicó que la AI se alimenta limitadamente de los dato que se le suministran.

“La Inteligencia quiere decir crear algo más allá de lo que se le da. Cuando decimos que alguien hace algo inteligente es sumar algo de lo que se ha dado, en este momento AI no puede hacer eso, aclaró.

AI puede hacer cosas impresionantes porque puede tomar todo de internet a diferencia de lo que yo sé, pero está limitado y se va a volver conocedor y tener una conciencia y decidir deshacerse de los seres humanos ¿cómo dice la película de Terminator? No, pero la gente se va a beneficiar. Sí”, afirmó.

Pero dijo que AI no tienen un entendimiento de las acciones y consecuencia y entendimiento ético y por eso se tienen que poner límites porque se pueden hacer cosas estúpidas si le entrega a un sistema de manipulación.

Y reconoció que no es la IA la que está afectando la educación sino que somos nosotros.

Para McGregor, en un mundo que cambia rápido en cuestión de tecnología tenemos que prestar atención y tomar en cuenta eso, porque la sociedad ha tenido problemas con los cambios que se dan con la información y es en eso que debemos trabajar juntos.

Reconoció que hay muchos estudios que muestran sesgos raciales y de género en los datos que se introducen en la IA. “No cabe duda de que hay problemas importantes en los datos. Pero creo que también tenemos que ver el sistema completo”, opinó.

Y comparo la situación mencionando que pensemos en que los datos en sí son perfectamente imparciales y producen y pueden producir un sistema de buen rendimiento. “Queda la pregunta de ¿en qué se fija la cámara? El contraste, ¿va a ser más claro o más oscuro, lo que cambia el rendimiento del sistema para las personas con diferente tono de piel que está completamente fuera del alcance de lo que los datos están expresando?

Pero hay un ingeniero que está tomando una decisión. Se trata de quién tiene el poder de tomar esa decisión, de girar el mando para que funcione mejor en unas condiciones u otras, y el problema que tenemos a menudo es que hay alguien sentado en un asiento de ingeniero que toma esas decisiones. Incluso si todo el mundo tiene buenas intenciones, el resultado final puede ser sesgado”, admitió sobre el caso del sesgo racial.

Admitió que la confusión puede ser un tema brutal y mencionó un caso en el que una mujer fue encarcelada luego de que la traducción fue hecha mala por la IA y equivocó una simple palabra que indicaba un ataque.

“Necesitamos realmente que no le hagamos daño a la sociedad y poder colaborar para que la IA nos beneficie a todos y que la experiencia no sea problemática”.

Una crítica de la IA y activista digital, Joy Buolamwini, revela en un video que la Al, IBM, Microsoft, Amazon y otras organizaciones toman decisiones y muchas veces olvidan entender el género y color de las personas.

Como ejemplo toma los perfiles de Michel Obama, Opha y Serena Williams, y como las computadoras no pueden identificarlas correctamente mostrando su género como si fueran hombres.

“Cuando hablamos de IA, es importante que usemos la IA para empoderar las fuentes de nosotros los humanos y no lo contrario”, manifiesta.

Por su parte Palacios dijo que antes, cuando veíamos un texto o un correo electrónico, podíamos decir con confianza: “Ah, sí, lo ha escrito un ser humano”. Pero ya no es así. Ahora tenemos máquinas que pueden generar texto, lo que significa que si tengo dinero, puedo generar un texto que con eso pueda conseguir dinero, o para desinformar o manipular. Puedo una pieza para la polarización.

Entonces la pregunta es qué hacemos con esto: ¿abrimos lo que nos da la gana o somos precavidos al respecto? Y la respuesta es que probablemente ambas cosas sean correctas”.

Héctor Palacios, Científico investigador en ServiceNow Research, quien trabaja en investigación fundamental y aplicada sobre Inteligencia Artificial (IA) en la intersección del razonamiento y el aprendizaje automático (ML), El investigador Chris Dede, de la Escuela Superior de Educación de Harvard y Director Asociado de Investigación del Instituto Nacional de IA para el Aprendizaje de Adultos y la Educación Online, Sean McGregor, creador de la base de datos de incidentes de Inteligencia Artificial (AI) y doctor en aprendizaje automático, además de fundador de Responsible All Collaborative y asesor técnico de IBM Watson AI XPRIXE y Joy Buolamwini, la activista digital revela en un video que la Al, IBM, Microsoft, Amazon y otras organizaciones toman decisiones y muchas veces olvidan entender el género y color de las personas (De izq. a der. y arriba hacia abajo).
RELATED ARTICLES

Most Popular

Recent Comments