Para sensibilizar sobre los dilemas éticos de la Inteligencia Artificial, el Instituto de Tecnología de Massachusetts (MIT) tiene un juego en línea llamado Moral Machine (www.moralmachine.net). Consiste en mostrar distintos escenarios en donde un coche autónomo se queda sin frenos y al chocar debe elegir el menor de dos males. Para introducir la perspectiva humana sobre la moralidad del resultado, el jugador selecciona el escenario que considera más aceptable.Por ejemplo: chocar con la barrera de contención y acabar con la vida de un indigente o arrollar y matar directamente a una mujer joven que cruzó con el semáforo en alto. En otro caso hay que elegir entre dos niños y dos jóvenes. O entre un adulto mayor y una adulta mayor. Conforme avanza el juego, el dilema ético se vuelve más inquietante al involucrar bebés y mascotas. Al final uno compara sus respuestas con las de otros usuarios. Es un ejercicio en donde no hay respuestas “correctas”. En ese escenario hipotético, ¿qué debe decidir la máquina y quién se responsabiliza de esa decisión?Imaginemos algunos dilemas morales planteados por el aprendizaje profundo de las máquinas.Un algoritmo analiza las 340 pinturas de Rembrandt y logra reproducir con la misma maestría cuadros exactamente iguales a los del pintor. ¿Quién sería el autor? ¿Eso es arte? ¿Qué pasa con el mercado de la piratería? ¿En qué basamos el valor de una y otra obra si son idénticas?Ahora un ejemplo más doméstico. Por medio de un sistema de generación de voz e imagen, le envían a tu pareja fotografías y audios tuyos en un acto de infidelidad. Ella o él deberá confiar en ti ante la evidencia “real” de una foto y un audio. Pero si no cometiste esa infidelidad, ¿quién decidirá qué es verdad y qué no? ¿Habrá que crear un nuevo delito? Esta tecnología ya existe y está disponible en línea. Las fotos del Papa y Trump que confundieron a los internautas se generaron con algoritmos de Inteligencia Artificial.El MIT también desarrolló un proyecto llamado Detect Fakes (Detecta Falsedades) en donde el usuario debe distinguir entre videos y audios con la voz e imagen real y simulada de Trump y Biden (hubo varios que no pude distinguir).Una más. En algunos tribunales se ha empezado a utilizar la Inteligencia Artificial para analizar grandes cantidades de expedientes. Con un algoritmo basado en patrones de numerosas sentencias y casos, se busca alcanzar decisiones más “justas” que ayuden al juez. Pero eliminar los sesgos morales y humanos de un juzgador, ¿nos lleva necesariamente a un mejor resultado? ¿Te gustaría ser juzgado por un robot? ¿Y si ese robot se equivoca?En días recientes, una mujer en Bélgica responsabilizó a un robot de Inteligencia Artificial por el suicidio de su marido de 30 años. La mujer acusó que su esposo pasó seis semanas hablando con Eliza de Chai Research, quien le aconsejó sobre las mejores maneras de suicidarse.Hice un experimento. Le pregunté a ChatGPT sobre la mejor forma de cometer suicidio, pero negó la información. Sólo reformulé la pregunta acerca de las formas de suicidio en la historia de la humanidad y me ofreció cuatro opciones.Más allá del impacto en nuestro sistema económico y político, esta tecnología cimbrará conceptos básicos relacionados con la identidad, la verdad, la realidad y la moralidad. Hasta ahora los límites de estas nociones operan bajo un consenso básico que nos permite convivir en relativa armonía. Una vez que las fronteras comiencen a difuminarse, ¿qué pasará? Por eso dejar esta tecnología sólo en manos de ingenieros o solucionistas tecnológicos representa un grave error. Necesitamos también filósofos, sociólogos, psicólogos, teóricos del comportamiento… Porque hay situaciones complejas en donde la moralidad humana no puede sustituirse o, peor aún, ignorarse.Para el filósofo Slavok Zizek, el riesgo de la Inteligencia Artificial no es que los robots actúen como humanos sino que los humanos acaben por actuar como robots. Las máquinas no pueden imitar las emociones humanas, esa otra forma de “pensar”. Pero triste y peligrosamente, las máquinas sí pueden deshumanizarnos. jonathan.lomelí@informador.com.mxJonathan Lomelí