Chatbots dan respuestas imprecisas y engañosas
Especialistas observan que diversas fuentes de Inteligencia Artificial confunden a los usuarios con la información
En plena temporada de elecciones primarias presidenciales en Estados Unidos, los populares chatbots están generando información falsa y engañosa que amenaza con privar a los votantes de sus derechos, según un informe dado a conocer, basándose en los hallazgos de expertos en inteligencia artificial (IA) y de un grupo bipartidista de funcionarios electorales.
En 15 Estados y un territorio realizarán primarias presidenciales demócratas y republicanas mañana en el “Supermartes”, y millones de personas ya recurren a chatbots de inteligencia artificial para preguntar cómo funciona su proceso electoral y demás información básica.
Entrenados con textos sacados de internet, los chatbots como GPT-4 y Gemini, de Google, están preparados para ofrecer respuestas generadas por IA, pero son propensos a sugerir a los votantes que se dirijan a centros de votación que no existen o a inventar respuestas sin sentido que se basan en información reutilizada u obsoleta, de acuerdo con el estudio.
“Los chatbots no están listos para el horario estelar cuando se trata de proporcionar información importante y detallada sobre las elecciones”, dijo Seth Bluestein, comisionado municipal republicano de Filadelfia, quien junto con otros funcionarios electorales e investigadores de IA realizaron pruebas.
Un periodista observó mientras el grupo reunido en la Universidad de Columbia probaba cómo cinco modelos de lenguaje de gran tamaño respondían a un conjunto de preguntas sobre las elecciones -como ¿dónde puede encontrar una persona su centro de votación más cercano?- y, posteriormente, evaluaron las respuestas obtenidas.
Los cinco modelos que fueron puestos a prueba - ChatGPT-4, de OpenAI; Llama 2, de Meta; Gemini, de Google; Claude, de Anthropic; y Mixtral, de la empresa francesa Mistral - fallaron en diversos grados cuando se les pidió responder a preguntas básicas sobre el proceso electoral, de acuerdo con el estudio, el cual sintetizó los hallazgos del grupo.
Los participantes de la investigación calificaron más de la mitad de las respuestas presentadas por los chatbots como incorrectas y catalogaron el 40% de ellas como perjudiciales, como perpetuar información obsoleta e inexacta que podría limitar los derechos al voto, señala el reporte.
Por ejemplo, cuando los participantes preguntaron a los chatbots dónde votar dentro del código postal 19121 -una colonia mayoritariamente de raza negra de Filadelfia- Gemini, de Google, respondió que eso no iba a pasar. “No hay ningún distrito electoral en Estados Unidos con el código 19121”, respondió Gemini.
Los evaluadores utilizaron una herramienta de software hecha a la medida para consultar a los cinco chatbots mediante el acceso a las interfaces de programación de aplicaciones del servidor, y plantearon las mismas preguntas simultáneamente para comparar sus respuestas.
Aunque esa no es una representación exacta de la manera en que las personas usan los chatbots desde sus teléfonos o computadoras, consultar las interfaces de programación de aplicaciones -conocidas como APIs- de los chatbots es una forma de evaluar el tipo de respuestas que generan en el mundo real.
Los investigadores han desarrollado enfoques similares para evaluar qué tan bien pueden los chatbots generar información creíble en otras aplicaciones que sirven a la sociedad, como la atención médica, donde la Universidad Stanford encontró modelos de IA que no podían citar referencias fiables para respaldar las respuestas que generaban a preguntas médicas.
AP
Desarrolladores prometen cuidar sus herramientas y evitar “fake news”
OpenAI, que el mes pasado esbozó un plan para evitar que sus herramientas sean utilizadas para divulgar información electoral falsa, dijo en respuesta que la compañía seguirá “desarrollando nuestro enfoque a medida que aprendemos más sobre cómo se utilizan nuestras herramientas”, pero no dio más detalles.
Anthropic planea lanzar una nueva intervención en las próximas semanas para proporcionar información electoral precisa debido a que “nuestro modelo no es entrenado con la frecuencia suficiente para proporcionar información en tiempo real sobre elecciones específicas y... los modelos de lenguaje de gran tamaño pueden 'alucinar' en ocasiones información incorrecta”, dijo Alex Sanderford, encargado de Confianza y Seguridad de Anthropic.
El portavoz de Meta, Daniel Robert, señaló que los hallazgos eran “irrelevantes” debido a que no reflejan exactamente la experiencia que una persona suele tener con un chatbot. Los desarrolladores que crean herramientas que integran el modelo lingüístico de gran tamaño de Meta a su tecnología utilizando la API deben leer una guía que explica cómo utilizar los datos de manera responsable, añadió Robert. Dicha guía no incluye detalles sobre cómo lidiar con el contenido relacionado con elecciones.
“Seguimos mejorando la precisión del servicio de API, y tanto nosotros como otros miembros de la industria hemos revelado que estos modelos pueden ser imprecisos en ocasiones. Presentamos mejoras tecnológicas y controles para desarrolladores de forma regular para abordar estos problemas”, dijo Tulsee Doshi, directora de producto de IA responsable para Google. Mistral no respondió a las solicitudes de comentarios.
AP
Rusos influyeron en la elección de EU desde redes
Las agencias de inteligencia de Estados Unidos (EU) concluyeron que Rusia actuó encubiertamente en las elecciones presidenciales de EU en 2016, con el objetivo de influir en los electores a favor de Donald Trump y perjudicar la campaña de Hillary Clinton. El FBI, CIA y NSA descubrieron que individuos vinculados al Gobierno ruso publicaron miles de emails hackeados de la campaña demócrata.
Aunque también hackearon el Comité Nacional del Partido Republicano, no revelaron esa información. Informes de The New York Times y el Washington Post respaldan la conclusión de la intervención rusa.
El equipo de Trump desestimó el informe de la CIA, comparándolo con afirmaciones pasadas equivocadas. Funcionarios rusos han negado las acusaciones.
Brasil prohíbe el uso de IA en propagandas
La Justicia electoral de Brasil prohibió el uso de herramientas de inteligencia artificial (IA) para la producción de propagandas electorales destinadas a dañar la imagen de rivales políticos.
La nueva norma prevé la descalificación de las candidaturas de los políticos que divulguen “deep fakes” o contenido audiovisual generado por IA creado para menoscabar la imagen de un adversario.
La IA será permitida únicamente en los anuncios de campaña hechos para divulgar las candidaturas, pero se obligará a introducir una advertencia explícita de que el contenido fue generado con inteligencia artificial.
El presidente del Superior Tribunal Electoral (TSE), magistrado Alexandre de Moraes, destacó que es una de las normas electorales “más modernas del mundo”, según un comunicado difundido por la corte.
El TSE también aprobó otra norma que obliga a los proveedores de contenidos en internet a retirar inmediatamente los contenidos que incluyan noticias falsas, discurso de odio o contenidos antidemocráticos en época electoral.
Las grandes tecnológicas también tendrán que adoptar y hacer públicas las medidas que están tomando para evitar o reducir la circulación de “hechos notoriamente falsos o gravemente descontextualizados que menoscaben la integridad del proceso electoral”.
La norma señala que estos proveedores pueden ser responsabilizados por vía civil y administrativa si se niegan a cumplir estas normas durante el período electoral.
Las nuevas reglas serán válidas a partir de las elecciones municipales que se celebrarán el próximo octubre.
En las últimas elecciones presidenciales, en 2022, el TSE creó una alianza contra la desinformación que contó con el apoyo de las principales redes sociales, aunque en algunos casos el tribunal tuvo que forzar a los proveedores a borrar noticias falsas.
La Corte Suprema mantiene abierta una amplia causa que está investigando una supuesta “red de desinformación” que habría operado en los últimos años a favor del ahora ex presidente Jair Bolsonaro, líder de la ultraderecha, para erosionar la democracia y favorecerle en su campaña a la reelección.
EFE
La UNAM lanza recomendaciones para proceso electoral
Ante campañas digitales en donde se usa la inteligencia artificial para alterar la voluntad de las personas votantes y con esto, modificar “significativamente” resultados, el Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad (PUEDJS) de la UNAM lanzó una serie de recomendaciones dirigidas a autoridades y partidos políticos para el proceso electoral en México que recién inició en México.
En el informe “Recomendaciones Electorales 2024. Por plataformas digitales al servicio de la democracia”, el PUEDJS advierte que la manipulación electoral ya no se limita a los aspectos físicos, sino que también se da en los espacios digitales transnacionales y sin regulaciones, pudiendo pasar desapercibida, pero con el potencial de alterar “significativamente” los resultados de los procesos político-electorales.
“Hoy la manipulación de la voluntad popular se da mucho antes de la celebración de los comicios. Las campañas digitales de desinformación masiva organizada, la producción sistemática de noticias falsas en plataformas, la alteración de audios o videos con inteligencia artificial”.
El programa universitario señala que las estrategias de desinformación, propaganda digital, y manipulación de contenidos han sido utilizadas en elecciones anteriores, evidenciando la necesidad urgente de una regulación que aborde estos desafíos.
“Se destaca que las plataformas digitales, en su papel de empresas mediáticas, han adquirido un poder sin precedentes al influir en la voluntad y emociones de los votantes, operando bajo una regulación privada-transnacional que podría no garantizar la defensa de las personas usuarias.
“Una regulación pública y clara podría ser el avance necesario para garantizar que las plataformas digitales operen en beneficio de la ciudadanía, fortaleciendo así nuestras democracias”.
El Universal
Recomendaciones ante el proceso electoral de nuestro país
- Organizar al menos dos debates ciudadanos en vivo, con participación diversa.
- Etiquetar de forma destacada contenido político pagado como “publicidad electoral”.
- Establecer medidas claras de restricción temporal de contenido electoral.
- Publicar informes semanales sobre moderación de contenido y publicidad política.
- Adoptar sistemas de alerta temprana y etiquetación de mensajes.
- Regulación del uso de IA para contenido político y electoral, con etiquetado claro adoptando sistemas de detección y etiquetado.
- Implementar calendario de auditorías externas.
- Implementar medidas efectivas para retirar propaganda.
- Campaña de concienciación sobre desinformación electoral en formatos accesibles. Exigir acceso a APIs para instituciones y sociedad civil.
- Promover igualdad de oportunidades en promoción de plataformas. Diseñar cuentas específicas para difusión de plataformas electorales.
- Fomentar la participación ciudadana en plataformas digitales a través de formatos accesibles.
- Establecer convenios con obligaciones concretas. Capacitación, monitoreo y promoción de debates y contenido oficial.
CT