¡Pausen los sistemas avanzados de IA! Expertos alertan sobre riesgos
Una carta abierta firmada por más de mil 100 ejecutivos y expertos del sector hace un llamado a "todos los laboratorios de IA para que pausen inmediatamente durante al menos 6 meses" el desarrollo de sistemas avanzados
Los laboratorios de Inteligencia Artificial (IA) entraron en los últimos meses en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable, advierten centenares de magnates, empresarios y especialistas en tecnología, que instaron a pausar el entrenamiento de sistemas avanzados para evitar peligros.
"Los poderosos sistemas de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos, manejables. Esta confianza debe estar bien justificada", señala una carta abierta publicada por el Future of Life Institute (Instituto Futuro de la Vida), que reunía más de mil 100 firmas en una semana.
Entre los firmantes de la misiva, cuyas rúbricas el Instituto indica haber verificado, se encuentran personalidades como Elon Musk (CEO de SpaceX, Tesla y Twitter), Steve Wozniak (cofundador de Apple), Jaan Tallinn (cofundador de Skype) y Evan Sharp (director de Pinterest), entre otros.
El texto alerta también sobre los "riesgos profundos para la sociedad y la humanidad" que puede implicar esta tecnología.
Según indica la carta, "tal como establecen los Principios Asilomar (lineamientos éticos ampliamente aceptados en torno al campo), la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra", por lo que debe administrarse con el cuidado y los recursos correspondientes y desafortunadamente, insisten, "este nivel de planificación y gestión no está ocurriendo".
La IA se ha vuelto un aliado cotidiano de muchos, incluso sin saberlo. En los últimos meses, han crecido las noticias sobre sus beneficios para simplificar o delegar tareas humanas en máquinas o aplicaciones, sobre todo a través del popular sistema ChatGPT, pero también han ido en aumento las advertencias sobre sus potenciales puntos débiles o peligros.
Este lunes, la agencia de cooperación policial europea alertó sobre tres áreas de riesgo clave de estos sistemas: fraude, desinformación y ciberdelincuencia, en su primer informe sobre modelos de lenguaje extenso.
“Las capacidades de ChatGPT se prestan a una serie de posibles casos de abuso", dijo Europol.
LEE TAMBIÉN: ChatGPT facilita la vida de los delincuentes, advierte la Europol
"Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave", insta la carta abierta fechada el 22 de marzo.
Las empresas y los expertos independientes "deberían aprovechar esta pausa para desarrollar e implementar conjuntamente una serie de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA" que sean supervisados por expertos externos que garanticen su seguridad, agrega.
"Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes", agrega. Y destaca que la sociedad ya ha puesto en pausa otras tecnologías con efectos potencialmente catastróficos, por lo cual es prudente hacerlo también en el caso de la IA.
"Disfrutemos de un largo verano de IA, no nos apresuremos a entrar al otoño sin estar preparados", finaliza la carta.
En su página web Futureoflife.org, el instituto que publicó la misiva analiza y aborda los cuatro temas que considera los riesgos centrales para la humanidad en la actualidad debido a su impacto: la Inteligencia Artificial, la biotecnología, las armas nucleares y el cambio climático.