
OpenAI pide a EU prohibir toda inteligencia artificial creada en China
La empresa estadounidense ya había acusado a DeepSeek de extraer información de sus modelos en contra de sus términos de servicio, aunque esto todavía no se confirma
Este jueves, OpenAI presentó una propuesta al gobierno de Estados Unidos para el Plan de Acción de IA de Donald Trump, en donde sugirió la prohibición de modelos de IA creados en China. De acuerdo con la compañía de investigación de inteligencia artificial, modelos como DeepSeek son "subsidiados por el Estado", por lo que puede resultar perjudicial para el país del norte.
LEE: Google lanza robots de IA con razonamiento más avanzado y funciones físicas
OpenAI afirma que modelos de Inteligencia Artificial chinos, incluyendo el nuevo modelo de razonamiento R1 de DeepSeek son inseguros ya que la legislación china exige que estos modelos cumplan con las demandas de datos de los usuarios. En este sentido, prohibir los modelos producidos por China considerados Nivel 1, evitaría los riesgos de privacidad y seguridad e incluso el de robo intelectual, afirmaron los creadores de ChatGPT.
Existe una gran preocupación tanto por expertos en IA como por los inversores en Estados Unidos después de que DeepSeek desestabilizara la bolsa de valores. Incluso, OpenAI ya había acusado a DeepSeek de extraer información de sus modelos en contra de sus términos de servicio, aunque por el momento no se ha confirmado esto.
Además, en el informe presentado por OpenAI se afirma que "si bien Estados Unidos mantiene hoy una ventaja en IA, DeepSeek demuestra que nuestra ventaja no es amplia y se está reduciendo".
En este informe, OpenAI también ha enfatizado la necesidad de que los avances de IA se aceleren. En este sentido, busca que se eliminen las barreras de seguridad para la industria. Por ello, pide "la libertad de innovar en interés nacional" y una "asociación voluntaria entre el gobierno federal y el sector privado" en lugar de "leyes estatales excesivamente onerosas".
TAMBIÉN: TikTok anuncia nuevas funciones para regular su uso en adolescentes
Asimismo, indicó que el gobierno debería "modernizar" el proceso para que las empresas de IA obtengan la aprobación de las regulaciones federales de seguridad, estableciendo un proceso más rápido y basado en criterios para la aprobación de herramientas de IA. Con ello, los procesos actuales en innovación de IA se acelerarían de manera considerable. Incluso su informe menciona que en 12 meses ya tendrían nuevos servicios con esta tecnología.
EM