Este 14 de junio, el Parlamento Europeo debatirá un proyecto de ley relacionado con la Inteligencia Artificial (IA) en Estrasburgo. Durante una visita a Alemania, Sam Altman, director de OpenAI, la empresa con sede en California que lanzó el muy comentado generador de texto ChatGPT, advirtió contra el exceso de regulación. Sin embargo, retiró su amenaza de dejar de operar ChatGPT en Europa.
Según el CEO de OpenAI, en principio, crear reglas para la inteligencia artificial es bueno, pero “necesitamos claridad”. Altman es un hombre buscado. Sus palabras tienen peso cuando se trata de IA. Incluso el canciller alemán Olaf Scholz en Berlín lo aceptó.
Sin restricciones, solo estándares europeos
El mercado europeo será demasiado atractivo para que los proveedores de IA lo ignoren. “Cualquiera que quiera vender su IA aquí debe cumplir con nuestros estándares”, dijo René Rappersy, el miembro del Parlamento Europeo responsable del tema en la bancada socialdemócrata. El Congreso de los Estados Unidos también está tratando de regular esta tecnología de autoaprendizaje.
El eurodiputado dijo que también se mantiene en contacto con sus colegas de EE. UU. “Al final del día, queremos crear valores significativos y no competir entre nosotros”, dijo Reparsi. Las empresas tecnológicas estadounidenses tienen mucho capital, enormes cantidades de datos y una hegemonía única que quieren proteger. Pero eso no significa que las normas europeas impidan que las empresas emergentes de la UE desarrollen más IA, opina Repassi: “El hecho de que muchos gigantes tecnológicos tengan su sede en EE. UU. tiene más que ver con el mercado en el que operan los monopolios que con la cuestión de dónde están los reside la mayor innovación.” “.
Alerta de IA
Uno de los padres de la IA, el exempleado de Google Geoffrey Hinton, advirtió en una entrevista reciente sobre los peligros de su propia creación. La IA generativa pronto puede ser más inteligente que los humanos que la crearon. Los cambios en el mercado laboral aún son impredecibles. Incluso los desarrolladores de sistemas y los altos directivos de Microsoft o Google admiten que ya no saben cómo funcionan las aplicaciones con inteligencia artificial. En una carta abierta, investigadores y empresarios, incluido el propietario de Twitter, Elon Musk, sugirieron tomarse un descanso hasta fin de año para determinar los límites del desarrollo de la IA.
La UE está respondiendo con una nueva ley que ha estado en discusión durante dos años. En principio, planea dividir las aplicaciones de IA en diferentes clases de riesgo. Se prohibirán los sistemas de alto riesgo que analicen y predigan inaceptablemente el comportamiento social humano. El riesgo debe estar sujeto a las reglas y límites del sistema. Las aplicaciones simples, y esto probablemente incluiría generadores de texto como ChatGPT, no deberían ser demasiado restrictivas. Sin embargo, todos los servicios generados con IA deben estar identificados.
Actuar en dos años
Hasta principios de 2025 no entrará en vigor la legislación europea sobre IA. Requiere la aprobación no solo del Parlamento Europeo, sino de los 27 estados miembros de la UE. El eurodiputado Axel Voss dijo que los desarrollos de IA como ChatGPT no estaban en el mercado hace dos años y que ya podrían avanzar cuando la regulación entrara en vigor en la UE. “Pero el desarrollo es, de hecho, tan rápido que gran parte ya no cabrá cuando la ley entre en vigencia”, dijo a DW en abril.
Voss lleva años trabajando en inteligencia artificial para el partido alemán CDU y es uno de los principales autores de la “ley de inteligencia artificial” de la UE. Voss advierte contra trabajar con restricciones estrictas: “De hecho, necesitamos, por razones competitivas y porque ya estamos atrasados, una actitud más optimista para tratar intensamente con la IA. Pero lo que dice la mayoría del Parlamento Europeo es que las personas se dejan llevar por el miedo y la ansiedad y están tratando de excluir todo”. Los comisionados de protección de datos de los estados miembros de la UE han pedido una supervisión independiente de las aplicaciones de IA y una mayor armonización en la protección de datos.
Según el eurodiputado Reparsi, las leyes sobre IA deberían ser flexibles. La cuestión de qué es alto o bajo riesgo en IA no debe regularse en el texto de la ley en sí, sino en el anexo. Siempre puede adaptarse a los rápidos cambios y avances tecnológicos.