El uso de programas de inteligencia artificial tiene el potencial de facilitar diagnósticos médicos, desarrollo de fármacos, impulsar nuestros conocimientos en física, astronomía… Pero también puede crear importantes conflictos, tantos como para llevar a diferentes países a proponer una pausa en su desarrollo o prohibir su uso, como ocurrió en Alemania o Italia recientemente. Y una de las mayores preocupaciones está vinculada a los derechos de autor. 

La jefa de regulación tecnológica de la Unión Europea, Margrethe Vestager, ha declarado hoy mismo que el bloque que lidera probablemente alcanzará un acuerdo político este año que allanará el camino para la primera legislación importante sobre inteligencia artificial (IA) del mundo.

En una entrevista con la agencia Reuters realizada durante una reunión de ministros digitales del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido) en Takasaki, Japón, Vestager sugirió medidas legislativas para el uso de herramientas de IA, como «obligaciones de etiquetado para imágenes generadas por IA. No había razón para dudar y esperar a que se aprobara la legislación para acelerar las discusiones necesarias para proporcionar los cambios en todos los sistemas donde la IA tendrá una enorme influencia».

Las medidas son apenas la conclusión de un acuerdo preliminar que ya se había alcanzado sobre la Ley de Inteligencia Artificial de la UE. A partir del momento que la ley entre en vigor, las empresas que implementen herramientas de inteligencia artificial generativa, como ChatGPT, deberán divulgar cualquier material protegido por derechos de autor utilizado para desarrollar sus sistemas.

Esta disposición fue una adición tardía redactada en las últimas dos semanas, según una fuente familiarizada con las discusiones. Algunos miembros del comité inicialmente propusieron prohibir el uso de material con derechos de autor para entrenar modelos generativos de IA, dijo la fuente, pero esto se abandonó a favor de un requisito de transparencia.

Al contrario de lo ocurrido con otras tecnologías, como la ingeniería genética, la propia internet o la energía nuclear, la Comisión Europea comenzó a redactar la Ley de IA hace casi dos años, cuando se trataba de una tecnología emergente (en el momento del lanzamiento del chatbot ChatGPT de OpenAI) y no estaba, como hoy, en boca de todos de modo casi constante.

Los miembros del Parlamento Europeo acordaron llevar el borrador a la siguiente etapa, el diálogo tripartito, durante el cual los legisladores de la UE y los estados miembros discutirán los detalles finales del proyecto de ley. Por el momento y según las propuestas, las herramientas de IA se clasificarán de acuerdo con su nivel de riesgo percibido: desde mínimo hasta limitado, alto e inaceptable. Las áreas de preocupación podrían incluir la vigilancia biométrica, la difusión de información errónea o el lenguaje discriminatorio.

«En contra de los deseos conservadores de una mayor vigilancia y las fantasías izquierdistas de una regulación excesiva – explicó Svenja Hahn, diputada alemana del Parlamento Europeo –, el parlamento encontró un compromiso sólido que regularía la IA de manera proporcional, protegería los derechos de los ciudadanos, fomentaría la innovación e impulsaría la economía».

Fred Havemeyer, analista de la firma bursátil Macquarie y especializado en tecnología coincide con la afirmación de Hahn: “la propuesta de la UE es una que se ha hecho con tacto, en lugar de un enfoque de primero prohibir y hacer preguntas después propuesto por algunos”. Si bien las herramientas de alto riesgo no estarán prohibidas, señala la nueva ley, quienes las utilicen deberán ser muy transparentes en sus operaciones. Habrá que ver si la contravención de las normas genera solo multas o produce consecuencias ya que ese tema aún no se ha abordado.

 

Fuente: adslzone