Washington ya recoge propuestas para regular la inteligencia artificial y Pekín exigirá que el uso de estos programas sea seguro. Francia y Alemania también estudian cómo atajar los problemas de privacidad.
A la carrera por hacer dinero con la inteligencia artificial —desatada por las grandes tecnológicas— le sigue ahora otra igual por regular estas herramientas. Sobre todo, por la opacidad en torno a las consecuencias de su uso y el origen de sus datos. Hace dos semanas, Italia decidió bloquear el uso de ChatGPT por incumplir la normativa de protección de datos y carecer de filtros para menores. Hoy, los gobiernos de las dos superpotencias, EE UU y China, anuncian pasos hacia la regulación de estos programas basados en inteligencia artificial. La Administración de Joe Biden ha dispuesto un periodo de 60 días para recoger ideas sobre cómo legislar contra los efectos no deseados de estos programas, que suponen un riesgo en campos tan dispares como la privacidad, la desinformación o el mercado laboral. Por su parte, Pekín ha hecho pública una propuesta normativa que exigirá a los proveedores seguridad y legitimidad en estas aplicaciones.
El Departamento de Comercio de EE UU ha registrado una solicitud formal de propuestas sobre medidas de rendición de cuentas, adelanta el Wall Street Journal, que incluye si los nuevos modelos de inteligencia artificial potencialmente peligrosos deberían pasar por un proceso de certificación antes de su lanzamiento. “Es sorprendente ver lo que estas herramientas pueden hacer incluso en su etapa inicial”, explica en el diario estadounidense Alan Davidson, director de la Administración Nacional de Telecomunicaciones e Información. “Sabemos que debemos poner en marcha algunas medidas de protección para asegurarnos de que se utilicen de manera responsable”, añade Davidson, al frente de la iniciativa.
La Administración del Ciberespacio de China ha dado a conocer también este martes un proyecto de medidas para regular los servicios de inteligencia artificial generativa y aseguró que quiere que las empresas presenten evaluaciones de seguridad a las autoridades antes de lanzar sus productos al público, según recoge Reuters. Las reglas redactadas por este regulador señalan que los proveedores serán responsables de la legitimidad de los datos utilizados para entrenar sus productos de inteligencia artificial generativa y que se deben tomar medidas para evitar la discriminación al diseñar algoritmos y entrenar esos datos.MÁS INFORMACIÓN
Además, este organismo asegura que China apoya la innovación en el campo de herramientas, pero que el contenido generado debe estar en línea con los valores socialistas centrales del país. Este anuncio se produce después de que una gran cantidad de gigantes tecnológicos chinos, incluidos Baidu, SenseTime y Alibaba, mostraran sus nuevas aplicaciones, que van desde chatbots hasta generadores de imágenes. Se suman así a compañías como Microsoft y Google, que ya quieren integrar estas herramientas en sus servicios.
Dudas en Europa
Estos anuncios llegan mientras varios gobiernos europeos están analizando cómo mitigar los peligros de esta tecnología emergente, que ha disparado su popularidad entre los consumidores en los últimos meses después del lanzamiento de ChatGPT, de la empresa OpenAI, apoyada inicialmente por Elon Musk y ahora impulsada por 10.000 millones de dólares de Microsoft. Bruselas quiere que los contenidos generados por inteligencia artificial lleven una advertencia específica, como anunció el comisario europeo de Mercado Interior, Thierry Breton: “En todo lo que sea generado por inteligencias artificiales, ya sean textos —todo el mundo conoce ahora ChatGPT— o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial”.
Tras el bloqueo anunciado en Italia por el Garante para la Protección de Datos Personales, Francia, Irlanda y Alemania reconocieron contactos para analizar si seguirían sus pasos. Los reguladores de privacidad en Francia e Irlanda se comunicaron con sus homólogos en Italia para obtener más información sobre los motivos de la prohibición y el comisionado alemán de protección de datos aseguró al periódico Handelsblatt que podría seguir los pasos italianos y bloquear ChatGPT por el riesgo para la seguridad de los datos.
Ahora, la Comisión Nacional de Informática y de las Libertades (el organismo para el control de la privacidad de Francia) ha hecho público que está investigando varias quejas sobre ChatGPT. Mientras, la Agencia Española de Protección de Datos, así como su homóloga italiana, han solicitado que se trate la posible regulación de sistemas de inteligencia artificial generativa en la reunión de este jueves del Comité Europeo de Protección de Datos, el organismo en el que se coordinan las agencias del ramo de los países miembros.
La controversia sobre las peligrosas capacidades de estas herramientas va más allá del campo legislativo, como mostraron hace unas semanas más de un millar de especialistas que reclamaban una moratoria de seis meses en el desarrollo de estos programas. “Los laboratorios de inteligencia artificial han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, advertía la carta.