En pocos meses la inteligencia artificial Chat GPT, capaz de generar textos, imágenes o música a partir de datos existentes, ha pasado de ser una herramienta minoritaria, más cercana a un experimento de laboratorio, a un ‘boom’, y de ella preocupa, precisamente, la rapidez de su desarrollo, la propiedad intelectual, su utilización para desinformar, la ciberseguridad o su política de protección de datos.

El primero en dar la voz de alarma sobre la posible falta de privacidad fue Italia. El pasado 31 de marzo el país anunció el bloqueo del uso de Chat GPT por no respetar la ley de protección de datos de los consumidores, y la apertura de una investigación a Open AI, a la que además solicitó una serie de medidas concretas.

El asunto ya está en Europa; el Comité Europeo de Protección de Datos ha creado un grupo de trabajo para fomentar la cooperación e intercambiar información sobre las acciones de las autoridades de protección de datos de los distintos países miembros, de Islandia, Liechtenstein y Noruega, que tienen asimismo dudas al respecto.

Desde España también se ha mostrado preocupación por un posible incumplimiento de la normativa. La Agencia Española de Protección de Datos (Aepd) anunció el pasado 13 de abril que iniciaba de oficio actuaciones previas de investigación a la empresa estadounidense.

(Vea también3 cosas que puede hacer con ChatGPT, pero que no debería si quiere evitar un lío).

Lee También

La medida tomada por la Aepd “entra dentro de lo normal pero es algo excepcional”, porque “no suele abrir investigaciones así”, señaló a EFE Sergio de Juan-Creix, abogado de Croma Legal y profesor de la Universitat Oberta de Catalunya (UOC), quien recordó que el Reglamento General de Protección de Datos (RGPD) se aplica en toda la Unión Europea pero los estados siguen siendo soberanos en la materia.

Lo que está haciendo ahora la Aepd, explicó este abogado, es pedir información a Open AI para valorarla y establecer si el tratamiento de datos de esta empresa es acorde con las normas europeas y españolas.

Habría que averiguar por ejemplo si Open AI está transfiriendo datos de los usuarios a Estados Unidos; “Europa considera que el envío de datos a ese país no es seguro”, dijo, porque allí no hay una protección equivalente, “no se cumplen los mínimos que exige la UE”.

Borja Adsuara, experto en derecho digital y profesor de la Universidad Complutense de Madrid, opina igual: “lo que ha dicho la Aepd es denos información porque es lo que exige el reglamento europeo”.

Hay que conocer qué datos recaba, qué hace con ellos, si se ceden a terceros o si hay transferencia internacional.

Con la explosión de Chat GPT y otras herramientas de este tipo de IA “lo que está pasando es que la gente está volcando muchísima información, no solo propia sino de otros”, sentenció De Juan-Creix.