Italia prohíbe usar ChatGPT por no respetar la legislación de datos y la ONU alerta contra la inteligencia artificial

Italia dispuso hoy el bloqueo "con efecto inmediato" de la herramienta de Inteligencia Artificial ChatGPT, de la tecnológica estadounidense OpenAI, acusándola de no respetar la ley de protección de datos de los consumidores. El garante italiano para la Protección de Datos Personales aseguró en un comunicado que ha abierto una investigación y que, entretanto, el bloqueo se mantendrá hasta que ChatGPT "no respete la disciplina de la privacidad".

El popular ChatGPT ha sido desarrollado por la compañía OpenIA de Estados Unidos, donde varias organizaciones han pedido también su suspensión por recelar de estos experimentos con Inteligencia Artificial.

El 20 de marzo tuvo una fuga de datos

El organismo italiano informó de que este chat, el más conocido de la emergente inteligencia artificial, capaz de simular conversaciones humanas, sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados. En su disposición, el garante italiano destaca "la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI" pero "sobre todo la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales".

Además, alega, las informaciones generadas por ChatGPT "no siempre corresponden" a la realidad. Por último, Italia lamenta "la ausencia de todo tipo de filtro" en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años. De este modo los niños están "expuestos a respuestas absolutamente no idóneas respecto a su nivel de desarrollo y conciencia".

El uso de la inteligencia artificial cada vez es más frecuente y pujante y, por eso, la Unesco ha urgido a los países que apliquen "sin demora" el Marco Ético Mundial sobre esa tecnología, adoptado en 2021 de forma unánime por los 193 Estados miembros. 

La ONU alerta de los peligros de la inteligencia artificial

La ONU ha advertido este jueves sobre los peligros que conlleva el uso de la Inteligencia Artifical (IA) y ha pedido a las empresas que sean responsables. Lo ha hecho justo después de que un grupo de expertos liderado por Elon Musk alertaran contra su uso. "Pienso que es muy preocupante (...). La IA es una tecnología que puede traer grandes beneficios en educación y ciencias. Sin embargo, las empresas deben responsabilizarse en la forma que esta información se publica porque se puede hacer un mal uso de ella", ha declarado en una rueda de prensa el portavoz de la Secretaría General de Naciones Unidas, Stéphane Dujarric.

Dujarric ha expresado sus preocupaciones en referencia a programas de inteligencia artificial como ChatGPT, que han conseguido alterar imágenes, replicar voces y crear textos de forma que pueden aumentar "la violencia y la desinformación".

Ejemplo de ello son las fotos creadas por la propia IA del Papa Francisco llevando un chaquetón y unas zapatillas deportivas blancas, o la creación de unas imágenes de Donald Trump siendo detenido.

El portavoz ha opinado que uno de los problemas radica en que el sector tecnológico opera fuera de los controles gubernamentales de forma mayoritaria, y ha explicado que la ONU ha organizado reuniones entre los gobiernos, el sector privado y la sociedad civil para intentar garantizar que no se abuse de esta tecnología a la par que se pueda aprovechar el "inmenso potencial positivo" que puede traer.

Además, ha asegurado que el secretario general de Naciones Unidas, António Guterres, lleva tiempo advirtiendo al respecto. "La inteligencia artificial viene con la promesa de mejorar el acceso a la sanidad, a acelerar el desarrollo económico y otras beneficios. Pero también podemos ver los peligros: un mundo con menos privacidad, menos intervención y responsabilidad humana y donde la desigualdad de ingresos se amplía y el acceso al trabajo se reduce para millones personas", declaró Guterres en mayo de 2019.