Italia prohibió ChatGPT, el chatbot de OpenAI que se comunica a través de inteligencia artificial, por infringir las normas de GPDP (Garante para la Protección de Datos Personales), en el marco de una supuesta recopilación ilícita de información sensible de los usuarios.
La evolución de ChatGPT genera desde hace unos días ciertas críticas por la utilización de los datos personales. En los últimos días se conoció que el bot reveló datos sensibles como nombre y apellido, dirección de correo asociada al pago, los últimos cuatro dígitos de la tarjeta de crédito y la fecha de expiración.
Según el Gobierno italiano, la función de OpenAI va en contra de los artículos 5, 6, 8, 13 y 25 de la normativa. La disposición es de carácter temporal y regirá hasta que ChatGPT cumpla con el Reglamento General de Protección de Datos europeo.
Los peligros y posibilidades de la inteligencia artificial
Por su parte, Paal Aaserudseter, ingeniero de seguridad de Check Point Software, compartió la visión de la compañía en relación con la materia de inteligencia artificial, la ciberseguridad y cómo las empresas pueden mantenerse seguras dentro de esta nueva era de innovación digital.
“El potencial del uso indebido de datos es, con mucho, una de mis mayores preocupaciones con respecto a ChatGPT” asegura Aaserudseter. “El problema en cuestión es que la mayoría de los usuarios no son conscientes del riesgo que implica cargar este tipo de información sensible. Con suerte, el efecto positivo en Italia de la prohibición de ChatGPT es que la Ley de IA de la UE entrará en vigor mucho más rápido”.
La IA ya ha demostrado su potencial para revolucionar campos como la atención médica, las finanzas o el transporte, entre muchos otros. Puede automatizar tareas tediosas, mejorar la eficiencia y proporcionar información que antes era imposible obtener, ayudando a resolver problemas complejos y tomar mejores decisiones.
Aunque es igualmente importante mantener unas expectativas realistas y no ver estas herramientas como una panacea para todos los problemas, al menos por el momento. Actualmente la mayor parte de IA que usamos se agrupan dentro de la Inteligencia Estrecha o «débil» (ANI), lejos de la Súper Inteligencia (ASI) cuya inteligencia superaría las capacidades humanas.
Para mitigar los riesgos asociados con la IA avanzada, es importante que los investigadores y los legisladores trabajen juntos para garantizar que estas herramientas se desarrollen de manera segura y beneficiosa. Esto incluye el desarrollo de mecanismos de seguridad sólidos, el establecimiento de pautas éticas y la promoción de la transparencia y la responsabilidad en el desarrollo de la IA.