ChatGPT debe bloquear el acceso a los usuarios de Italia

Se tomó esa decisión ante una supuesta recopilación ilícita de información de los usuarios.

Los problemas con la inteligencia artificial se extienden en distintas partes del mundo.Reuters



BUENOS AIRES (NA). — El chatbot ChatGPT de Open AI debe bloquear el acceso de los usuarios con sede en Italia a partir del sábado, o enfrentará multas, dijo un portavoz de la Autoridad de Protección de Datos de Italia.

La agencia anunció una prohibición temporal de ChatGPT más temprano en el día debido a preocupaciones sobre su gestión de datos.

El servicio seguía funcionando en Italia horas después, pero la agencia de datos reconoció que era imposible cortar el acceso de inmediato. “Esperamos que el servicio se bloquee a partir del sábado”, dijo el portavoz. 

En un comunicado, se advierte que falta información para los usuarios y para todos los interesados cuyos datos recoge OpenAi, pero sobre todo, “una base jurídica que justifique la recogida y la conservación masiva de datos personales”.

El garante italiano asegura que el chat, que simula conversaciones humanas, sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados.

Además, subraya que las informaciones que realiza ChatGpt “no siempre corresponden a la realidad”, “determinando por lo tanto un uso de datos personales inexacto”.

En tanto, en Estados Unidos algunas organizaciones también están reclamando la suspensión de ChatGpt por desconfiar de los experimentos con inteligencia artificial. GPT-4, el nuevo modelo de lenguaje con el que OpenAI reemplazó a GPT-3.5, podría ser el último lanzamiento de la empresa en mucho tiempo.

El grupo de ética tecnológica Center for Artificial Intelligence and Digital Policy (CAID, por sus siglas en inglés) está pidiendo a la Comisión Federal de Comercio de Estados Unidos que impida que OpenAi emita nuevos lanzamientos comerciales del chatbot y ha presentado una queja ante el regulador estadounidense, en la que argumenta que GPT-4 es “parcial, engañoso y supone un riesgo para la privacidad y la seguridad pública”, además de violar “la ley federal de protección al consumidor”.

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here