Con la llegada de los chatbots son muchas las personas que se han encontrado en el dilema de conocer si estas aplicaciones hacen uso de sus datos privados con algún tipo de propósito, por lo general todas las compañías aseguran que no es el caso, OpenAI incluso tiene una política que supuestamente borra las conversaciones con ChatGPT después de 30 días, pero ahora estarían obligados a conservarlas de forma indefinida.
En muchas ocasiones la privacidad de los usuarios es algo que las compañías se toman muy enserio, al final es donde recae toda la confianza que un consumidor puede llegar a tener. Hay otras que por su parte tienen políticas mucho menos estrictas con este tema, pero desde OpenAI aseguran que tienen como prioridad proteger la información de los usuarios. Aunque ahora una ley de Estados Unidos les obligaría a romper esta política de datos por las malas prácticas que llevaron a cabo para entrenar a su inteligencia artificial, ya que el principal motivo por el que sucede esto tiene que ver con la demanda que New York Times lanzó contra la compañía de Sam Altman por utilizar sus artículos para mejorar la compresión de su IA.
Una nueva ley podría obligar a OpenAI a guardar todas las conversaciones de ChatGPT
En internet uno de los mayores problemas que existen está en la forma de gestionar la privacidad que tienen las compañías, hay algunas que pueden tener políticas realmente estrictas mientras que otras simplemente juegan con los datos de los usuarios para conseguir el mayor beneficio posible. Si hablamos de cómo gestiona ChatGPT la información que recoge de los usuarios realmente funciona como cualquier otro sistema de mensajería aunque la compañía asegura que cuando un usuario borra una conversación esta se elimina por completo pasados 30 días, algo que dentro de lo que cabe es un punto positivo.
Pero ahora la compañía se enfrenta a una orden judicial que les obliga a eliminar la práctica que se deshacía de los chats pasados treinta días, haciendo que las conversaciones de millones de usuarios continúen guardadas en un entorno seguro y en una zona separada del resto durante un tiempo indefinido. Principalmente el objetivo que tiene la orden está en evitar que OpenAI pueda «destruir» pruebas que pueden utilizarse en el juicio que tienen actualmente con el periódico estadounidense New York Times por el uso de su propiedad intelectual para entrenar a su inteligencia artificial.
Por su parte Sam Altman ha indicado en la red social Twitter(X) que es una práctica con un impacto realmente negativo frente a la confianza de los usuarios ya que al final afecta directamente a la privacidad de quienes utilizan el chatbot de la compañía. Esto al final afecta principalmente a quienes utilizan ChatGPT ya que implica que tampoco podrán borrar las conversaciones ni aunque lo soliciten, de momento OpenAI ha apelado a esta orden, pero en caso de que siga adelante han asegurado que implementarán medidas adicionales para mantener seguros los datos de los millones de usuarios que utilizan su chatbot a diario.