ChatGPT ya no puede repetir una palabra eternamente porque ahora se advierte de que se trata de una posible violación de sus políticas, un cambio que se ha apreciado tras una investigación que demostraba que dicha repetición acababa revelando datos personales reales procedentes del entrenamiento.
Pedirle a ChatGPT que repita una palabra eternamente ahora es una violación de las políticas de uso
También en Noticias
- Inspección policial a una empresa de Porto Cristo por alquilar barcos sin autorización
- Michael Grant, el entrenador «querido por todos» muerto en Magaluf
- Los funcionarios de Baleares cobrarán hasta 116 euros más al mes y una 'paguilla' de hasta 816 euros, en función de la categoría
- La autopsia descarta que el turista irlandés falleciera por el atropello
- Son Banya se blinda: los narcos concluyen la fortificación del poblado
Sin comentarios
Para comentar es necesario estar registrado en Ultima Hora
De momento no hay comentarios.