ChatGPT ya no puede repetir una palabra eternamente porque ahora se advierte de que se trata de una posible violación de sus políticas, un cambio que se ha apreciado tras una investigación que demostraba que dicha repetición acababa revelando datos personales reales procedentes del entrenamiento.
Pedirle a ChatGPT que repita una palabra eternamente ahora es una violación de las políticas de uso
También en Noticias
- Una jubilada alemana, tras el último gran expolio de piezas arqueológicas de Mallorca
- Vuelven a arrancar los árboles en el Parc de Sa Riera: «Otra vez lo mismo, no entendemos como no hay vigilancia»
- La lucha por la vida cuando llega antes de tiempo
- Los Bomberos de Mallorca se movilizan para buscar a un niño perdido en la zona de Alcudia
- Sanción de 300.000 euros por el acto negacionista de Miguel Bosé y Josep Pàmies en Palma
Sin comentarios
Para comentar es necesario estar registrado en Ultima Hora
De momento no hay comentarios.