31
Asistencia al cliente / Re:Creacion de mas de un robots.txt
« en: Octubre 21, 2013, 10:06:24 am »
Hola ccopa,
Parece que hay algunas colisiones en el algoritmo de indexado de cache de nginx en antiguas versiones. De momento hemos vaciado la cache para solucionar temporalmente el conflicto de ficheros estáticos. Se planificará un mantenimiento controlado y programado para actualizar en todos los servidores compartidos a una versión mayor de Nginx con la esperanza de que solventen este tipo de errores.
Te agradeceríamos si puedes confirmarnos si sigue siendo reproducible el problema o se ha solucionado temporalmente.
Parece que hay algunas colisiones en el algoritmo de indexado de cache de nginx en antiguas versiones. De momento hemos vaciado la cache para solucionar temporalmente el conflicto de ficheros estáticos. Se planificará un mantenimiento controlado y programado para actualizar en todos los servidores compartidos a una versión mayor de Nginx con la esperanza de que solventen este tipo de errores.
Te agradeceríamos si puedes confirmarnos si sigue siendo reproducible el problema o se ha solucionado temporalmente.