а в нашем деле может быть полная уверенность в чём то ? 😂 для такого анализа мне логи ни к чему - давно вделан контроль юзер агента во всё что можно и нужно (а может и не нужно :))...
CSS ессессно, без всякой задней мысли... но судя по тому, что бан снялся абсолютно без последствий (было впечатление - базу откатили для сайта :)) - это всё же явный и осознанный баг... правда экспериментов больше не ставил - ну его...
обобщаю предыдущих ораторов ;):
1. совершенно обязательно сделать 301 редирект с зеркала на главный сайт
2. если есть необходимость слить ТИЦ с зеркала на главный - пишем директиву Host в роботс
блин... берёшь любую страницу -> в самом начале рисуешь header с HTTP1.1 404 Not Found -> вот тебе 404 код доступа...
насчёт пофиг: жил был сайт у которого на белом фоне была таблица с черным фоном и белыми буквами в ячейках и видно всё было прекрасно по самоё немогу... вот токо бан он схлопотал :( Платоша отписал - за скрытый текст, и что Яшку не волнуют частности - ежли у боди фон белый все белые буквы - скрытый текст... правда и из бана вывели моментом :)
с какого перепугу Sitemap что то разрешает? ;) есть пара директив Allow - Disallow, вот они занимаются разрешением - запретом... читайте документацию воощем...
блин ;) если следовать моей логике то - указание всего лишь положения сайтмепа не должно отменять предыдущей директивы на запрет индексации всего сайта... что не понятно то?
когда "узаконивали" директивы роботса о сайтмэпах и речи не было
директиву сайтмап в стандарт то ввели года два (?) назад.
и по идее - "закон обратной силы не имеет": старые директивы должны обрабатываться по старому, новые - только вносят новое, не меняя старое...
тррррольчег? ;)
есть ! сайт токо в денвере держать - нефиг школьникам по нему мышкой скрезти !... и никто не "усумнётся" в его ценности заодно... ;) щЮтка конечно...