Если JS не исполнил - это бот. Только страницу все-равно надо отдать, а потом выяснится кто это был.
Проще по IP, но это тоже не 100%, роботы бывают хитрые.
И не забывайте, что клоакинг - путь в никуда.
Подумайте как может выполниться команда:
copy 15.jpg Coco Chanelle.jpg
Пробелы в именах файлов допустимы (в некоторых ОС), но их придётся специально обрабатывать, или заключать имена файлов в "".
А когда будете выводить картинку с таким именем (Coco Chanelle.jpg) на сайт - столкнетесь со второй проблемой - пробелы в url недопустимы и их надо кодировать в %20.
Иногда Веб-сервер сам их кодирует, иногда - нет, в некоторых случаях некодированные пробелы сработают, в некоторых - нет.
Зря вы стали юзать некошерные символы в именах файлов.
Не, безалкогольная водка - это первый шаг к резиновой женщине.
Убрать из движка строки:
header("Expires: Mon, 01 Jan 2001 00:00:00 GMT");
Эта строка (с прошлым временем) запрещает кэширование страниц.
Врут.
Нет. Вам потом вышлют PIN-коды на ФИО+Адрес.
Если ФИО - разные, вопросов не будет.
PS: Но судя, по задаваемым вопросам - у Вас всё кончится плачевно...
Сайт дольше грузиться будет.
И доступ до вашей статы будет иметь не только Гугл, но и кое-кто ещё.
ortegas, смотря какие задачи - мне статы по логам вполне хватает, из счетчиков - только Rambler Top100 (но он уже не актуален, можно сносить).
И GA часто режут фаерфолами и проксями - он, бывает, притормаживает страницу.
Я на серче отрезала GA (прости Gray)
Есть, попробуйте, например, статистику Рамблера попарсить.
Обычно ограничивается кол-во запросов в единицу времени (с одного IP/UserAgent/Cookie).
Только о посетителях не забывайте - у меня чуть не матом ругались, когда были слишком жеские ограничения. Не ленились, пис`али на Email и распекали так, что аж стыдно было.
Зачем сканируют - каждый за своим.
Кто-то внешние ссылки собирает, кто-то ключевики, кто-то дубли ищет и битые страницы (в основном сами вебмастера, но иногда я чьи-нибудь сайты проверяю своим пауком).
Кто-то - вирусы на сайте ищет, есть и такие "доброхоты". Кто-то авторский контент или распространение нелицензионного ПО.
Сейчас армию своих роботов-пауков может сделать каждый.
Google Adsens - сам себе счётчик, подумайте, чем вызов Адсенса принципиально отличается вызов Ява-скрипта счетчика li.ru. Ничем, значит все - доступно, уж реферер - точно.
Не смешивайте "качество поиска" и "качество трафика". Если на сайт траф идет по "левым" запросам, на которые сайт не отвечает - это поисковик плохой, а не сайт.
Качество трафика Адсенс меряет (как может и умеет), если траф "левый" - обычно стоимость клика бывает копеечная, может вообще социалку гнать.
Подобное проделывалось с 3-я сайтами - санкции не передались.
Делались полные зеркала, ставился редирект и прописывался Host, чтобы не терять ссылочное.
2 сайта/домена - (забанены вручную после индексации), после переноса "подобным образом" - отлично сидят в индексе.
1 - был зарегистрирован ранее забаненый дроп, Яндекс не хотел индексировать и снимать санкции. Саппорт отвечал "наши алгоритмы, развивайте сайт и всё такое..". Было смешно, поскольку в это время всё уже индексировалась на другом доменном имени.
В чем были причины бана первых 2-х сайтов - не знаю, только догадываюсь :), но что их ручная проверка была спровоцирована внешними факторами.
Рамблер может в индексе годами держать то, что туда уже попало.
Google - было дело полгода держал старый кэш.
Если хотите ускорить процесс выкидывания из индекса - следуйте инструкциям Google, для Рамблера - найдите самостоятельно, на крайняк можно написать им в саппорт.