Вообще то, товарищи, возраст домена и сайта - не одно и то же.
Возраст самого домена, согласен с Mr.Smile, ничего не значит. При смене собственника домена ПСы, скорее всего, обнуляют возраст.
Еще советую проверить были ли баны от ПС этого старого домена.
О чем речь, если redapples.ru .org .com .net .info заняты? например так.
cheredov добавил 08.04.2011 в 02:20
Имхо надо точно знать ключевую фразу, проанализировать конкурентов, свободные домены, а там уже выбирать ))), извиняюсь....
А то придется бороться со страницами об айфоне apple красного цвета, apple.com › ipod/red/ например )))
А вы уверены, что выдаётся разная информация?
Проверьте, сравните страницы зайдя как боты ПС, например с помощью скриптика:
<form action="?" method="post">
<table><caption>Открываем сайт представлясь под любым User-Agent</caption>
<tr><td>User-Agent</td><td><input type="text" size="40" name="ua" value="GoogleBot"></td></tr>
<tr><td>Host</td><td><input type="text" size="40" name="host" value="www.site.ru"></td></tr> //ваш сайт
<tr><td>GET</td><td><input type="text" size="40" name="get" value="/index.php"></td></tr> //или нужная страница
<tr><td> </td><td><input type="submit" value='Отправить'></td></tr>
</table>
</form>
Сохраните его в файл bot.php и запустите.
И кстати в движках эта функция используется так как боты редко должным образом работают с сессиями, могут исказить счётчики посещений, увеличить нагрузку на сервер и иногда неправильно проиндексировать сайт. :)
Пропишите в htaccess:
SetEnvIfNoCase User-Agent "^Googlebot" search_bot
SetEnvIfNoCase User-Agent "^Yandex" search_bot
SetEnvIfNoCase User-Agent "^Mail" search_bot
Deny from env=search_bot
Можно запретить конкретную страницу. А так запрет действует на весь сайт.
А почему он попал в индекс вопрос хороший, но как работают боты гугла попробуйте у них же и спросить, всмысле тут
Довольно странная мысль, точнее ее цель.
ivmas, переделайте контент для сайта, который будете продвигать в рунете( домен понятно лучше .ru). Многие делают сателлиты под каждый отдельный город, и вам советую не лениться.
Доброго времени суток!
По крайней мере Яндекс поддерживает два формата файлов Sitemap:
XML;
текстовый файл.
Формат XML является предпочтительным, т.к. позволяет предоставлять дополнительную информацию о страницах сайта. Для каждого URL можно указать:
дату последнего обновления страницы (lastmod);
частоту изменения страницы (changefreq);
относительную значимость страницы (priority).
(читайте Яндекс для вебмастеров)
Формат протокола Sitemap состоит из XML-тегов. В файле необходимо использовать кодировку UTF-8.
Можно предоставить несколько файлов Sitemap, однако в каждом из этих файлов должно быть не более 50000 URL, а размер каждого из этих файлов не должен превышать 10 МБ. При необходимости файл Sitemap можно сжать с помощью архиватора gzip, чтобы его размер не превышал 10 МБ, и тем самым уменьшить требования к пропускной способности канала.
Если необходимо перечислить более 50000 URL, следует создать несколько файлов Sitemap, при этом необходимо перечислить каждый из этих файлов в файле индекса Sitemap (Sitemap index). Формат файла индекса Sitemap похож на формат файла Sitemap.
Подробная информация об использовании файлов индекса Sitemap на официальном сайте: sitemaps.org
В общем проблем у вас возникнуть не должно, делали магазины с вложенностью и более 5, за месяц прекрасно они индексировались. Сделайте грамотную перелинковку.