Павел

Рейтинг
160
Регистрация
23.01.2006

Клеит, опцию выбрать надо после первичного поиска.

Dimedic:
А мне вот пришлось из за косяков с сайтом изменить все урлы, вот теперь думаю, когда же яша наконец перенидексирует все занови и сколько это будет времени?

В зависимости от косячности УРЛовой структуры прошлой, количества уникальных страниц на сайте, наличия 301-редиректов со старых адресов на новые и т.п. может занять достаточно много времени.

У меня например полтора месяца (в сентябре-октябре) сайт переиндексировался полностью (~19 тыс. страниц магазин, из-за косячности движка в индексе было ~300000 дублей и пустышек). При том, что со старых адресов, а также с дублей и прочего были пересылки по 301, по несуществующим реально адресам выдавалось 404, роботс.тхт был настроен и т.п.

Но это было, повторюсь, в сентябре-октябре, под Находку. Сколько бы это заняло сейчас - трудно сказать, примеров счас нет.

Вообще то для IE7 не так уж много хаков и надо, он конечно глючный, но требует после Фоксового кода минимальной обработки напильником. Это если не извращаться с кодом. Например, CSS-свойство min-height в нем и так прекрасно работает.

К тому же, есть такая штука как условные комментарии в IE, где можно вполне в файлики сгруппировать все наборы хаков под любое сочетание версий, и не надо загаживать базовый код. Рекомендую погуглить. Для организации пространства кода очень удобно. Если конечно не решается задача по нагруженности сайта как на главной Гугла, например.

А приведенный сайт с хаками в IE7 очень забавно разъезжается, кстати... Хотя макет то примитивный...

А то что вы продемонстрировали как пример для Гугли

<?xml version="1.0" encoding="UTF-8"?>
<sitemapindex xmlns="http://www.google.com/schemas/sitemap/0.84">

так это заголовок вообще то для файла "Сайтмапа сайтмапов", т.е. карты файлов XML-карт сайта, если их пришлось создать несколько, когда в один файл по количеству урлов или объему данных превышается ограничение.

А схема - просто должна быть, при том с валидным адресом, не более. У меня изначально Гуглевые карты (но по стандарту sitemaps.org) Яшка с самого запуска этого их сервиса замечательно хавает.

sand_man_, смотрел по косвенным, но крайне явным признакам. Типа время отдачи страницы - сайт на php+mysql грузится 25 секунд = прощай Яша...

Кроме чистого количества сайтов на 1 IP, что можно посмотреть через сервис из поста 165, можно через http://www.alertsite.com/tools.shtml посмотреть отрезки времени на каждое действие. По данному хосту, по всем сайтам на php картина с отдачей First byte примерно одинаковая. Вывод - страшно тупит комп хоста.

На том же хосте чисто html-сайты более менее работают, там затыки только на резолве DNS, секунд 5-7...

На тему пропавших в последние апдейты из индексов СДЛ или белых сайтов.

У самого 5 числа пропал один из сайтов на обслуживании. После разбирательств выявил, что сервак, на котором сайт, просто дичайшим образом перегружен и php на нем почти не шевелится/ DNS resolve только около 7 секунд.

И на нем дофига сайтов... Вот пример http://www.seoegghead.com/tools/what-is-hosted-on-that-ip.seo?action=get_location_action&info%5Bip_or_domain%5D=89.111.173.75

Хостинг многоуважаемых RBC-Hosting... Блин. И фигня продолжается... Две трети трафа было с Яшки, сайт в последние апы только рос... Обидно.

И практически все сайты по этому хостингу, которые используют скрипты или на cms какой - все потенциально на выход...

DUDE007:
Так уже очень давно. И минус слово не обязательно. пример в ТОП10

Бррр... То ли я слепой, то ли не въехал, толи у меня такого в выдаче просто нет. Можно скрин?

wilelf:
Хитрость в том, что нет никаких "Allow". Этот файл может только запрещать.

Хитрость в том, что в соответствии с описанием в документации, что Яндекс, что Гугл ввели понятие директивы Allow как расширение стандарта robots.txt. Так что для них то эта директива есть.

А вот для тех роботов, которые ее не понимают, ее нет. И они либо ее проигнорируют, либо обломятся. Но для владельца этого файла, насколько я понимаю, они (эти роботы) без интереса.

У меня используется вот так и нормально все клеит

RewriteEngine On

RewriteBase /

RewriteCond %{HTTP_HOST} !^site.ru

RewriteRule (.*) http://site.ru/$1 [R=301,L,QSA]

R=301 - перманентный редирект, то что нам надо (если не указать строго, то как и в header-функции PHP могут начать вылазить 302 редиректы, что нам не надо)

QSA - это чтобы после хоста не только часть URI, но и переменный GET-строки передались, если есть.

Работает при условии, что на одну виртуалку привязан один хост без извратов с отдельными поддоменами на подпапки.

Достаточно подробный мануал можно почерпнуть здесь

Что интересно, по приведенному ТС запросу "курсы косметика" таких вариантов запросов в Вордстате уже не наблюдаю. Походу отфильтровали статистику.

Всего: 257