Maxoud

Рейтинг
111
Регистрация
27.10.2006

Я обнаружил одну мерзость, которая конкретно портит жизнь. AJAX-овые URL-ы. Теперь чтобы "чистый" URL нужного SERP-а получить, нужно три раза "ку" с приседанием сделать. Буду нафиг отключать.

fine:
alexmay, и какой вывод можно сделать из того, что в панели вебмастера к страницам написано, что они исключены, а в индексе они присутствуют?

Хоть вопрос и не ко мне, я все же ляпну. Вывод один: делать нормальный сайт изначально и не знать про эту панель. Чтобы не было необходимости думать что где-то что-то не так, что-то выпало, что-то не индексируется, иконка потерялась в панельке, сопли, ПыР, мета кивордс ( :) ), сайтмап, роботс. Блин, жизнь пройдет за панельками, а сайт так в говне и останется.

fine:
У меня проиндексированы после создания robots.txt точно.

Еще один аргумент против robots.txt

lekoleko:
Приведите пример пожалуйста. Вот например у меня в индексе тысячи мусорных страниц типа сайт.ru/index2.php?option=com_content&бла-бла-бла

Мусорные страницы — это мусорные страницы. Regex в помощь и 301 на полезные. Или 404: груз с плеч долой и не будет нытья.

name-k:
Если не ставить nofollow на закрытые в роботсе страницы то робот будет переходить на такие страницы но не будет индексировать

А для чего такие страницы нужны, которые индексировать не нужно? Тэги в Вордпрессе? Так научитесь с выгодой их использовать. Дубликаты в OSCommerce? Взяли Magento + 2 плагина.

Romiuss:
Возможно ли, что только из за пустого description попасть в сопли?
sokolenko:
Вполне возможно, что из-за отсутствия description гугл мог выкинуть страницы
Сеодром:
однако не были заполнены мета-поля description

Что за бред несете? Вас же новички читают! В очередной раз привожу пример ГС, на которм никогда не было описания. Один из 60 запросов, по которому ГС стоит на первом месте. В Топ-10 только у одного чеха есть описание. И не надо говорить про НЧ и т.п.

Дескрипшн читается Google, но используется только для сниппета. И то не каждый раз.

Eremkin:
индексирует директории закрытые в Роботсе

Более, чем уверен, они были проиндексированы до создания robots.txt.

Мой совет — забыть про robots.txt навсегда и использовать .htaccess. И не нужно будет ничего вручную удалять.

name-k:
нужно обязательно ставить нофоллов в ссылки на закрытые в роботсе страницы

Это смешно.

sunseeker7:
Интересно добьет это нововведение long tail?

Как раз наоборот. Запросы становятся длинее.

Я смотрю, что Krab123 несколько "плавает", поэтому я сейчас ему решу проблему, а он мне потом новый домен *.com оплатит. ОК?

Я попробую попривыкать.

К KDE и GNOME привык после System 6, 7, 9 и Win95, 98, XP и не собираюсь более возвращаться. Так что Живой поиск — семечки. :)

У меня только что началось. Придется привыкать... Странно, что при этом еще и подсказки всплывают. В общем — мешанина. Скоро отменят или рашпилем допилят.

Хорошо, что я отказался от G3 модема в пользу постоянного подкл.

Z-Style:
Рассчитаны на НЧ

Не может быть так, что это — May Day? Четвертый уровень от морды и одна ссылка на страницу?

Всего: 1446