Павел

Рейтинг
160
Регистрация
23.01.2006

Есть нюанс с организацией ЧПУ на примере того же site.ru/url/url/url/url/url/url/page2.html - шибко умные роботы от Гугли и Яндекса попробуют "прозвонить" каждую из подпапок. Также, как пробуют прозванивать get-строки с пустыми значениями переменных (специально проверял, что нигде на сайте таких ссылок не было, а роботы туда ломились).

И вот тут вопрос в ответе движка - что он роботам отдаст. Особенно это актуально, когда горе-программеры при переделке в ЧПУ все бывшие get-параметры и их значения хоронят в адресе как подпапки (имхо это бред). И при отступлении назад по папкам начинаются крайне интересные финты. И потом тратится куча времени, чтобы сначала убедить дятлов-разработчиков поправить адресацию и ответы сервера, а потом чтобы они реально это сделали.

Так что иногда проще сделать все страницы второго уровня, если адресация движком строится. Либо четко отслеживать способы построения папочного ЧПУ, четко лимитируя для себя, что все, что попадает в ЧПУ - роботу доступно, а все, что передается дополнительно через get-параметры - роботу не надо, типа сортировок, фильтров и т.п. инструментов, порождающих четкие и нечеткие дубли страниц и это должно от робота быть скрыто сокрытие активирующих ссылок, через мета-теги запрета на страницах результатов срабатывания, закрытие этих же страниц по маске в роботсе и через каноникал.

---------- Добавлено 05.11.2012 в 12:56 ----------

thinkslow:
Вопрос в догонку.
Ялвяется ли минусом, если я каждую страницу буду создавать по типу:
www.site.ru/stranica/index.html
www.site.ru/stranica2/index.html
www.site.ru/stranica2/podstranica1/index.html

Более изящного решение для более аккуратного УРЛ не знаю. Подскажите?

А не проще и очевиднее вот так?

www.site.ru/stranica/

www.site.ru/stranica2/

www.site.ru/stranica2/podstranica1/

В веб-серверах индексный файл может по любому называться в папке, это настраиваемо в том же апаче. для адресации достаточно вполне просто указать папку, дальше пусть сам сервер разбирается, что именно он должен для этой папки отдать как контент по умолчанию. Роботу обычно такие нюансы рядом с птицей.

Либо вообще:

www.site.ru/stranica.html

www.site.ru/stranica2.html

www.site.ru/stranica2/podstranica1.html

Только здесь надо быдет настраивать 301-редирект с www.site.ru/stranica2/ на www.site.ru/stranica2.html

kazakofsky:
Тоже наблюдаю. Кто-нибудь помнит, такое уже было раньше? :)

Массово чтобы - вроде не было. У самого пару раз отваливались регионы, если к сайтам "сомнительные" адреса привязаны были.

Сейчас у себя такого не наблюдаю ни на одном из сайтов.

SeoMad:
То, что привязанные регионы отваливались - было. Привязанные через Яндекс.Справочник - не припомню. Он сам по себе начал давать какие-то плюсы не сказать что уж очень давно.

Привязка через Панель - да, бывало. Привязка через Справочник - только по мановению руки модератора, видимо, бывало.

На счет плюсов - дает хороший плюс в регионе, для которого адрес прописан и контакты в справочнике. Зависит от конкурентности региона и тематики, естественно. Давно-не давно, но годик где-то уже работает как альтернатива Каталожным регионам.

А чем беки в майле принципиально отличаются от беков в яндексе? Сама по себе фраза слегка интересная... Беклинк (в данном контексте) - это ссылка с одного сайта на другой, к поисковой системе никак не относится.

Ни в Яндексе, ни в Майле, ни толков в Гугле запросами к поисковику беки не узнать.

А Соломоно - он выдает сведения о беклинках абстрактно от конкретного поисковика. Этот сервис не "только по яндексу ищет(" - он просто ищет ссылки на сайт. Сам, вроде. Без учета поисковиков...

Вебмастерской панели в Майле нет, в отличие от Гугля и Яндекса. Да и через них (панели) более менее внятные данные по бекам можно получить только в Яндексе, Гугл не дает таких данных подробных.

Так что анализируя ссылочную массу, можно лишь строить гипотезы (подкрепленные опытом и знаниями), какие ссылки сработают для Яндекса, какие какие для Гугла, а какие для искомого ТС Мейл.ру

1. Взять семантическое ядро сайта, разгруппировать на запрос + его низкочастотное окружение, сделать нужное число групп по числу страниц сайта

2. На основе полученных групп создавать тексты, сверившись со средней (около максимальной, около минимальной) по ТОП для данного запроса частотой вхождений прямых, словоформенных, процентом тошноты слов (можно посмотреть на seolib до 5ти запросов в день бесплатно)

3. Полученный текст должен быть хорошо структурирован, использование подзаголовков, списков и т.п. где уместо - хорошо. Если уместно - снабдить тексты иллюстрациями с соответствующими запросам альтами.

В общем то ничего нового. Хорошо структурированный текст удобно читается пользователем, он же люб поисковику. Иллюстрация разбавляет простыню для человека, а ее альт полезен в том числе и роботу. Концентрация внимания на одном понятии в тексте логична для читающего, снабжение текста расширяющими понятиями тоже. И для поисковика охватывается запрос с его подзапросами в рамках одного текста.

А еще не забыть о перелинковке с нужных базовых терминов из тела текста между страницами, где это уместно.

И только после того, как поисковик съест текст и устаканит позицию - тогда можно делать анализ и вносить корректировки. С первого наскока все равно идеального текста не получить, ибо еще есть анкор-лист страницы, пусть даже анкор лист внутренней перелинковки (который надо учитывать, или хотя бы держать в уме факт его существования, при анализе текстов конкурентов)

Marmelad:
У меня половина вордстата на украинском, при выбранном регионе показывает левые запросы.
У кого-то такая ситуация повторяется?

Аналогично. Питерский IP. Интерфейс уточнения региона в Вордстате на украинском. В настройках бравзера, аккаунта Яндекса и т.д. и т.п. стоит русский язык и нативный питерский регион (не переопределял, "определять по IP")

Практика показывает, что добавление в Яндекс.Справочник:

1. Не "привязывает" регионы (в Вебмастере не появляются новые регионы, только изначально назначенный автоматом или руками, горе то какое...)

2. Позиции по запросам в указанных в справочнике регионах для филиалов конкретно и очень позитивно растут, посему на п.1 плевать.

Методика вполне эффективная, а что там панелька показывает, если есть траф с нужного региона (-нов) - абсолютно до фонаря.

Отмечу, филиалы прописываются для одного домена, без поддоменов и прочей ерунды.

Наверное, для каких-то тематик такой метод и не подойдет, но в моих двух подконтрольных b2b и b2c проектах, для которых это потребовалось сделать, это отлично работает.

Для ГНЗ запросов с указанием города - да, скорее всего, не сработает, не проверял, но логика подсказывает, что в текстах то нету этих слов с названием города.

Поисковик в принципе может вычислить (если это кому-то будет нужно) сайты по движкам по стандартным фингерпринтам (как например itrack.ru вычисляет своим сервисом и аналогичные) - стандартные пути к файлам, типовые схемы генерации URL страниц.

Но опять же, любой из этих "отпечатков" ничего трудного не составит замаскировать, если только делать это (создание сайта) руками, а не генерить сайты автоматом без настройки или не оставлять в дефолтном после разворачивания состоянии, жбахнув пару нужных плагинов и шаблон в лучшем случае. Это когда "бизьнесь" и это обстоятельство "не позволяет" вдумчиво настроить проект, "время типа дорогое, стомульенов минута", ага, и работу хорошо делать некогда.

Опять же, я сапоГС и т.п. не делаю, только клиентские сайты. СТотыщстраничные копипастные сайты со стандартными структурами наверное можно и так было бы вычислять, но важным в этой формуле является копипаст, а не движек или руками сверстанный сайт - так что вопрос смысла не имеет. Выберите или допилите CMS - и все ок будет, а если у конкретной CMS родовые противоSEO травмы (или вы не нагуглили, как их обойти) - не берите такую априори, чтоб потом не мучиться.

SmileP:
читател, другие операторы используйте, тильду к примеру

Да даже и с тильдой... Я понимаю, что тема весьма и весьма конкретная. Но периодически там такие "милые сайты", от которых дрожь берет, как такие "юзабельные" и ни разу не спамные сайты в топ выбрались. Особенно помятуя октябрьскую резню "за переспам". Хотя наверное "пипл хавает" и статистика выдачи адекватна позициям ее наполнения.

- чистый запрос http://yandex.ru/yandsearch?text=%D0%BF%D0%BB%D0%B0%D1%81%D1%82%D0%B8%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5+%D0%BE%D0%BA%D0%BD%D0%B0&lr=2

- запрос с тильдой http://yandex.ru/yandsearch?text=%D0%BF%D0%BB%D0%B0%D1%81%D1%82%D0%B8%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5+%D0%BE%D0%BA%D0%BD%D0%B0+~~+%D1%83%D1%80%D1%83%D0%BC%D0%B1%D1%83%D1%80%D1%83%D0%BC%D0%BA%D0%B0%D1%81%D1%82%D1%8C&lr=2

Отличие в единственном милейшем информационном портале на все 25 первых результатов, которого нет в тильдовой выдаче (и причем здесь поведенческое? Это скорее Спектр отличился), потом незначительные различия уже после 26 места.

хм... тут вот и от 9-10 мая Яндекс божится, что есть сохраненка

http://yandex.ru/yandsearch?text=%D0%BF%D0%BB%D0%B0%D1%81%D1%82%D0%B8%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5+%D0%BE%D0%BA%D0%BD%D0%B0+date%3A20120428..20120430&lr=2

хотя это и противоречит запросу, теоретически. быстробот, чтоли...

всегда не всегда... хотя точно не скажу, не мониторю обычно предАПье. Сегодня вот засиделся. А прямая трансляция возникала, бывало такое и 3-4 года назад. Вроде как когда кеширующие сервера не отвечают или еще чего (ну заняты например мощности, или по фронту глюк какой). Так что может и АП, а может и что-то другое.

Скоро все узнаем :) Лично я часов через 6-7, когда проснусь и гляну :)

Всего: 257