- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всех приветствую!
Хотел спросить о такой ситуации. Есть сайт следующей структуры: главная страница, с нее ссылка на 4 страницы второго уровня, с них - на 30 страниц третьего, далее с каждой из этих тридцати - на 50-150 конечных страниц, ради которых и сделан сайт. Сайту более полугода, описанная структура загружена на него в начале 2009 года, примерно в конце января Яндекс проиндексировал его до третьего уровня - т.е. до тех 30-ти страниц, с которых идут массовые ссылки далее "вглубь", и эту глубь не индексирует, хотя на сайт заходит регулярно. Никаких внешних действий по оптимизации не проводилось, ссылки на сайт ведут с 5 качественных сайтов (в том числе один - с Википедии :)). Сайт не на движке, набор рукописных и напарсенных html-файлов, перелинкованных между собой. Интересующие нас 30 страниц имеют следующую структуру: коротенькая шапка и далее - таблица, в первой колонке - те самые ссылки на страницы конечного уровня, которые не индексируются. Вопрос в том, что не так?
Для справки - Гугл ведет себя точно так же. Он, правда, откуда-то прознал про сотню-полторы конечных страниц, регулярно на них бывает, но "вширь" не идет. Так что проблема, очевидно, объективная :idea:
А ссылки на сайт ведут на главную?
Пробовали ссылки на "интересующие" страницы ставить?
Еще можно попробовать добавить пару УРЛов "интересующих" страниц в вэбместере Яшы.
Если не поможет - то что то не так со страницами...
А ссылки на сайт ведут на главную?
Да, все на главную, кроме Википедии.
Пробовали ссылки на "интересующие" страницы ставить?
Дак ведь их около 2500 :D Как-то это представляется маловыполнимым ...
Еще можно попробовать добавить пару УРЛов "интересующих" страниц в вэбместере Яшы.
См. выше. Тут главный вопрос - ведь Яндекс уже пару месяцев видит внутренние ссылки на эти страницы, но это не дает эффекта. Или ему нужна "ссылка на авторитетный источник"?
Если не поможет - то что то не так со страницами...
Есть предположение - м.б. работает что-то вроде фильтра на разовое появление в индексе большого количества страниц ("антидорвей" :))?
Гугл-то вроде индексирует эти отдельные неизвестно как попавшие в поле его зрения странички. Но все время одни и те же ...
Дак ведь их около 2500 :D Как-то это представляется маловыполнимым ...
Я же не имел ввиду все страницы, а только несколько на выбор, для проверки так сказать ;)
Есть предположение - м.б. работает что-то вроде фильтра на разовое появление в индексе большого количества страниц ("антидорвей" :))?
ИМХО бред.
Скорее уж ограничение на время пребывания робота (например если у вас 2 и 3 УВ меняются постоянно) на сайте или, как у Сапы, дальше 3 УВ ни-ни 😂
Я же не имел ввиду все страницы, а только несколько на выбор, для проверки так сказать ;)
Это можно будет попробовать.
ИМХО бред.
Может быть. Потому и спрашиваю :)
Скорее уж ограничение на время пребывания робота (например если у вас 2 и 3 УВ меняются постоянно) на сайте или, как у Сапы, дальше 3 УВ ни-ни 😂
Уровни вложения (это и есть УВ - ?) не меняются, в нескольких случаях на последнем уровне всего несколько десятков страниц, так что робот должен успевать их просканировать - если я правильно понял мысль.