- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Раньше помню кажется Гугл не обрабатывал ссылки типа www.site.ru/page.php?id=sometext, а как дела обстоят сейчас, нужно ли извращаться чтобы делать эти ссылки типа www.site.ru/sometext.html
=нужно ли извращаться чтобы делать эти ссылки =
если коротко, да нужно
magic, так Гугл же нормально такое индексирует. Или я ошибаюсь?
Индексирует нормально, оценивает проиндексированное ненормально
На мой взгляд, раньше (2001), он, как раз, хорошо их обрабатывал, все было в индексе, все индексировалось и не вылетало, вплоть до 2003 года.
Сейчас G в прямом смысле болтает по всем позициям. В том числе, и по надежности и полноте индексации таких ссылок.
индексировать, идексирует, причем давно.
был период что он с таких страниц бэкварды не считал, и даже бот, попав на такую страницу дальше не шел.
ИМХО лучше заморочиться, а то гугль от роду как-то криво с динамикой дружил.
ок. спасибо. буду заморачиваться через mod_rewrite значит :)
а у меня вообще прикольно с одним сайтом получилось... сначала гугл динамику не брал, решил я переделать и спрятать ее, пока переделывал - гугл скушал все динамические страницы, через два дня скушал спрятанные динамические страницы... и потом с неделю у меня просто аврал был с гугла... потом естественно динамику гугл поубирал, и в выдаче по запросам поднялся. так что в любом случае если есть возможность спрятать динамику - это дело хорошее.
и еще один плюс для крупных сайтов: когда я прятал динамику то страницы стали с разных дирректорий вызываться, а не с одной... страниц в индексе стало в несколько раз больше. я думаю с колличеством индексируемых страниц в дирректории есть связь, или я неправ?
Вот еще вопрос в тему. А как лучше прятать динамику?
http://site.ru/category1/category2/pagename.html
или
http://site.ru/category1_category2_pagename.html
?
И второй вопрос. Если я прячу динамику через mod_rewrite то может ли Гугл определить что я замышляю что-то нехорошее? Т.е. правильные ли коды отдает страница?
mod_rewrite коды не трогает, они те же, что и на исходных динамических страницах.
Псевдо-каталоги, мне кажется, лучше. Для посететелей так точно.