- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос специалистам:
На некоем сайте создана "карта сайта", на самом деле - набор ссылок из ключевых слов, ведущих на страницы того же сайта, где расположены коротенькие высокорелевантные тексты.
С этих страниц посетитель уже сам идет, куда хочет по этому же сайту, по навигационному меню в шапке сайта.
Сделано это, естественно, для повышения выдачи в поисковиках.
Вопросы:
1. Насколько это эффективно?
2. Считают ли это поисковики поисковым спамом?
3. Умеют ли это распознавать и банить автоматически?
4. Если это увидит живой админ поисковика - будет ли бан?
5. Если у этой технологии есть специальное название - подскажите, пожалуйста (извините за серость).
видел и не такие карты сайта и ни одного бана за такое. ИМХО бана не будет.
Если ссылки соответствуют содержимому - то абсолютно ничего страшного. Такая простыня называется картой :) И для поисковиков полезна, чтобы ничего не потерялось.
А как же "страницы, созданные специально для поисковых роботов"?
Тексты на страницах не несут почти никакой полезной смысловой нагрузги, зато в них полно ключевых слов.
И "простыня" - наполовину просто список ключевых слов и фраз, не имеющих отношения к разделам сайта, ссылки с которых ведут на страницы, созданные специально для роботов.
Такие приемы встречаются, практика показывает, что последствий за это нет.
Хотя все понимают, что такие ссылки сделаны для роботов, а не для людей.
Тут главное не перегнуть палку, хотя эту грань трудно определить.
А как же "страницы, созданные специально для поисковых роботов"?
Вопрос в другом. Каково соотношение полезной информации для юзеров к инфе для роботов. Карта и подобное - это 1-2-5 страниц из 1000. Все ок.
Вы главное не переусерствуйте с ключевиками.
В том-то и дело, что список ключевиков ~25-30% "простыни" и, соответственно, примерно такой же процент страниц сайта, сделанных для роботов.
Вопрос специалистам:
На некоем сайте создана "карта сайта", на самом деле - набор ссылок из ключевых слов, ведущих на страницы того же сайта, где расположены коротенькие высокорелевантные тексты.
С этих страниц посетитель уже сам идет, куда хочет по этому же сайту, по навигационному меню в шапке сайта.
Всё грамотно. Ни один человек за это не побанит.
В том-то и дело, что список ключевиков ~25-30% "простыни" и, соответственно, примерно такой же процент страниц сайта, сделанных для роботов.
ну вот если на сайте 20-30 страниц чисто для роботов - нарветесь
Хотя страница для бота - разная бывает :) делается с умыслом для бота, а выглядит и читается как для чела
Т.е. что будет в том случае, если, например, какая-нибудь добрая душа кинет ссылочку в саппрот Яндекса или Гугля - бан или нет, или на усмотрение конкретного человека?
ничего не будет спама нет, все ссылки на этот же сайт. ключи все равно.