- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не получится :) Я чищу логи ошибок в среднем раз в неделю. Иногда там проскакивают попытки обратится к несуществующим страницам. IP принадлежат роботам. Ссылки на эти несуществующие страницы могут водиться только в закрытой части (cgi-bin).
Либо есть ещё два равноневероятных варианта:
1) такими кривыми ссылками кто-то балуется извне.
2) робот конструирует ссылку самостоятельно, отсекая последовательно "лишние" на его взгляд символы.
Более вероятный вариант - робот протормозил, и пошёл по ссылкам, которые были в загашнике. Это было спустя примерно 1.5 месяца после закрытия раздела. Сейчас данная ситуация не воспроизводится. Так что 100% всё же утверждать на счёт злоумышленного нарушения не берусь :)
Такой вариант весьма вероятен. Косвенное соображение: некоторые проги (например, LinkBot), приспособленные для "обхода" сайтов -- вроде таким балуются.
Бывает. Я заметил, что поисковики криво парсят некоторые вещи в коде страницы. Кстати, этим можно пользоваться. ;)
Я хотел бы узнать, при каких вариантах написания HTML-кода происходят данные явления, в чем это выражается и какие могут быть последствия
Ведь получается, что из-за каких-нибудь дизайнерских изысков например, в индекс могут не попасть части текста? Или наоборот, всякий мусор
И нельзя ли привести примеры? Если Вам не хочется здесь писать об этом, напишите пожалуйста мне на e-mail
Заранее благодарю
Вообще-то, я довольно много времени потратил на то, что бы откопать дырки в виде кривого парсинга HTML кода поисковиками, поэтому, надеюсь, Вы не обидитесь, на то, что я не стану их разглашать. Но для примера приведу один. Например, парсинг Яндексом написанного с ошибкой тега <title>. Сравните:
http://www.chita.ru/public_html/zgo/ub207.htm
и
http://www.yandex.ru/yandsearch?text=%23url%3D%22www.chita.ru%2Fpublic_html%2Fzgo%2Fub207.htm%22
на счёт того, что броузер будет отражать нормально Вы наверное поспешили. У меня в IE6 Ваш пример - чистый лист
У меня в Опере нормально показывался. Заменил уже на другой. Впроде тперь всё и в IE видно.
а пользы от этого приёма?
а пользы от этого приёма?
Именно от этого - никакой.
А те, от которых есть польза, навряд ли кто-то здесь опубликует :)
Мне без разницы: если HTML будет парситься криво даже роботом -- он может неправильно отпарситься и браузером (клоакинг в расчёт брать не будем). А это уже ни в какие ворота не лезет.
А тестировать в основных броузерах страницы у вас не принято?