- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В продолжение темы /ru/forum/178652
Проверил сегодня ссылки с сапы. Проблема осталась без решения со стороны биржи. Т.е. добавляешь хотя бы "?" в урл и приплыли - ссылок с сапы нет.
Есть предложение по закрытию этой дыры.
Хочется послушать-обсудить, на сколько мое предложение целесообразное, и привлечь внимание руководства биржи, потому как это серьезная дыра. Я понимаю, что все варианты мой метод не предусмотрит, например случай размещения нескольких бирж или отображение на сайте текущего времени, например. Но думаю, что 80-90% случаев решение закроет. Так же я понимаю, что данный метод создаст доп нагрузку на оборудование биржи. Но так уж это не реально?
Положительным моментом данного метода также является не создавание сквозняков и полная независимость от вебмастера. Также автоматом решается проблема дублей.
Суть метода в следующем.
При загрузке страницы задача скрипта сапы отобразить ссылки, необходимые к размещению на данной странице.
При загрузке страницы, содержащей скрипт сапы, но неизвестной базе сапы (например, добавили к главной ? или ?а=в и т.д.) сервер сапы получив урл страницы, скачивает ее с сервера вебмастера, считает, например контрольную сумму (хэш) HTML кода и сравнивает со всеми хэшами страниц со ссылками для данной площадки из своей базы (заранее расчитанными). При обнаружении совпадения выдает ссылки. При отсутствии совпадений ссылки не отображает.
По поводу серьезности проблемы - тема этой дыры была поднята 05.11.2007. Может совпадение, но по своим проектам заметил, что с января-февраля 2008 ссылки с сапы стали работать менее эффективно в разы.
P.S. По поводу доп. трафик-нагрузки на сапу. Мягко говоря она сильно возрастет :)
Но есть варианты, использовать в качестве хэша, например, размер страницы из возвращаемого HTTP заголовка. Не 100% идентификация, но все же для большинства случаев подойдет.
to john2007
html контент почти любой страницы меняется постоянно. Даже на самом простом сайте есть например облако тегов (довольно популярная штука). Я только представил, весь процесс что Вы описали. Не очень хорошо выходит. В этом случае о каком либо кешировании на стророне клиента не может быть и речи. Биржа думаю и так качает кучу страниц постоянно (индексация, проверки и тд), сапа (к примеру) и так постоянно висит.
Проще смотреть по списку всех страниц (url страниц)... ну и далее по смыслу.
Тысячу раз уже обсуждалось... :)
Тут и без лишних скачиваний проще-простого сделать защиту от подобного рода URL-вставок.
Только поисковики особо не палят таким образом ссылки. По крайней мере пока... 🚬
to john2007
кешировании на стророне клиента не может быть и речи.
Не очень понял, но по-моему, я не о кешировании на стороне клиента.
to john2007
html контент почти любой страницы меняется постоянно.
Не очень согласен про почти любой. Я бы сказал, 90% страниц в сапе меняются не чаще раза в месяц, а то и реже.
Биржа думаю и так качает кучу страниц постоянно (индексация, проверки и тд), сапа (к примеру) и так постоянно висит.
Можно хотябы раз в день пересчитывать хэш для страниц - этого достаточно для подавляющего большинства случаев. Кроме того, если они и так качаются ежедневно, то доп нагрузки не будет. Можно, как я уже говорил, даже не считать какой-то хэш, а брать размер страницы.
И кстати, причем тут висящая сапа (клиентская часть) и нагрузка по алгоритмам функционирования?
Проще смотреть по списку всех страниц (url страниц)... ну и далее по смыслу.
Не очень понял, можно расшифровать?
Тысячу раз уже обсуждалось... :)
Тут и без лишних скачиваний проще-простого сделать защиту от подобного рода URL-вставок.
Интересно, если столько раз обсуждалось, почему на сапе не сделелали?
И напишите, пожалуйста, какой подход проще и не менее эффективный, чем у меня? Или ссылку дайте, где описан.
Только поисковики особо не палят таким образом ссылки. По крайней мере пока... 🚬
Откуда такая уверенность?
Я не утверждаю, что на основании только этого фактора Яндекс, например, делает вывод о трастовасти донора, но думаю, что как один из факторов, вносящий не маловажный вклад, вполне.
Интересно, если столько раз обсуждалось, почему на сапе не сделелали?
Вопрос не ко мне.
И напишите, пожалуйста, какой подход проще и не менее эффективный, чем у меня? Или ссылку дайте, где описан.
Смысл метода в том, что при индексации сайта собираются все возможные параметры в урле, заносятся в БД и кроме них ничего не берется из УРЛа. Так же надо учесть смену параметров местами..
Вот расписывал более полугода назад тут
Откуда такая уверенность?
Я не утверждаю, что на основании только этого фактора Яндекс, например, делает вывод о трастовасти донора, но думаю, что как один из факторов, вносящий не маловажный вклад, вполне.
Да потому, что по апачевским логам поисковиков давно бы "пропалили"...
это паранойя.
Смысл метода в том, что при индексации сайта собираются все возможные параметры в урле, заносятся в БД и кроме них ничего не берется из УРЛа. Так же надо учесть смену параметров местами..
Вот расписывал более полугода назад тут
По параметрам это первое, что пришло мне в голову. Но я в этом методе кое чего не додумал сразу, и мне он показался не эффективным.
Теперь я вижу, что он не многим хуже моего метода. Но все равно, мой метод мне кажется более системным, что ли.
Т.е. его суть - один и тот же HTML код должен отображать одни и те же ссылки.
Да потому, что по апачевским логам поисковиков давно бы "пропалили"...
А прокси, например? И не обязательно все страницы перебирать, так, главную и одну-две внутренних на выбор, и не более одной за один раз - никто и не заметит...
это паранойя.
А непот, а траст, а вообще, борьба Яндекса с покупными - тоже пароноя? :)
А непот, а траст, а вообще, борьба Яндекса с покупными - тоже пароноя?
непонятно только как непот и траст с покупными соотносятся?
непонятно только как непот и траст с покупными соотносятся?
На сколько я понимаю - непот это был фильтр (или сильно понижающий или отключающий исходящее ссылочное) на площадки, в том числе по причине того, что на площадке продавались ссылки.
ИМХО, траст донора в Яндексе - это более системный чем непот коэффициент, влияющий на передачу ссылочного с донора, опять таки учитывающий в том числе фактор продажности ссылок на доноре.
john2007
В сапе есть очень много необходимых несделанных или недоделанных вещей, которые по некоторым мнениям призваны отсечь так называемых школьников.
Защиту от определения ссылок с бирж вы можете сделать себе сами. Например, для WP плагин iSape это производит (при добавлении ? в урл проданные ссылки отображаются).
antivir,
Предлагаете оптимизаторам рекламировать плагин среди вебмастеров? ;)