- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Как раз если ссылки забираются не в реальном времени, а раз в день, то от такого скрипта определения продажных ссылок защититься практически нереально (т.к. все варианты доп.параметров - а это может быть и /?? и /// и /&& - в кэшируемом коде предусмотреть практически невозможно)
Реально. Если ссылок к показу нет, то вырезать по очереди каждый из параметров в url и смотреть, когда они появятся. Если ссылки появились - выбрасывать их на страницу ☝
Реально. Если ссылок к показу нет, то вырезать по очереди каждый из параметров в url и смотреть, когда они появятся. Если ссылки появились - выбрасывать их на страницу ☝
Проще нужно, если параметры не определены, то выдавать ошибку (тогда отслеживание директа работать не будет) или отрезать их нафиг.
Реально. Если ссылок к показу нет, то вырезать по очереди каждый из параметров в url и смотреть, когда они появятся. Если ссылки появились - выбрасывать их на страницу ☝
Осчастливите оптимизаторов сквозняками. :)
Это вопрос фильтров. Многие вещи надо отфильтровывать. А это требует кропотливого труда и постоянной доработки. Такое возможно лишь в платных продуктах, либо в Open Source. Данный же скрипт - не более, чем интересная игрушка с закрытым алгоритмом, и просуществует ровно столько, сколько автору будет интересно играться с ней.
угу... в отличии от скрипта по определению Непота г-на Каширина 🚬
да автор как раз и не претендует на продажу скрипта и прочие финансовые выгоды - человек просто показал сам факт существования механизма и его технической, а не "алгоритмической" реализации (ибо в теории мы все миллионеры, а в реальности...)
И еще - напрасно вы провоцируете кризис. Его все равно не случится, потому что мастодонты в лице бирж вам не только вам не по зубам, но даже ПС. Я понимаю, что хочется выделиться, но стоит это делать... осторожнее.
странный Вы, Константин... при анонсе своего непот-сервиса Вы "спасали" всех оптимизаторов от "глобального кризиса неучета ссылок"... а тут человек, якобы, на пустом месте бучу разводит...
а уж про мастодонтов, это Вы совсем загнули... с точки зрения прибылей - думаю у создателей все в порядке... да и будет в порядке...
вот года полтора назад, когда CLX казалось бы был практически монополистом с долей около 75% продажных морд рунета, казалось, что ничто не сможет пошатнуть его позиции... однако чуть меняется алгоритм, находятся люди, подстраивающиеся под это... и вот уже Ксап с Сапой перетенули на себя веб-маневские кошельки оптимизаторов...
хотя как я понял речь тут идет даже о некоем программном ядре-парсере, нежели о системе как таковой...
надеюсь, ТС станет следующим - и сделает свой сервис, минуя данную проблему - и возьмет к себе бюджеты и бирж внутряков, и бирж морд, и линкаторов...
большой респект человеку, который практически пытается доказать (в первую очередь себе), найти проблему, решить ее... а уж если на основе этого удастся сделать систему и поднять бабла - гипер-респект ему будет!
Кстати, ссылки TLA скрипт не определяет в принципе...
Стоит об этом задуматься.
Кстати, ссылки TLA скрипт не определяет в принципе...
Стоит об этом задуматься.
однако оказывается сайты мои, ни одной продажной сцылки не имеют..
о как. а денешки мне из воздуха капают..
Как раз если ссылки забираются не в реальном времени, а раз в день, то от такого скрипта определения продажных ссылок защититься практически нереально (т.к. все варианты доп.параметров - а это может быть и /?? и /// и /&& - в кэшируемом коде предусмотреть практически невозможно)
Ню ню, как же. Прям навскидку могу предложить решение. Впрочем я его здесь уже писал
Вообщем ссылки ксапы, которые отдаются в реальном времени, скрипт больше не определяет, можно менять название темы ;)
Вообщем ссылки ксапы, которые отдаются в реальном времени, скрипт больше не определяет, можно менять название темы ;)
ага :) И создавать новую: "Как убить все ссылочное у конкурента, если он пользуется ксапом" ;)