- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Могу сходу сказать как минимум три:
1. Как я уже говорил: Options -FollowSymlinks. К вопросу о том что это дает - это запрещает Апачу упрощать сложные линки. Т.е. "додумывать" пользователя что он имел в виду. Иными словами - заведомо некорректные урлы работать не будут!
к сожалению у меня эта приблуда не работает
3. Метод третий - повторить п.2 например на JavaScript.
параметров в адресе бывает очень много, трудоемкий метод...
Резюмирую:
За нахождение бага в системах продажи ссылок ТС - зачет. Но глобальный незачет за упорствование в "стопроцентности" своего метода.
да ну Вы что... я признал что есть примерно 1 % сайтов на которых выявить ссылки невозможно
Гыыы.... самый продажный сайт судя по показаниям фичи www.artlebedev.ru
Дырка давно известная. На самом деле можно еще и переставлять параметры. Лечение тоже очевидно и заключается в следующих действиях:
1) Нормализация урла
2) Для каждой страницы определение разрешенных видов урлов. Если урл неразрешен то выдавать 404.
Итого: для решения этой проблемы биржам придется немного напрячься сменив алгоритмы индексации и переписав клиент
Гыыы.... самый продажный сайт судя по показаниям фичи www.artlebedev.ru
Вашими стараниями - эта фича скоро превратится в коммерческий продукт:) шутка
скрипт скорее определяет не продажные ссылки (как предают деньги он не видит), а способ которым появилась ссылка на странице - и на тех сайтах на которых его можно пременить (есть 1 % где его применить нельзя) - он выдает ссылки (не все) проставленные скриптом
Скрипт никогда не будет гнать на естественную, белую и пушистую ссылку (кроме того 1%, там есть свой нюанс и можно сделать)
Итого: для решения этой проблемы биржам придется немного напрячься сменив алгоритмы индексации и переписав клиент
Мы уже напряглись. И через пару тройку-недель обойдем эту дыру.
А вообще, топикстартеру респект за тему и баг-репорт.
Идея интерсная.
Вопрос - надо ли от такого уходить (алгоритм любой думающий программер раскроет в два счета).
Идея интерсная.
Вопрос - надо ли от такого уходить (алгоритм любой думающий программер раскроет в два счета).
алгоритм чего?
Вопрос - надо ли от такого уходить
Вот я тоже подумал. Чтобы что называется Асилить это в глобальном масштабе поисковикам придется потрудиться и удвоить нагрузку... при этом всю инфу надо еще где-то хранить.
Вот я тоже подумал. Чтобы что называется Асилить это в глобальном масштабе поисковикам придется потрудиться и удвоить нагрузку... при этом всю инфу надо еще где-то хранить.
Удвоить нагрузку лишь на индексацию. Да и вообще если на сайте есть хоть какое то кол-во ссылок, идентифицированных как продажные, то можно автоматом накладывать санкции (не обязательно каждую страницу и ссылку проверять)
при этом всю инфу надо еще где-то хранить
Для Яндекса один URL - одна страница. Для небольшого сайта все дубли индексируются, но в поиске показывается только один (проверял осенью прошлого года по логам). Поэтому с кривизной урлов необходимо бороться на уровне CMS сайтов.