- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Практически все продажные ссылки паляться очень легко, достаточно в конец урла добавить произвольную переменною и скрипту биржи ссылок передается уже другое значение адреса, продажные ссылки пропатадают (проверить). Ниже представлен небольшой хак, который убивает все переменные из адреса, кроме тех, которые разрешены вами.
Этот код стоит на всех моих сайтах на вордпресе.
Этот код нужно вставлять как можно выше на странице, обязательно перед вызовом кода биржи ссылок. Не забывайте менять разрешённые переменные.
Ваши коментария, пожелания, спасибы и прочее
Ваши коментария, пожелания, спасибы и прочее
Не то, чтобы пожелание. Перестаньте бредить этим способом определения продажных ссылок и поймите, наконец, простую вещь: страницы http://site.ru/page.php и http://site.ru/page.php?foo=bar являются разными страницами и не обязаны содержать в себе одинаковые ссылки. Поисковый робот, также как и биржа ссылок, идентифицирует страницы по урлу, поэтому никогда поисковики не будут определять продажность ссылок этим способом.
А если еще больше подумать, то прийдете к мысли, что у поисковых систем есть более простые и действенные способы вычисления сайтов - участников ссылочных бирж.
Практически все продажные ссылки паляться очень легко, достаточно в конец урла добавить произвольную переменною и скрипту биржи ссылок передается уже другое значение адреса, продажные ссылки пропатадают (проверить).
А почему просто не изменить скрипты сайта, чтобы для несуществующих страниц выдавалась 404 ошибка либо 301 редирект. Редирект можно делать как на главную так и на корректную страницу, если ее адрес возможно определить.
Лично я выбрал вариант с 301 редиректом.
у меня на движке защита от такого стоит)))) 404 выпадает т.к. просто нету такой страницы)))
А если еще больше подумать, то прийдете к мысли, что у поисковых систем есть более простые и действенные способы вычисления сайтов - участников ссылочных бирж.
Подскажите плз :)
Noxon, в нормальных программах ничего передаваться не будет, я через модреврайт делаю так чтобы у меня на сайте были доступны только такие url какие я планирую.
Ссылки чтобы не определялись нужно их:
1.) разбивать по одной.
2.) разносить в разные места сайта.
3.) следить за их количеством.
4.) следить за их качеством.
5.) думать мозгом и придумывать способы естественного представления ссылки, пример dklab.ru
Подскажите плз
А зачем? У Вас же нет своей ПС, а придумать защиту - невозможно. Вернее есть только один способ - весь сайт запретить к индексации. :)
moldu, поисковые системы не вычисляют и не будут вычислять участников бирж, им всё равно. Они вычисляют школьнегов и говнооптимизаторов которые своими неумелыми действиями портят работу алгоритма. Все фильтры и настройки создаются именно для подобных персоналей:)
Сколько нормальных сайтов нужно перебрать чтобы всё говно вычистить?
А сколько вреда можно получить от урезки хотябы 10% нормальных сайтов?
/ru/forum/comment/2645549
moldu, поисковые системы не вычисляют и не будут вычислять участников бирж, им всё равно. Они вычисляют школьнегов и говнооптимизаторов которые своими неумелыми действиями портят работу алгоритма. Все фильтры и настройки создаются именно для подобных персоналей
Сколько нормальных сайтов нужно перебрать чтобы всё говно вычистить?
А сколько вреда можно получить от урезки хотябы 10% нормальных сайтов?
Платон? :)
Перебирать ничего не надо, у них вся информация есть, как на ладони. :)
Советую заглянуть в этот топик.