- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Для правильной с точки зрения вебмастера перелинковки страниц сайта и правильного распределения веса нередко есть необходимость закрыть от ПС некоторые ссылки, а то и целые блоки, например сквозное меню.
Использование noindex и nofollow не решает эту задачу. Использование JS или ajax более эффективно. Перечитал несколько тем на форуме на эту тему, но самая свежая тема годичной давности.
Беспокоит вопрос: Закрытие ссылок при помощи JS или ajax смахивает на клоакинг, за который можно получить бан от ПС. Но даже последнее время уважаемые SEO-специалисты рекомендуют закрывать ссылки таким способом.
Какова вероятность бана? Стоит ли так делать или есть еще более совершенные методы закрытия внутренних ссылок для управлением распределения веса на сайте?
Не будет никаких санкций, это не клоакинг.
Попробуйте добавлять # к ссылкам. Это позволит передавать вес, большему количеству ссылок на одну страницу.
Попробуйте добавлять # к ссылкам. Это позволит передавать вес, большему количеству ссылок на одну страницу.
Каким же это образом # усиливает передачу веса? Мне наоборот надо исключить передачу веса некоторыми ссылками. Приведите конкретный пример, что Вы имеете в виду...
Если на одной странице есть ссылка на вторую типа < a href = "2.htm">Слоны в Москве< /a>, то можно поставить там же < a href = "2.htm#tag">Синие слоны в Москве< /a> . Тогда ПС зачтёт, это как 2-е ссылки на одну страницу, т.к. решётку и всё ,что за ней он отрезает.
На счёт Яваскрипт - Гугл ссылки типа write('< a href= "2.htm">Слоны </ a> '); прекрасно видит , но учитывает их как с rel='nofollow'.
Для правильной с точки зрения вебмастера перелинковки страниц сайта и правильного распределения веса нередко есть необходимость закрыть от ПС некоторые ссылки, а то и целые блоки, например сквозное меню.
Сейчас спрятать через яваскрипт что то от Гугла становиться всё сложней, так что лучше использовать вариант с решёткой.
Или смирится с тем, что ссылкам с меню , что то передаётся.
Со сквозными меню получается такая вилка - или им отдавать немного веса или терять этот вес в пустоту, т.к. яваскриптовые ссылки он учитывает как нофоллов
За закрытие ссылок в JS ничего не будет, Google даже когда-то рекомендовал это делать для внешних ссылок. Вопрос в другом - простой JS гугл исполняет и понимает как обычный текст.
На счёт Яваскрипт - Гугл ссылки типа write('< a href= "2.htm">Слоны </ a> '); прекрасно видит , но учитывает их как с rel='nofollow'.
Не совсем так - он по ним ходит точно, а какой вес передает не ясно.
Пока-что у меня работает такой метод скрытия ссылок в JS:
- JS вынести в отдельный файл .js, который потом подключается как script src=...
- все .js файлы надо держать в отдельной папке типа /js/
- .js файл со ссылками закодировать каким-то упаковщиком типа http://dean.edwards.name/packer/
- в robots.txt запретить:
Disallow: /js/
Disallow: /*.js
Попробуйте добавлять # к ссылкам. Это позволит передавать вес, большему количеству ссылок на одну страницу.
На счет # подскажите, у меня на главной, каждая звездочка в рейтинге статьи, обновляется страницу таким образом "site.ru/#"
Как это воспринимает ПС?
- JS вынести в отдельный файл .js, который потом подключается как script src=...
- все .js файлы надо держать в отдельной папке типа /js/
- .js файл со ссылками закодировать каким-то упаковщиком типа http://dean.edwards.name/packer/
- в robots.txt запретить:
Disallow: /js/
Disallow: /*.js
Согласен, только паковать не обязательно, потому как на выходе тот же JS получается.
Более хардкорный, параноидальный вариант, работающий на 101%. Ни один поисковик не распознает никогда:
1) Кодируем сам URL-формат, т.е. вместо http://www.site.com/path/page1.html приводим ссылки к виду, например mggb:||www^site^com|path|page1^html
Делается простой подменой символов на раз. Этим закрываем наши ссылки от возможных URL-парсеров на стороне ПС, которые ищут ссылки не только в рамках "правильных" тегов
2) Оформляем ссылки как <span class="paranoid-style-hidden-link" rel="mggb:||www^site^com|path|page1^html">анкор</span>
3) В отдельном JS-файле, пишем декодер линков, преобразующий всю эту муть обратно. Сам файл подключаем через <script src="">
4) Допускаем, что хитрые ПС могут для полной сборки страницы (со всеми скриптами имеется в виду) игнорировать Disallow в robots.txt, поэтому физически закрываем доступ к нашему файлу на сервере для запросов с роботов ПС.
Путь не из легких, но с автоматом сработает 100%. От специалиста-человека с должным уровнем квалификации не спасет конечно же.
Vvova, а может будут таки?
Здесь пример.
Мой сайт тоже пофильтровали (бан) точно с такой же формулировкой Платона - стоял на форуме плаг закрытия внешних ссылок..так шо...
Источник
так дорвеи всегда банили :)
а где там дорвей?)) речь о сдл на который ссылка, там все расписано что да как (сайт не мой). Ну а мой сайт тоже далееееко не дорвей)