- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте в футоре имеются ссылки типа Privace, Terms of use и подобные. Они проходят соответственно, через весь сайт и собирают на себя ПР, что совсем не нужно. Можно конечно заменить ссылки на nofollow, но толку от этого особого не будет, т.к. ПР со страниц просто утечет в никуда.
В общем-то вопрос следующий. Если заменить эти ссылки на яваскрипт (т.е. они будут проставляться скриптом), будет ли в этом толк? Будет ли их гугл учитывать при индексации или они для него просто исчезнут?
П.С. Понятно, что быстробот их не увидит, но вот что будет далее...
Гугл давно грозится, что будет индексировать текст и ссылки из джаваскриптов, но пока воз и ныне там.
Так что какой-то, толк будет, но если речь о внутренних ссылках я бы не заморачивался
На сайте в футоре имеются ссылки типа Privace, Terms of use и подобные. Они проходят соответственно, через весь сайт и собирают на себя ПР, что совсем не нужно. Можно конечно заменить ссылки на nofollow, но толку от этого особого не будет, т.к. ПР со страниц просто утечет в никуда.
В общем-то вопрос следующий. Если заменить эти ссылки на яваскрипт (т.е. они будут проставляться скриптом), будет ли в этом толк? Будет ли их гугл учитывать при индексации или они для него просто исчезнут?
П.С. Понятно, что быстробот их не увидит, но вот что будет далее...
Будет учитывать, толку не будет. У меня давно учитывает.
Читайте здесь http://www.umaxforum.com/showthread.php?t=36931
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Sower Мда, жаль. Получается никак :(
Все что там советуют, явно гугл тоже распознает.
Все что там советуют, явно гугл тоже распознает.
Третий пост от туда + блокировка бота к файлу (папке) через htaccess - не сможет распознать.
Страница может попасть в индекс, так как браузеры сообщат о ней, но при делении веса не будет учитываться.
Sower если бот как-то сможет прочитать этот файл, то можно под фильтр за клоакинк угодить. Но я вас понял, буду думать. В общем-то это не единственный вариант
Будет учитывать, толку не будет. У меня давно учитывает.
Читайте здесь http://www.umaxforum.com/showthread.php?t=36931
не правильная реализация
конструкции вида
document.write("Текст ссылки".link("http://site.com/zayavka.html"));
}
читаются на ура их даже исполнять не надо :)
и ещё всё что будет в исходном коде страницы доступно боту
вот работающий вариант - Сокрытие ссылок с помощью AJAX
burunduk в вышеприведенном примере идея в том, что гугл доступа к этому скрипту не получит (бот блокируется сервером), понятно что он его интерпретировать сможет без проблем.
Но я тоже к ajax склоняюсь
DiZSl, получит ко всему что участвует в формировании страницы, как и яндекс ;)
если вы будите пытаться отделять роботов от посетителей - бан по стуку гарантирован :)
burunduk так я про это выше и написал, что можно санкции получить. А за ссылку спасибо, думаю вариант рабочий
если вы будите пытаться отделять роботов от посетителей - бан по стуку гарантирован :)
Во первых, можно отдавать боту 503 ошибку.
Во вторых, гугл даже за явный клоакинг далеко не всегда банит/фильтрует.
На гугловском форуме была тема о сайте, который боту отдавал страницы, где во всех тайтлах прописано слово БЕСПЛАТНО. Юзер не видел этого слова ни на одной странице. Благодаря такому клоакингу количество посетителей на сайте было в разы больше. Так вот, ответил там сотрудник гугла, что вы можете пожаловаться на этот сайт тикетом. ТС написал, что жаловался, и не раз. Сотрудник гугла больше ни чего не ответил. Я сохранил адрес того сайта, чтоб посмотреть чем это кончится. Ничем. Ещё пол года сайт тот был в топе по высокочастотнику со словом БЕСПЛАТНО.