- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как грамотно закрыть исходящие ссылки от индексации поисковыми, чтобы страница не теряла свой вес?
Jeckan, Закройте в noindex и nofolow
А она его и без этого не теряет :p.
javascript -ом закрывайте, а сам скрипт в robots закрыть от индексации
А она его и без этого не теряет
В случае сферического коня в вакууме ага.
Все способы какие были уже не помогают. Гугл даже javascript научился обрабатывать. Так что не имеет смысла это. Для других поисковиков возможно. Только кто ими пользуется?
Оно вам сильно надо? Подмечено чётко - хорошая исходящая ссылка со страницы только бонусы даёт, повышение релевантности за счёт предоставления более полной информации перевешивает потерю статики. Работает при тематической ссылке на авторитетный сайт. Закрыть технически утечку веса можно только скриптом, nofollow не передаёт вес акцетору, но не закрывает утечку собственного веса страницы, noindex вообще ария из другой оперы.
Jeckan, Закройте в noindex и nofolow
Ответ не правильный. Вес уйдет, но не придёт. )))
---------- Добавлено 29.08.2015 в 19:34 ----------
Оно вам сильно надо? Подмечено чётко - хорошая исходящая ссылка со страницы только бонусы даёт, повышение релевантности за счёт предоставления более полной информации перевешивает потерю статики. Работает при тематической ссылке на авторитетный сайт. Закрыть технически утечку веса можно только скриптом, nofollow не передаёт вес акцетору, но не закрывает утечку собственного веса страницы, noindex вообще ария из другой оперы.
А если на сайте реклама сквозная?
Гугл даже javascript научился обрабатывать
индексировать не значит выполнять, а тем более учитывать ;)
Закройте в noindex и nofolow
noindex тут причём вообще?
Как грамотно закрыть исходящие ссылки от индексации поисковыми, чтобы страница не теряла свой вес?
при закрывании вес будет уходить всё равно, просто он будет уходить в никуда.
Если вы так боитесь за потерю веса, вам ссылку нужно удалить.
Оно вам сильно надо? Подмечено чётко - хорошая исходящая ссылка со страницы только бонусы даёт, повышение релевантности за счёт предоставления более полной информации перевешивает потерю статики. Работает при тематической ссылке на авторитетный сайт. Закрыть технически утечку веса можно только скриптом, nofollow не передаёт вес акцетору, но не закрывает утечку собственного веса страницы, noindex вообще ария из другой оперы.
А где доказательства того, что поисковый робот учитывает "хорошие" исходящие ссылки? Вот я, например, в свое время делал белый каталог. В нем были ресурсы хорошо оцениваемые поисковиками. Прошел не один год, а сайт до сих пор в низах и никому его не выдает. ТИЦ и PR какими были, такими и остались.
индексировать не значит выполнять, а тем более учитывать
Я догадываюсь, что Вы имеете ввиду. Поиск скачивает файлик js или просто просматривает код из тега script и ищет ссылки в нем. Да, вполне возможно, что так раньше и было. И это легко можно было обойти, запутав переменные или зашифровав текст в base64, скажем. На этом сайте (searchengines) не так давно наткнулся на новость, что Google научился выполнять скрипты. Google научился индексировать комментарии на JavaScript и AJAX. Что это значит? Как не шифруй ссылки, а результат один и тот же. Если они AJAX сайты индексируют, то получается имеют доступ не только к самому скрипту, а к его результату. То есть бот просто напросто выполняет его и индексирует результат. Владельцам динамических сайтов повезло, а владельцам дорвеев не очень.