- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите, пожалуйста, по теме.
Вообщем на одном сайте:
PageRank: 2
Yandex ТИЦ: 90
на другом:
PageRank: 0
Yandex ТИЦ: 100
Почему на втором так плохо?:confused:
😂
А почему должно быть хорошо? :)
Можно долго гадать, здесь много вариантов ;) Сайт покажите
А на первом хорошо? на самом деле вариантов не так уж и много ...
1. Второй сайт не попал под апдейт PR (новые сайты, в основной своей массе не получили PR в этот апдейт)
2. Первый сайт более удачно перелинкован. Или на него идут внешние ссылки.
3. Второй сайт неудачно перелинкован, на него нет внешних ссылок ...
Mars_S, кому сейчас легко?
Вероятно, второй сайт получил ссылки после пересчета пиара.
После прочтения статьи про PageRank возник вопрос. Вот тут автор пишет:
Как удержать вес PageRank внутри сайта?
Рассказывая о сложных структурах, помогающих сохранить вес PageRank внутри сайта, Крис не упоминает о двух простых методах.
Первый предложен мной — использование JavaScript. Поисковики не индексируют его (причина довольно очевидна — интерпретация JS для каждой страницы потребует гигантские вычислительные ресурсы). Следовательно, любая внешняя ссылка, оформленная на JS будет нормально восприниматься пользователями (99% работают со включенным JS), но при этом не учитываться поисковиками, а, значит, и не принимать участие в расчетах PageRank. Таким образом, для поисковой машины ваш сайт будет без единой внешней ссылки, и проблема удержания веса исчезает полностью.
Второй метод не менее изящен и предложен самим Крисом. Если все внешние ссылки сосредоточены на нескольких страницах, то достаточно всего лишь запретить их индексацию с помощью файла robots.txt, и поисковая машина не будет знать, что у вас на сайте есть внешние ссылки.
Учитывая что статья уже не новая, актуальна ли тема "прятания ссылок". Полазил по форуму, предлагаются много методов, но почти все спорные. Какой на сегодняшний день оптимальный вариант пресечь утекающий PR , или это уже просто очередной миф?
Спасибо.
Да перестаньте озадачивать себя и форумян философскими вопросами. Разберитесь что такое Page Rank и как он рассчитывается и....будет Вам счастье :)
На самом деле вариантов тут несколько. Но вот только вопрос. Если сайты раскручивались одинаково - то такого быть не должно. Если сайты раскручивались разными способами - то делайте выводы и второй сайт раскручивайте аналогично первому и ждите аппа ПР. Вообщем сложно гадать на самом деле :)
Mars_S, поскольку Вы уже копаете вглубь PRа, то, очевидно, на вопрос о том, зачем Вам сам PR нужен, Вы уже ответили. Будьте добры, поделитесь размышлениями. Вот Вам этот пресловутый PR к чему? :)
Если сайты раскручивались одинаково - то такого быть не должно.
Возможно, одинаково, но со сдвигом во времени :)