- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Ну не знаю, как там на счет пол года... так как я новичек в seo и совсем недавно пробую понять все тонкости.
Если пол года, то почему же у Вас нет экспериментов в этой теме, которые доказывали бы наши предположения или наоборот опровергали их? То есть Вы пол года гадаете на кофейной гущи, как там Google изменил алгоритм?
не словил ты юмора.
и да, я все время гадаю на гуще и пританцовую с бубном и путеп сжигания аромо палочек вывожу сайты в ТОП 😂 😂 😂
не словил ты юмора.
и да, я все время гадаю на гуще и пританцовую с бубном и путеп сжигания аромо палочек вывожу сайты в ТОП 😂 😂 😂
Та да.. чет не дошло ;)
Хорошо, а теперь следующий момент, все таки есть способ "накрутки PR" в сегодняшних условиях?
Например, у меня на странице (PR7) 20 внутренних ссылок, я хочу распределить вес только на 2 (чтобы по 3.5 PR хотя понял что это очень грубое понятие и так все равно не будет), но все же.. то сработает ли следующий трюк:
Закрыть все остальные ссылки редиректом, например через файл go.php а сам файл закрыть в роботсе? в таком случае вес не будет теряться?
И второе, как быть со счетчиками на сайте? Например их 5 штук, и стоят они сквозняком на всех страницах. Если закрывать ссылки через nofollow то все равно вес будет теряться?
p.s. и в целом, если закрывать ссылки через редирект, то мне это уже похоже на какое-то извращение. А Вам?
На этом форуме много rel="nofollow", статистика открыта, наблюдайте.
Почему у яндекса такой резкий скачок? Если тема касается только Google? Не говорит ли это о том, что "Я" ввел что-то подобное? Или я что-то не так понял?
Закрыть все остальные ссылки редиректом, например через файл go.php а сам файл закрыть в роботсе?
А зачем вообще их показывать роботу?
Или вам сказали, что такое прочитается?
А у кого скрипты отключены - таких очень мало и они привыкли видеть полупустые страницы, а тут они не увидят только ссылки и не смогут по ней перейти.
А зачем вообще их показывать роботу?
Или вам сказали, что такое прочитается?
А у кого скрипты отключены - таких очень мало и они привыкли видеть полупустые страницы, а тут они не увидят только ссылки и не смогут по ней перейти.
Уверенны что не смогут? ;)
Может быть то, что таких страниц нет в выдаче, если Вы их закрываете, еще не означает, что они не индексируются?
то, что таких страниц нет в выдаче, если Вы их закрываете, еще не означает,
Конечно, не означает. А найти их может не только по ссылкам /ru/forum/117883
Видимость ссылки для ПС надо проверять в специальных условиях.
Исполняет ли ПС скрипты?
Находим страницу, смотрим что Сохранено в кэше, видим красные буквы в верхнем меню, пробуем их найти... и ещё пробуем.
Как видите, из того скрипта ПС не решается искать всё, что в нём есть.
Подсказка спамерам.
Можно, по обращениям Гугла к серверу попытаться понять, что он выдёргивает из кода скрипта, находящегося в том же файле, а что нет. И, если удастся, то подсовывать тот адрес, на который надо перелить вес, а открывать скриптом другую страницу, не обманывая при этом пользователя.
Если это получится и станет широко известно, всё вернут как было.
Можно, по обращениям Гугла к серверу попытаться понять, что он выдёргивает из кода скрипта, находящегося в том же файле, а что нет. И, если удастся, то подсовывать тот адрес, на который надо перелить вес, а открывать скриптом другую страницу, не обманывая при этом пользователя.
Это клоакинг.
Думаю бот будет просто искать тело ссылки в скрипте. Ведь суть в чём - не важно как написана ссылка - если она активная, то человек который её поставил, рекомендует с помощью неё другой сайт, поэтому передавать вес надо.
Если это ссылка внутри сайта, то передачу веса вообще отключить, только индексировать. А релевантность страниц определять исходя из контента и внешних ссылок.
Это клоакинг.
Боту и посетителю отдается одно и тоже.
Думаю бот будет просто искать тело ссылки в скрипте. Ведь суть в чём - не важно как написана ссылка - если она активная, то человек который её поставил, рекомендует с помощью неё другой сайт, поэтому передавать вес надо.
При невыполнении скрипта у ПС останется неопределенность - что это такое, например для поиска новых страниц использовать может, а для вычисления весов нет, поскольку достоверность инфы мала, а тратить ресурсы на выполнение скриптов не хочется.
Не факт что гугл читает скрипты, тем более в РУнете, но скоро дойдет.
Как на счет такого?:
<script type="text/javascript" src="/javascript/google.js"></script>
+
User-agent: *
Disallow: /javascript/
хотя если он их на странице будет выполнять, то пох =(
Kirik, будет выполнять на странице + disallow не значит что он их не читает.
disallow не значит что он их не читает.
знаю, также знаю что не индексирует и не передает вес