Ripro

Ripro
Рейтинг
144
Регистрация
04.11.2006
katya_yanul:
Переспам на стр. главной убрали, только если с анкорами переборщили, так получается, какой выход тогда?

Зависит от того, что именно произошло. Если переспам в анкор-листе - снимаем часть ссылок с точными вхождениями (тех, что похуже), добавляем безанкорных. Плавно.

LEOnidUKG:
Если у вас будет две страницы с одинаковым текстом и разными комментариями это будет дубль и страницу выкинет ПС.
Подумайте о пользователях, если в комментариях напишут что-то полезное, не нужно тыкать по 50 страницам, когда есть всё. Явно у вас там форум не будут разводить.

Если прописать код постраничной навигации - это не будет дубль, даже если не убирать текст. Страницы комментариев отлично входят в индекс, ничего не выбрасывают поисковики.

---------- Добавлено 18.11.2013 в 12:25 ----------

nastroen:
Интересует именно увеличение посещаемости из ПС.

С чего ей увеличиваться? Крайне мелкое и отдаленное влияние есть - страница главная будет меньше, будет быстрее загружаться. Люди будут читать комментарии (если интересные) и ходить по страницам, а не уходить с первой, дочитав комментарии.

Но чтобы поднять посещаемость - этого не достаточно.

nastroen:
Если к каждой статье сайта написаны десятки и сотни развернутых комментариев, то можно ли повысить посещаемость, разбив комментарии на страницы?

А главное - сильно ли она повысится по сравнению со случаем, когда все комментарии на одной странице?
Ведь плагин присвоит новым страницам практически одинаковые теги title (отличающиеся лишь цифрой) и одинаковые h1.

Интересует практический опыт, а не теоретический.

Посещаемость или количество просмотров страниц? Просмотры вырастут.

На страницы прописать rel=«next|prev» - указать, что это постраничная навигация и не будет проблем. В тайтл можно не "1", а Страница 1, Страница 2 - между собой они мало будут отличаться, но за счет слова - хоть не будут дублировать тайтл основной страницы.

katya_yanul:
Похожая, ну суть такая, из за чего у меня главная доступна по другим ключам, а вылетел только 1 ключ основной, это возможно из-за акоров, купленых ссылок, т.к. текст заменил на менее оптимизированный.. что тут можно сделать, чтоб вернуть ??

Причин может быть масса.

Переспам на странице, переспам в анкор-листе, если сняли переспам - тоже, подросли конкуренты, временный глюк гугла, зафильтровали запрос.. гадать можно сколько угодно.

"Меры", принятые есть?

veille:
Нет карты, нулевой брендовый домен, ссылки не просто случайные, а только действительно существующие на сайте страницы, но с добавленным /index.html.

Нет гугл вебмастера (и не будет), нет входящих ссылок кроме тех, которые я сам лично оставил на нескольких англоязычных форумах.

Гадать можно сколько угодно. Одно точно - раз ищет урлы, значит они где-то есть или были. Не хотите светить урл, добавлять вебмастер и т.д. - вам тут вряд ли помогут.

Можете написать на форуме гугла, может они подскажут зачем ищут сапу на вашем сайте 🤪

helper2008:
А в Яндексе оно работает?

http://help.yandex.ru/webmaster/controlling-robot/html.xml

segans12:
Я это прописал, вот как с гуглом быть не совсем ясно...

Если домен 3 уровня - гугл сам проклеит, все будет нормально. Проходила такое несколько раз, никаких последствий не было, трафик снижался минимально, примерно на месяц.

https://support.google.com/webmasters/answer/83105?hl=ru

https://support.google.com/webmasters/answer/1716747?hl=ru

LoraB:
Есть технические решения, но они сложные

Есть техническое решение для новичка - как снять ссылку с чужого сайта, не имея к нему доступа? Взломать сайт? 🍿

veille:
Я _знаю_, что таких ссылок там нет :) Я сам этот движок писал, сам натягивал темплейт, делал такое не в первый раз и абсолютно точно _знаю_, какие ссылки у меня есть, а какие нет :)

А домен? Нулевой или была история?

В гугл вебмастер есть ошибки 404 с такими страницами и откуда ведут на них ссылки?

Только не лепите сюда же сапу, плз, :)

---------- Добавлено 17.11.2013 в 16:33 ----------

Еще вопрос - карту сайта проверяли? Если в карте отдать случайно несуществующие адреса (встречала такие глюки и не раз), бот пойдет их проверять.

veille:
Именно.
Есть лог, где гугль искал адреса, которых нет. Причем не просто адреса, а такие адеса, которые довольно часто бывают в таких случаях, просто добавляя /index.html к URL сущестующих страниц.


Зачем гуглю это? Зачем он пытается угадать дубликаты?
Сапа (или аналог) здесь при том, что если она есть, на одном дубликате ссылки будут, а на другом нет. А если сапы нет, ссылки или будут на обоих дубликатах или не будут также на обоих дубликатах.
Если не палево ссылок, зачем еще гуглю это может быть нужно? Для чего тратить ресурсы своих пауков? Проверять, не статика ли это, замаскированная под динамику? А смысл?

Сайт нельзя, но просто поверь на слово, что таких ссылок там быть не может. 100% самописная динамика без всяких там html, URL параметров и прочего.

Паранойя какая-то честное слово. Если движок самопис - еще не значит, что там нет и не было таких ссылок. Я ни разу не видела, чтобы боты искали ссылки, которых нет :)

А уж связывать это с сапой и пытаться понять почему происходит - и вовсе лишняя трата времени, имхо.

Всего: 1040