Straifer1

Straifer1
Рейтинг
164
Регистрация
23.05.2007
bratoz:
А на сайт можно посмотреть?

Скинул в личку.

Proofer:
Да куча таких сайтов) Сейчас от пингвина никто не застрахован.

Угу, пингвин вообще неразборчивый, зачем такой сырой алгоритм выпустили не понять...

bratoz:
Сайты существуют уже много лет и проблем особо не было

Ну и что, у меня сайту около 5 лет и всё это время проблем вообще небыло, а сейчас под пингвином.

bratoz:
Работы сделано было очень много!

После попадания работы было проделано тоже много, новый дизайн, улучшение юзабилити, программирование полезных сервисов, дальнейшее наполнение качественным контентом.

bratoz:
Делится то и не чем. Я делаю СДЛ для людей. Люди оставляют ссылки на авторитетных форумах и сайтах. Причем трафик с некоторых форумов идет приличный и не спадает уже несколько лет...

Тоже делаю СДЛ для людей, люди оставляют ссылки на авторитетных форумах и сайтах и трафик идет, и более 1200 лайков уже при условии, что кнопки были поставлены только 25 марта текущего года.

А из за неестественных ссылок сайт под фильтром и гуглу в общем то плевать на всё остальное:)

Proofer:
topjournal, ну нет у вас там выхода. Есть дикие скачки как и у всех.

У меня и у конкурента даже скачков нет😂

xarraw:
увы, но даный тег можно вставить только на все страницы... на отдельные не получиться
сделал 301 на морду пусть индексирует

Если извратиться можно и на отдельные, например по признакам урлов, если таковые имеются, программер сделает.

xarraw:
...разговор ни о чем...
тогда перефразирую, как скрыть линки от гугл, чтоб он их не видел и не переходил на них и не индексировал

Как ни о чем? Вы хотите при запрещенном сканировании выкинуть страницы из индекса, так не получится, нужно разрешить боту сканировать страницы, а насчет не сканировать и не индексировать, пробуйте <meta name="robots" content="noindex,nofollow">

xarraw:
ну как же не видит запрета если он сам пишет, что она запрещена...
нужно позарез, что в выдаче была только морда

А как он может видеть если он не может просканировать страницу на которой добавлен метатег?:)

xarraw:
Если Вы блокируете страницы через robots.txt, Google-бот никогда не будет сканировать их и никогда не будет читать метатеги этих страниц.

Если страница не запрещена к индексации в robots.txt, но заблокирована с помощью метатега, Google-бот откроет ее, прочитает метатеги, и впоследствии не станет индексировать.

рекомендации гугла! говорю же, гугл все равно индексирует и пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее..."

А я о чем написал, странно что вам не помогает. Если страница в индексе, но описание не доступно, значит он не может её сканировать, но и запрета к индексации он не видит...

Askara:
Значит без этого не как?(

А вы не знали, что гугл садист?:)) Я удалял урлы через WMT - ноль эффекта, хотя периодически мусор выкидывается из индекса, а потом снова возвращается.

xarraw:
Как заставить гугл индексировать только морду сайта?
в роботс запретил все , что можно, двиг вордпрес. Проиндексировал все что запрещено, теперь хочу оставить только морду, но продолжает индексировать и совать в выдачу с пометкой, что страница не доступна и закрыта в роботс.
Очень нужно оставить только морду в выдаче

гугл роботс для сканирования использует, для того что бы полностью удалить страницы из индекса нужно открыть страницы в роботс, а в хедере прописать <meta name="robots" content="noindex">

Eugenyi:
Странно, Пингвин до сих пор я считал что за ссылки наказывает. А как много ссылок закупается на НЧ? или 0 или совсем немного. Так за что резать Пингвину НЧ?
А вот если это апдейт Панды, то вполне вероятно.

А передаваемый вес вы не учитываете? Думаю, что отрицательный вес гробит нч... Это очень хорошо прослеживается на контентных проектах. Насчет панды, сайт просел 25 апреля - 100% пингвин, симптомы, как описал Top for the good

Всего: 1490