Константин Валентинович

Константин Валентинович
Рейтинг
64
Регистрация
23.11.2013
ZoomY:
Константин Валентинович, эта картинка ни о чём не говорит, в общем-то.

Да. Снизу под ней приводиться список страниц (с несуществующего сайта), которые выбили ошибку и по статистике (самописный скрипт) видны заходы с Гугла по поиску на несуществующие страницы. А вот это уже очень нехорошо.

ZoomY:
Константин Валентинович, я вам по секрету скажу, Гугл отлично сканирует и учитывает ссылки с нофоллоу и редиректами, а также обычное упоминание адреса сайта на странице (без ссылки). Только никому. ;)

Согласен. Но ведь старого сайта уже нет, как и его страниц. А вот такие "грибы" появляются:

[ATTACH]130059[/ATTACH]

jpg 3.jpg

Еще хуже обстоят дела с файлами. Допустим, новый сайт гугл обходит весь (не глядя на роботс), и ссылки всех файлом появляются в его скрытой отдаче. Удаляй не удаляй - не помогает.

В принципе, они об этом и говорят, что закрытие доступа в роботсе, не есть для них основанием для его не индексации, просто в результатах поиска отдают на них ссылки по другому.

К тому же, я не уверен, что такие скрытые в роботсе папки и файлы гугл не использует для формирования структуры сайта с последующим ранжированием и распределением веса по страницам

ZoomY:
Константин Валентинович, я вам именно об этом и говорю. После такого ограничения удаляете её через ГВТ - и она больше не появляется.

Остаются лишь такие сопли 🍾 (на примере этого форума):

[ATTACH]130057[/ATTACH]

[ATTACH]130058[/ATTACH]

jpg 1.jpg
jpg 2.jpg
ZoomY:
Константин Валентинович, если вы закрываете страницу в роботсе и затем удаляете её через ГВТ, то она в индексе больше не появится, покуда не будет открыта к индексации в роботсе. По крайней мере, сколько я не удалял (а я удалял их сотни), ни одна никогда не вернулась.

Так оно и должно быть, но сайт 2008 года и было много внешних (не траст) ссылок на него. Уже вычистил все социальные сети и доски объявлений. Все равно не помогает.

Кстати, если вы закроете страницу в роботс, то в гугл ее все равно индексирует, но скрывает, и внизу выдает следующую надпись:

"Мы скрыли некоторые результаты, которые очень похожи на уже представленные выше (196).
Показать скрытые результаты."

Если нажимаете показать, то увидите, следующее:

Заголовок - здесь заголовок найденной страницы

Ссылка - ее урл.

"Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее..."

ZoomY:
Константин Валентинович, цель вполне конкретная:



Есть вполне конкретный тул для достижения цели:



.htaccess бот может воспринять по-разному - как временную недоступность, как ошибку, как попытку клоакинга и так далее. А нажав кнопку "удалить из индекса" вы однозначно даёте понять, что хотите удалить из выдачи тот или иной материал.

Удаляется он окончательно, или просто чистится из серпов - вопрос другой. Но работает это, повторюсь, очень быстро - день-два и индекс почищен.

Удаление в Гугле не совсем корректно работает. Сейчас занимаюсь одним сайтом, так третий месяц вычищаю все старые ссылки. Вроде бы все удалил, через неделю, как грибы другие (несуществующие) появляются.

К тому же, если Вы через этот сервис удалили страницу она через какое-то время вновь будет проиндексирована роботом.

Если доступ запрещен в .htaccess, то сервер ответит: "You don't have permission to access / on this server." (за клоакинг можете не переживать).

А может лучше сделать пересылку на новый сайт?

ZoomY:
Константин Валентинович, на основании юзер-агента/реферера?

Если хотите закрыться от поисковиков, то да. Например:

RewriteCond %{HTTP_USER_AGENT} MJ12bot [OR]

RewriteCond %{HTTP_USER_AGENT} AhrefsBot [OR]

RewriteRule ^.*$ - [F,L]

Можете оставить доступ только себе по IP или поставьте пароль, тогда никто (и боты тоже) не зайдет.

Смотря, какую цель Вы перед собой поставите.

ZoomY:
Sower выше написал самое простое и эффективное решение. Удаляется за пару дней (удаляйте сразу весь каталог).

Или же несколько строк в .htaccess пропишите, тогда удалять не придется.

vip-moto:
а он продолжает индексировать

А почему через .htaccess не попробывали?

kurgi:
Ну так там написано прямо противоположное вашим словам. Цитирую:
"Inlining CSS attributes on HTML elements (e.g., < p style=...>) should be avoided where possible, as this often leads to unnecessary code duplication. Further, inline CSS on HTML elements is blocked by default with with Content Security Policy (CSP)."

Правильно пишут... А что написано сверху с примерами, где предлагается часть стиля писать в шапке через скрипт, часть в блочных элементах, а оставшуюся часть вызывать файлом после </html>.

Мы с Вами, коллега, всю тему так оффтопом зафлудим. Думаю, лучше отдельную тему создать, т.к. в Нете информации по оптимизации в ГуглИнсайсе "кот наплакал".

Всего: 341