sok3535

Рейтинг
109
Регистрация
18.04.2011

счас тоже пробую - ни в какую - за год настолько улучшили распознавание? :)

westnn:
От дилемма, и как делать их уникальными, не фоткать же самому

фильтры на картинку накладывай в фотошопе например, я топазом пользуюсь, большинство (99%) прогнанных картинок уникализируются

westnn:
Получил такой ответ
Чтобы найти изображения, попробуйте Поиск по картинке.

Не найдено ни одного изображения по запросу http://my-strong-body.ru/images/img/2013-12-27_174600.jpg.

Совершенно нечего не понял

---------- Добавлено 29.12.2013 в 20:11 ----------

Ну а чего не делает уникальным, если я пол изображения срезаю, меняеться ремер пикселей, размер самого изображения и тд...

---------- Добавлено 29.12.2013 в 20:11 ----------

я делаю скрин шот половины изображения например, как оно не может быть уникальным

а вот так пробовал?

Ripro:
Не срабатывает, потому что есть ссылки на закрытые страницы.

ок, по другому, - утверждение не верно, при наличии на странице, (на которую нет запрета в роботсе), тега ноиндекс, либо канонической ссылки, либо страница будет отдавать 404 - в индексе ее не будет, не смотря даже на наличие на нее ссылок, если есть обратные примеры пожалуйста предоставьте пруф - с возможностью, влиять на этот пруф т.е. чтобы мы могли менять роботс и соответство добавить метатег на стр.

p.s. со своей стороны я пруф предоставил - ссылка на тему в посте выше

Ripro:
Каноникал работает лучше, чем запрет индексации, но страницы фильтров отличаются, им не стоит канонические ссылки прописывать :)

если у вебмастера имеется возможность отдавать разные заголовки, описание стр, h1, h2 на стр с фильтрами то утверждение верно, если это не возможно - то, плиз, велкам в справку по канонизации стр

Ripro:
У меня подобные проблемы возникают постоянно со страницами фильтров на ИМ. По ним нельзя отдавать 404 (а делать это нужно очень долго, пока он пережует и выбросит из кеша). А все остальное просто не срабатывает - наличие ссылок гуглу важнее, чем желание вебмастера закрыть страницы, особенно если по ссылкам люди ходят (с форумов, например). :)

что делать по факту я написал, пример привел, в котором поставил ссылку на свой сайт с трастового форума :), почему именно у вас не так я не знаю т.к. не вижу ситуации, возможные причины отписал выше, к ним добавлю, что в данном случае следует использовать каноникал, опять же без запрета страниц в роботсе

Ripro:
sok3535, Страницы были закрыты так на стадии разработки сайта. На время тестирования доступ к сайту был только у разработчиков (ограничили доступ по IP) :)
Да, на на открытых страницах были ссылки в скриптах на закрытые страницы (кнопки) + люди добавили несколько ссылок парочку на закрытые страницы. И вся пачка закрытых страниц вошла в индекс и висит там не один месяц. Удаляет из кеша только вручную, но некоторое время спустя страницы снова в индексе. :)

свой ответ выше дополнил ссылкой - как пример.

p.s. по факту - выкинуть стр из индекса, вы сможете поставив в хед ноиндекс и дав боту просканировать эти страницы либо отдав на них 404 ошибку, опять же, с условием - открыв эти стр в роботсе

Ripro:
easywind, Вы уверены? Испытайте сначала свои советы на практике.
Неоднократно наблюдала как страницы входят в индекс, несмотря на то, что были изначально закрыты от индексации и в роботс, и на странице в noindex, что порекомендуете в таком случае с высоты своего "опыта"?

ноиндекс в странице не будет обработан т.к. страница не будет просканирована, но она может быть в индексе т.к. бот например мог проиндексировать ее раньше, когда она была открыта или же он пришел на нее по ссылке :) - то же самое относится и к любому др тегу в хеде и даж к 404

p.s. вот кстати поподробней на эту тему

hypnoise:
какие к черту ошибки на сайте, если файл robots.txt содержит 2 строчки

😂
Расскажите мне про ошибки на сайте, которые разрешают любому хоть сколь-нибудь порядочному поисковику, для которого этот файл не пустое место, индексировать хоть что-то. А я послушаю.

на роботс гуглу совершенно плевать, они специально разделили понятия на сканирование и индексирование, причем, исходя из справки, индексирование возможно не смотря на запрет сканирования в роботсе :) , если тему вообще раскрыть, то гугл может сам изменять тебе значения в роботсе, т.е. виртуально подставлять свой :) - к примеру - две команды

User-agent: *

Disallow: /

vs

User-agent: *

Disallow /

одна из них с неправильным синтаксисом 😂 - НО - посмотри как их обрабатывает яндекс и гугл.

то же самое стало относится и к 301 редиректу - пс не следует четким указаниям вебмастера т.е. решает сама уже за него что и как - почитай эту тему внимательно :)

klaustrafob:
пруф, пруфом, но нужна статистика по живым проектам. как я писал чуть выше - после снятия этого фильтра на одном из моих клиентских проектов пошёл потолок в 200 хостов. и он-то меня и напрягает. задача выяснить - временное ли это явление, или симбиоз факторов. если это симбиоз, то надо вычислять оставшиеся.

собирай - тут много статистики с комментами гугловцев :)

fagot_seo:
Урл показать не могу.
Было при запуске так, ну и красные блоки собственно и поснимал.

мог не снимать :), а просто после основного контента их поставить, все тож самое кстати и к изображениям, слайдерам и прочей лабудени относится - если на большей части страниц контент перекрывается чем либо - сайт пессимизируется - пруф ниже

page layout algorithm

Всего: 957