Абсолютно, такая же ситуевина.
8x60 [транс.: восемь на шейсят] - я иду искать.
Было такое? :)
Здесь на форуме много тем про файл robots.txt
Основной источник дублей: тэги и архивы закрыты от индексации.
Для проверки любого URL сайта на доступность/запрет к индексации легко проверить в панели ВМ Яндекса, а оттуда уже можно более конкретно настроить.
Уберите галочки и правильно настройте robots.txt
Прошу прощения, что влезаю.
Я всем благодарен за ссылки на белые каталоги статей.
Но на первых страницах, кто-то аккуратно собирал в текстовый файл все что здесь появлялось, а вот к концу это прекратилось.
Может у кого-то есть список всех ссылок из данной темы? Я думаю, что многие были бы благодарны.
Чтобы не создавать еще одну тему...
Установлен Platinum SEO Pack, который вместо страницы шаблона или генерируемой 404 ошибки сервером, выдает страницу поиска с пустым запросом. (ссылки не по типу ЧПУ)
Как сделать, чтобы этого не происходило и как удалить уже попавшие в индекс страницы с таким вот "пустым результатом поиска"?
Такие страницы через Я delurl удалить не получается:
"Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex."
Конечно, как вариант, можно отредактировать роботс.тхт для каждой такой страницы, но как сделать так чтобы такие страницы больше в индекс не попадали...
А зачем весь этот сабж?
Неужели уникальность изображений может повлиять на пузомерки или индексацию материала?
Я так понимаю, идея заключается в том, чтобы получить доп. траффик из поиска по картинкам?
У всех нормально работает сервис или есть такие, кто не могут попасть в аккаунт?
А так не пробовал?
В среднем, как сканер тела конвертируется у кого?