- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
так, но индексирует-то только 200ые
а 404 попадают в поиск
представляете что будет с другими ответами :)
они 200ый возвращают :)
http://www.bertal.ru/index.php?a747953/news.404.ru#h
Алексей Добролюбов, а на первом месте кто? ;)
а на первом месте кто? ;)
видимо сперва было 200, страница проиндексировалась, потом добавили в роботс Disallow: /tser.html и страница застряла в гугле :)
видимо сперва было 200
там ни когда не было ответа отличного от 404 и в роботсе она была запрещена всегда, ещё до создания ;)
P.S. это мой сайт
Ну это исключение или косяк какой-то, не может ПС индексировать страницы, которых нет :)
Ну это исключение или косяк какой-то
не, это ссылки :)
только 404
Леша, привет. А ты уверен, что все юзер-агенты при этом нормально отобразят страницу, позволят добавить в букмарки и т.д.? Их много, очень много, и некоторые гораздо умнее, чем им следовало быть :) А скажи, что ты думаешь про rel=canonical?
только в одном случае отдавать 200 - когда url полностью соответствует
Полностью соответствует чему?
просто не используйте этот мусор
Людей, использующих этот "мусор", гораздо больше, чем злых конкурентов, загоняющих в индекс несуществующие страницы. Если оно не будет работать, это гораздо больший минус продукту. Но я как бы не спорю, что в индекс такие страницы попадать не должны.
насколько знаю, ни одна не имеет внятной защиты от "дурака менеджера", либо безумно перегруженный интерфейс, в котором не всякий специалист разберётся, либо настолько урезанный функционал, что работать не возможно
Спасибо, но я скорее имел ввиду возможности в разрезе SEO.
Если страница найдена, но не принимает параметров, то логичнее отдавать 400.
Пример: http://softex.biz/?test
Спасибо, хороший пример. Но здесь 4xx заголовок отдается над соответствующим телом страницы, где написано "все плохо", и это правильно, имхо. Я как-то запомнил, что отдавать 4xx заголовок над нормальным контентом чревато неприятностями, увы сходу не вспомню, почему именно :)
Привет :)
Но вообще (сугубо ИМХО!) это слишком общая проблема, настолько общая, что ей должны заниматься сами поисковики. Тем более, что у них есть все данные, чтобы для таких примеров выбирать правильный вариант. Все известные мне случаи проблем с дублями были связаны с тем, что CMS именно отдает разные URL, а не только реагирует на них.
Привет.
Эту общую проблему CMS чаще усугубляют, чем лечат.
Когда за дубли берутся поисковики, то... им в первую очередь надо освободить свою базу, а не обеспечить на 100% безошибочную фильтрацию... если они в 5% случаев ошибутся, то у них проблем не возникает, а у владельцев сайтов всякое возможно. Ну и не могут ПС на второстепенные задачи тратить слишком много своих ресурсов, поэтому упрощают эту борьбу.
http://www.netcat.ru/developes//archiTect/
http://www.netcat.ru//developes////arcHiTect/
200 OK
http://www.netcat.ru/?robot
А какой заголовок там должен быть?
Такой, который не даёт ПС повода для индексации всего лишнего.
Это для ПС разные урлы.
На мой вкус, заголовок должен отдаваться как раз 200, но с добавлением <link rel="canonical" />, благо его поддерживают более-менее все.
Сначала ПС (имея ограничение на количество обращений к конкретному серваку) скачает эти дубли, потом поймёт, что это дубли. Скорость индексации/переиндексации снижается.
Полностью соответствует чему?
Единственно возможному правильному.
Нужно взаимно однозначное соответсвие между единицами контента и урлами.
есть еще примеры того, что современные CMS не умеют, но должны уметь?
1. Ну хотя бы не создавать тупых проблем для ПС. И там писал уже.
2. Помогать разруливать проблемы, являющиеся как бы свойством сайта. Например футеры/шапки/менюшки можно рисовать на клиенте, не показывая ботам... ну вот если на страницах неповторимого контета мало, например.
3. Оставлять много свободы по изменению всего... включая урлы (предоставляя выбор ласт-модифайда и ответа при обращении по старому урлу), типа Райцин писал давно, или свежие проделки Бурундука.
Если этому всему CMS не соответствуют, то проще возиться со статикой.
богоносец, ага, спасибо!
Сначала ПС (имея ограничение на количество обращений к конкретному серваку) скачает эти дубли, потом поймёт, что это дубли. Скорость индексации/переиндексации снижается.
Я давно не изучал механику скачивания контента поисковиками. Они сперва делают HEAD-запрос, и если в заголовках не 200, это типа не влияет на счетчик обращений к серваку? В таком случае можно отдавать 301 редирект на HEAD-запросы (ориентируясь на $_SERVER['REQUEST_METHOD']) и 200 + rel=canonical на GET (слать не-200 при видимом контенте мне как-то совсем не хочется, может я и не прав).
В любом случае мне кажется, что страницы c rel=canonical должны фильтроваться еще до попадания в индекс. Надо поэкспериментировать.
2. Помогать разруливать проблемы, являющиеся как бы свойством сайта. Например футеры/шапки/менюшки можно рисовать на клиенте, не показывая ботам... ну вот если на страницах неповторимого контета мало, например.
То есть дать админу сайта (сеошнику, разработчику?) возможность управления индексацией отдельных блоков? Мысль интересная, но что-то мне подсказывает: те, кто знают, зачем это нужно, сообразят и как это сделать. А кто не знает - сами себе испортят жизнь (например, закроют от индексации не дублирующуюся навигацию). Можно чуть больше практических примеров по этому пункту?
3. Оставлять много свободы по изменению всего... включая урлы
Да, задание произвольных урлов - дело важное, я согласен. Сейчас даже скорее не из-за кластеров, а тупо из-за кивурдов и урловой релевантности :)
предоставляя выбор ласт-модифайда
Выбор ручной или автоматический? С автоматическим могут быть проблемы. Например, сделали мы, чтоб на странице "новости" отдавался last-modified по дате последней новости (и эта же дата учитывалась в if-modified-since). Вроде логично... но вот сайт забросили и поставили там сапу, и никогда продажные ссылки в индекс не попадут. А потом будут говорить, что это не-сео-френдли-цмс виновата :)