Хорошо :)
Технически как раз она имеет шансы попасть в индекс, где sitemap будет подключен к сайту и робот пройдет по всем ссылкам представленным в файле.
Вот если бы ссылки на страницу не было ни в навигации, ни в sitemap, вот тогда она действительно "сирота" :) Но даже и в этом случае остаются варианты для индексации, если допустим, в сети появится внешняя ссылка на эту страницу, или на эту страницу клиент обеспечит рекламный трафик, а Метрика будет связана с Вебмастером.
Как раз с таким и сталкивался, страницу никак нельзя найти на сайте, ни через навигацию, ни через гиперссылку на какой-либо странице на сайте. Бывает что веб-мастера допускают подобные ошибки. Согласен, что такие страницы все равно имеют шанс попасть в поиск, но также остается шанс не попасть :) Плюс как-никак, но это ошибка, страница мало того что не доступна для пользователя, кроме как напрямую из браузера, так еще ей не достается ни анкоров, ни ссылок внутри сайта.
Так или иначе, благодарю за общение и идеи.
Кажется вы не совсем поняли о какой ситуации идет речь, либо действительно не встречались с подобным проблемами. Есть страницы, которые созданы с намерением получения трафика по ним, они не генерируются, а созданы на этапе формирования сайта, при том что эти страницы по каким-то причинам не имеют связи. Если sitemap из CMS, то да такая страница не будет "сиротой", о чем я писал в начале топика. Но если sitemap сгенерирован в онлайн, то в отчет она ни как не попадет. Последние два клиентских сайта имели подобную проблему. Страницы были статичные, с контентом, не сгенерированные, не технические дубли. И только сгенерированный sitemap внутри CMS (WP) позволял найти их. В данной теме я как раз и спрашивал, есть ли другие способы сделать так чтобы такие страницы были видны. Ответ получил.
Клиент не всегда приходит с конкретной задачей, например со списком страниц, которые почему-то не индексируются. Довольно часто клиент хочет получить общий отчет об индексации: какие страницы отсутствуют в поиске, которые должны быть там, а какие лишние (дубли, 404 и тд.), чтобы принять соответствующие меры и в последствии улучшить показатели сайта.
Если страница сирота (была допущены ошибка в ходе создания сайта) при этом sitemap сгенерирован онлайн, то такая страница в поиск не попадет, просто технически. Лично я не считаю это задачу "нефункциональной", исходя из своего опыта, но при этом я с вами согласен, аналитик не должен зависеть от какого-то конкретного алгоритма, у него просто есть инструменты, есть понимание принципа работы поисковых систем, есть цель, поставленная клиентом, и он решает ее оптимальным способом.
В этому случае имеет смысл анализировать только те веб страницы к которым есть навигационный доступ. Страницы "сироты" которые вы описали сейчас практически не встречаются, если они генерируются движком, значит логика навигационной связи должны быть. Раньше, когда сайты делались без CMS и страницы линковались вручную, то такие страницы встречались, но данного анахронизма я не встречал уже лет 10.
Вообще сама по себе идея искать подобные страницы не имеет практической ценности. Разве, что предположить, что на клиентский сайт в отдельный раздел закачали вредоностный дор или чужие рекламные страницы (не так давно подобная практика была довольно распространена) и к ним с клиенского сайта действительно не было доступа (их проталкивали в индекс внешними ссылками), но здесь поможет только анализ индексного содержимого, но если учесть, что есть в какой-то папке еще подобные паразитные страницы, то без прямого доступа к сайту вы их никак не обнаружите.
Анализировать надо структуру, навигацию, результаты переобхода поисковых роботов, дубли страниц, циклические ссылки, коды ответов и всё то, что касается целевого оформления сайта. Если вдруг (гипотетически) предположить, что на сайте есть статичные html файлы, которые никак не задействованы, в индексе их нет и нет никаких актуальных навигационных связей, то они никак не влияют (разве, что физически занимают какое-то место на хостинге).
Логично. Думаю что в большинстве случаев действительно не стоит заморачиваться и анализировать то, к чему получил доступ краулер. Но просто хочется делать свою работу более основательнее что ли.
Что касается страниц-сирот, то у меня встречаются подобные случаи, такие страницы удается находить при помощи подключения sitemap в парсинг краулером, при условии что sitemap как раз сгенерирован силами самой CMS.
Как образуются такие страницы, не всегда понятно. Ну например, создается страница без директории, чтобы ссылка была с минимум уровнем вложенности (site.ru/stranica1), но забывают связать данную страницу структурно, либо перелинковкой. То есть на сайте присутствуют страницы, до которых краулер физически добраться не может, но при этом эти страницы имеют контент, предполагается что они создавались для того чтобы находится в поиске и приносить трафик, но из-за ошибок при формировании структуры или перелинковки получились обрывы в связке. Так что практическая ценность именно в том, чтобы искать такие обрывы (ошибки) и устранять, путем проработки структуры, или банально связывать их с другими страницами сайта. Вопрос в теме как раз был в том, что может получиться так что клиент создал sitemap не при помощи плагина или скрипта, а при помощи онлайн генератора (по сути того же краулера), а значит в финальный отчет такие "сиротки" не попадут.
Но в принципе ответ то я по итогу получил, за что и благодарю. Просто хотел убедиться, что других способов для получения полного списка страниц нет, а значит я могу с себя снять дополнительную ответственность как аналитик 😁
Клиентские, то есть чужие 😊 Задача - анализ индексации сайта. Просто хотел уточнить, нет ли другого способа помимо указанных. То есть клиентам можно говорить, что другого варианта нет получить максимально полный список страниц, кроме как из базы данных при помощи плагина или скрипта?
Продолжаем работу! Принимаю срочные и несрочные заказы, рассмотрю ваши предложения.
Пишите 488101535
Готов к работе!
По ценам ничего не изменилось:
Рерайт = 0.9 WMZ/1000 знаков б.п.
Рерайт + SEO = 1.2-1.5 WMZ/1000 знаков б.п.
Пишите свои предложения (488101535) Обо всем можно договориться!
Вновь свободен для заказов.
Цены не изменились:
Пишите (488101535), договоримся
Друзья!
Предлагаю Вам новую услугу - SEO-рерайт. Опыт и примеры работ имеются.
Стоимость услуги 1.20-1.50$ за 1000 тысячу знаков без пробелов. Цена зависит от тематики и сложности задания.
Рерайт без ключей оценивается в 0.9 $ за 1000 знаков б.п.
Поиск материала по-прежнему бесплатный.
Контакты: желательно icq 488101535, но можно и через систему ЛС
Жду Ваших предложений.