Скорость обхода влияет на результаты индексирования.
Это всё равно, что спросить - влияет ли скорость пешехода, идущего на работу, на качественные результаты его работы.
Как минимум ошибаетесь в том, что поддомены - это для Яндекса отдельные сайты и поисковые квоты (которые как раз раз коррелируют со скоростью обхода) у поддоменов разные.
Универсальный совет - поставьте ПС самой определять скорость индексации. Если хостинг не ругается на избыточную нагрузку от поисковых роботов от Яндекса, то вручную регулировать этот показатель нет необходимости.
Без компромиссов - над.
Например? Соц. сеть/комьюнити?
p.s. Ну а если глобально то перемены конечно уже подходят и вот-вот придут, про web 3.0 интересно расписано здесь (прямую ссылку давать не буду - так как уже банили на этом форуме с не понятной пометкой):
vc.ru/future/331769-chto-za-web-3-0-o-kotorom-vse-govoryat-i-kakie-nedostatki-nyneshnego-interneta-on-nameren-ispravit
Почитайте - походу туда все и движемся.
Прочитал, занятно, но пока воспринимаю как утопическую иллюзию.
Мировые корпорации, создающие технологии и системы управления не допустят потери власти и контроля (они десятилетиями над этим работали), поэтому описанная там утопическая децентрализация на мой взгляд может быть востребована лишь небольшой частью специализированных сообществ, но в массовое использование им хода не дадут, ибо на самом общем уровне "это не отвечает государственным интересам".
В данном случае исполнитель старательно накручивал поведенческие, чтобы ворваться в топ Яндекса.
Сколько он там продержится - вопрос хороший, мне самому интересно, послежу.
Это понятно, вы мне демонстрируете частотность запросов по Яндексу. Но если вы проверите данные Гугла для этого "сайта", то там будут нулевые результаты.
Это не сайт, это симулякр. Если вы посмотрите историю сайта, то с самого начала его старта осенью 2021 года итоговые данные по заказам там не менялись.
Его исполнитель умеет продвигать в топ Яндекса свои поделки путём накрутки ПФ. Но если даже вы напишите в тех. поддержку Яндекса и обратите внимание на эти "противоречивые" данные, то в последующие недели топовое присутствие этого сайта в Яндексе скорее всего закончится.
Подводя итог вышесказанному: тот кто умеет накручивать не спрашивает про написание комментариев, тот кто спрашивает про написание комментариев, очевидно, не умеет накручивать.
Вывод: вы не повторите успех продемонстрированного сайта, потому что дело, конечно, там не в комментариях.
p.s. Извините, если расстроил.
Так у него новостной сайт, важна скорость размещения, он ещё до публикации должен бежать к нотариусу?
Нет, там процедурно иначе всё решается. Если у новостного сайта есть статус СМИ, то охрана авторских прав уже решается через представителя инф. агентства, кем и будет выступать юрист. Такому юристу не составит труда составить док. базу, что материал был написан штатным сотрудником. Указание на конкретное лицо (автора) согласно штатному расписанию (впрочем никаких проблем нет обосновать внештатника), если есть редакционное задание.
Так что штучно там никто ничего не заверяет. Юрист подключается по мере возникновения рабочих для него вопросов. Юрист составляет претензию и если урегулирования нет, то направляет материалы в суд. Сейчас очень многие юристы занимаются подобной практикой и довольно успешно.
Форумчане выше уже ответили, но я отвечу немного развернув содержание ответа.
Решение данного вопроса лучше определять в зависимости от объёма данных. Если это десятки страниц, то либо выполнить это самостоятельно вручную, либо нанять исполнителя, кто также вручную скопипастит данные и вставит в необходимые ячейки Excel-я.
Если это сотни и уже тем более тысяч страниц + много рабочих полей, информацию с которых нужно точечно взять, то здесь уже будет актуален парсинг данных.
Для парсинга нужен будет программный инструмент, источники данных, целевые поля и скорее всего исполнитель. Это задача уже выше среднего уровня, потому как требует специальных знаний по парсингу.
Если вы отдаете задачу исполнителю под ключ, то вам и не нужен будет программный инструмент, потому что исполнитель выполнит задачу самостоятельно. Если вы сами захотите это выполнять, то здесь а) расходы на приобретение программы б) обучение методике в) время
Если задача несложная, то исполнителя для парсинга данных можно найти на Кворке и на специализированных форумах, в ТГ каналах.
Среди самых известных программ для парсинга - Zennoposter, у программы есть свой форум, где я думаю без проблем можно будет найти исполнителя для этой задачи.
Если вы не горите неумным и непреодолимым желанием делать всё самостоятельно, то цена вопроса может варьироваться от 500 до нескольких тысяч рублей, я бы ориентировался тысячи на две.
Может со скачком и пф улучшились?
Дело не только в конкретном увеличении отдельных показателей ПФ, дело ещё в полноте данных.
Больше спрос, шире запросный индекс, шире охват страниц, больше точек входа, шире информационная вовлечённость.
Да, вы отметили довольно важный нюанс. На ИКС может влиять событийность и информационная востребованность.
В этом смысле было бы любопытно изучить показатели ИКС сайтов, которые посвящены ковиду, информационная востребованность которого безусловно была вытеснена событиями в Украине.
Кстати, посмотрим на https://xn--80aesfpebagmfblc0a.xn--p1ai/
что и предполагалось.
Это название известного советского фильма 1972-го года, его современного ремейка и первоисточника - повести Б. Васильева.
Правда, ни первое, ни второе, и уж конечно не третье к сериалам не относится.
Вы просто потеряете время.
Для того, чтобы поднять эту тему, нужно делать полноценный многостраничный агрегатор - купонатор, а у вас страничка, переадресующая на целевой сайт Biglion.
Если отбросить условности, то это просто лендинг с функцией дора.