Никогда не появлялась мысль, что именно в вашем случае и не должно было дать результата?
Вообще допускали мысль, что единичное изменение в определённых обстоятельствах может не давать желаемого эффекта?
Например,
Внедрил ЧПУ, а страницы как не были проиндексированы, так и не индексируются.
Внедрил ЧПУ, а позиций как не было в видимой зоне, так и не появились.
Внедрил ЧПУ, а сайт как был с более 30-40% отказов, так ничего и не растёт.
Отсюда вывод.
Не нужно оценивать полезность единичного технического фактора в отрыве от контекста и доп. условий.
Это всё равно, что кушать протеин ожидая роста мышечной массы, а её не прибавляется, потому что кушающий его просто кушает.
Кол-во подписчиков не имеет никакого отношения к SEO практике.
Качество кода его сайта тоже не имеет никакого отношения к сказанному. У меня к слову тоже код нечистый, ввиду использования встроенного компонента, но меня это вообще никак не беспокоит. Более того у меня нет задачи продвигать сайт в поисковых системах и трафик из поисковых систем мне по большому счёту не нужен. Надо пояснять почему так или сообразите?
Функция моего сайта - визитка и развёрнутая справочная информация для узких таргетированных задач.
Поэтому не нужно смешивать Ютуб, личные задачи и контекст обозначенного разговора.
Про чистый код - это всё, что вы поняли из видео? Про ЧПУ и управление URL вложенностями, про выборочную настройку sitemap.xml, про настройку кода ответа сервера вы не поняли или пропустили?
Если для вас бред, то для понимающих уровень проблем - нет.
Даже магазины среднего уровня не делают. А если и делают, то про фактическую результативность продвижения Владимир уже выше указывал.
Маленькие проекты только под платный трафик.
Для перспектив органического трафика вам уже пояснили.
Я вам поясню за сказанное Владимиром.
Заниматься продвижением мелких сайтов на Tilda-е (вообще любых мелких сайтов) в регионе с отсутствующей конкуренцией частнику бесперспективно. Там как правило нет рабочих задач, также нет вменяемого трафика, возможностей и денег. И что самое примечательное - не будет. Чисто практически - это мышиная возня, где клиент своими разговорами уровня - денег нет, но хочу большую посещаемость и ничего на сайте менять не буду - выжигает всю перспективу работы.
Региональное продвижение частника - это мозгосношение за 500 рублей. Там нет денег и не будет. На долю SEO исполнителя уж точно.
Региональный web рынок, как правило, менеджерское задувание в жопку клиента про важность и статусность. Я эту жевательную резинку в региональной студии жевал 7 лет.
Есть буквально несколько тем, где может быть нормальная рабочая нагрузка и трафик - это, например, недвижка, либо что-то социально значимое.
Но недвижка не делается на Tilda-е, серьёзный бизнес (какой-нибудь местный завод металлоконструкций) тоже не будет делать сайт на конструкторе.
p.s. Вы уже не первый раз спорите за Tilda-у. И я уже вам говорил - как программист, вы конечно можете "обвесить велосипед" и превратить его в мопед. Но в широкой практике углубленные задачи по SEO с тонкой настройкой на Tilda-е не решаются, практически во всех случаях SEO студии/команды переводят клиента на полноценную CMS, поэтому за практику продвижения с людьми которые этим фактически занимаются спорить не надо.
Я могу понять ваш азарт в полемике и кругозор в вопросах программной разработки, но есть ваше личное мнение, а есть устоявшаяся SEO практика и опровергать всё это - довольно бестолковое занятие. Тем более, вам об этом 3 seo специалиста к ряду говорят, а вы упираетесь.
На заборе большими буквами тоже много чего заявлено. Вы первый год в IT, вам нужно пояснить для чего оно там заявлено?
См. видео выше, там как раз приводится, что заявлено и с чем практически возникают проблемы.
Вот довольно свежий обзор по проблемам, которые сопряжены с продвижением сайтов на Тильде,
Здесь урлы нормальные. /forum/1085544/page2
А если бы было такое в конце:
/naskolko-realno-vazhny-urly-chpu-dlya-ranzhirovaniya-sajta
То это было бы плохо.
ЧПУ - это технология, конкретные названия страниц и использование их в URL уже определяет вебмастер.
Но даже и с длинным названием (когда оно вменяемое) ничего страшного.
p.s. Но если не доверять общим категоричным репликам на форуме, а открыть слитые факторы Яндекс, то вы найдете десятки наименований факторов, связанных с URL значениям.
Как минимум Яндекс и кол-во слэше считает, и BM25 по содержанию рассчитывает, и триграммы в значении URL фиксирует, и отношение кол-ва анкоров в ссылкам к содержание в URL считает, не говоря о совсем простых, где по паттернам URL-а определяется формат страницы, например,
Что идиотского в том, что вы смотрите на ссылку searchengines.guru/ru/forum/ и понимаете, что она ведет в корневой раздел форума?
Пожалуйста 😉
не могу понять одну загадку с фильтрацией исключений (exclude)
Не видя всех ваших настроек сложно сказать, но попробуйте обратиться к настройкам Crawl All Subdomain и уберите там галку, если она там стоит (по умолчанию обычно стоит) - пробуйте работать без краулинга по поддоменам.
Ну это смотря какие люди.
Eсли ты как seo-специалист/вебмастер точечно работаешь со страницами, используешь имена URL-ов в обработке рабочих данных, то наглядность таки важна.
Ага, понятно, вот это уже ясно сформулированная задача.
Тогда. Если нет карты сайты, то перечень рабочих URL адресов мы можете получить только в процессе краулинга (т.е. фактического обхода по сайту через внутренние ссылки).
1. В настройках отключаете переобход картинок, js/css файлов.
2. В настройках извлечения (Extraction) отключаете всё, кроме title заголовков.
3. В настройках robots ставите ignore robots.txt (игнорирование инструкций robots)
4. В настройках скорости лучше поставить Max Threads - 3
5. В настройках User-Agent - GoogleBot
И вперед.
По результату анализируете URL-ы.
Нужно только адреса страница сайта - что? Собрать/получить или по готовому списку проанализировать?
Сформулируйте более полно свою рабочую задачу.
Если получить информацию по отдельным адресам, то переключаетесь в режим анализа списка ссылок,
выбираете ручной ввод,
вставляете в рабочее окно перечень нужным вам URL адресов,
нажимаете кнопку "Next" - начнётся процесс сбора данных по указанным вами адресам.
Если просто список URL адресов сайта нужен, то загляните в XML карту сайта, можно взять оттуда.