Антоний Казанский

Антоний Казанский
Рейтинг
791
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Kaavain #:
я сменил ЦМС и грамотно переехал на ЧПУ со всеми 301 как надо. Эффекта от ЧПУ ровно ноль

Никогда не появлялась мысль, что именно в вашем случае и не должно было дать результата?

Вообще допускали мысль, что единичное изменение в определённых обстоятельствах может не давать желаемого эффекта?

Например,

Внедрил ЧПУ, а страницы как не были проиндексированы, так и не индексируются.

Внедрил ЧПУ, а позиций как не было в видимой зоне, так и не появились.

Внедрил ЧПУ, а сайт как был с более 30-40% отказов, так ничего и не растёт.

Отсюда вывод.

Не нужно оценивать полезность единичного технического фактора в отрыве от контекста и доп. условий.

Это всё равно, что кушать протеин ожидая роста мышечной массы, а её не прибавляется, потому что кушающий его просто кушает. 

Aisamiery #:
Это довольно свежий бред от человека у которого 499 подписчиков на канале и сайт явно не лучше и не чище по коду чем у тильды =))

Кол-во подписчиков не имеет никакого отношения к SEO практике. 

Качество кода его сайта тоже не имеет никакого отношения к сказанному. У меня к слову тоже код нечистый, ввиду использования встроенного компонента, но меня это вообще никак не беспокоит. Более того у меня нет задачи продвигать сайт в поисковых системах и трафик из поисковых систем мне по большому счёту не нужен. Надо пояснять почему так или сообразите?

Функция моего сайта - визитка и развёрнутая справочная информация для узких таргетированных задач. 

Поэтому не нужно смешивать Ютуб, личные задачи и контекст обозначенного разговора.


Aisamiery #:
Первый же слайд про чистый код, что типа стили на странице плохо (на самом деле нет), и открываешь исходный код автора опуса и такая же фигня.

Про чистый код - это всё, что вы поняли из видео? Про ЧПУ и управление URL вложенностями, про выборочную настройку sitemap.xml, про настройку кода ответа сервера вы не поняли или пропустили?


Aisamiery #:
В общем там бред притянутый за уши

Если для вас бред, то для понимающих уровень проблем - нет.


Aisamiery #:
в целом да, большие проекты не делают на тильде или большие интернет магазины

Даже магазины среднего уровня не делают. А если и делают, то про фактическую результативность продвижения Владимир уже выше указывал.


Aisamiery #:
а делают именно то что он там перечислил, маленькие проекты под платный трафик и именно с такой целью его и используют

Маленькие проекты только под платный трафик. 

Для перспектив органического трафика вам уже пояснили.


Aisamiery #:
Я не занимаюсь проектами где меньше 10000 заказов в день, поэтому конечно же все ваши вп, опенкарты полное ... ну сами знаете =)) Это по вашей же логике кстати ))

Я вам поясню за сказанное Владимиром.

Заниматься продвижением мелких сайтов на Tilda-е (вообще любых мелких сайтов) в регионе с отсутствующей конкуренцией частнику бесперспективно. Там как правило нет рабочих задач, также нет вменяемого трафика, возможностей и денег. И что самое примечательное - не будет. Чисто практически - это мышиная возня, где клиент своими разговорами уровня - денег нет, но хочу большую посещаемость  и ничего на сайте менять не буду - выжигает всю перспективу работы.

Региональное продвижение частника - это мозгосношение за 500 рублей. Там нет денег и не будет. На долю SEO исполнителя уж точно.

Региональный web рынок, как правило,  менеджерское задувание в жопку клиента про важность и статусность. Я эту жевательную резинку в региональной студии жевал 7 лет. 

Есть буквально несколько тем, где может быть нормальная рабочая нагрузка и трафик - это, например, недвижка, либо что-то социально значимое. 

Но недвижка не делается на Tilda-е, серьёзный бизнес (какой-нибудь местный завод металлоконструкций) тоже не будет делать сайт на конструкторе. 

p.s. Вы уже не первый раз спорите за Tilda-у. И я уже вам говорил - как программист, вы конечно можете "обвесить  велосипед" и превратить его в мопед. Но в широкой практике углубленные задачи по SEO с тонкой настройкой на Tilda-е не решаются, практически во всех случаях SEO студии/команды переводят клиента на полноценную CMS, поэтому за практику продвижения с людьми которые этим фактически занимаются спорить не надо.  

Я могу понять ваш азарт в полемике и кругозор в вопросах программной разработки, но есть ваше личное мнение, а есть устоявшаяся SEO практика и опровергать всё это - довольно бестолковое занятие. Тем более, вам об этом 3 seo специалиста к ряду говорят, а вы упираетесь.

Aisamiery #:
Примерно такими же буквами на сайте тильды и крафтум заявлено что у них поддерживается инструменты для сео продвижения на этом можно и закончить видимо =))

На заборе большими буквами тоже много чего заявлено. Вы первый год в IT, вам нужно пояснить для чего оно там заявлено?

См. видео выше, там как раз приводится, что заявлено и с чем практически возникают проблемы.

Partizan45 :
подскажите пожалуйста, реально ли продвигать по СЕО сайт сделанный на конструкторе Tilda

Вот довольно свежий обзор по проблемам, которые сопряжены с продвижением сайтов на Тильде,


softerra #:

Здесь урлы нормальные. /forum/1085544/page2

А если бы было такое в конце:

/naskolko-realno-vazhny-urly-chpu-dlya-ranzhirovaniya-sajta

То это было бы плохо.

ЧПУ - это технология, конкретные названия страниц и использование их в URL уже определяет вебмастер.

Но даже и с длинным названием (когда оно вменяемое) ничего страшного.

p.s. Но если не доверять общим категоричным репликам на форуме, а открыть слитые факторы Яндекс, то вы найдете десятки наименований факторов, связанных с URL значениям.

Как минимум Яндекс и кол-во слэше считает, и BM25 по содержанию рассчитывает, и триграммы в значении URL фиксирует, и отношение кол-ва анкоров в ссылкам к содержание в URL считает, не говоря о совсем простых, где по паттернам URL-а определяется формат страницы, например,

 

softerra #:
повторюсь, что ЧПУ считаю 100% идиотством

Что идиотского в том, что вы смотрите на ссылку searchengines.guru/ru/forum/  и понимаете, что она ведет в корневой раздел форума?

annaov #:
спасибо большое.

Пожалуйста 😉


annaov #:

не могу понять одну загадку с фильтрацией исключений (exclude)

почему исключение вида - https://*.aaa.xxx.com/* позволяет грузиться страницам вида https://vrevervvreve.aaa.xxx.com/ то есть, разделам четвертого уровня. где ошибка? может быть, приоритетность проверки правила где то нарушена.. стоят галки проверять все субдомены и все от стартовой папки. но мне же такое и надо, кроме исключенных путей.

Не видя всех ваших настроек сложно сказать, но попробуйте обратиться к настройкам Crawl All Subdomain и уберите там галку, если она там стоит (по умолчанию обычно стоит) - пробуйте работать без краулинга по поддоменам.

softerra #:
Люди не читают ЧПУ

Ну это смотря какие люди.

Eсли ты как seo-специалист/вебмастер точечно работаешь со страницами, используешь имена URL-ов в обработке рабочих данных, то наглядность таки важна.

annaov #:
Только адреса голых URL для последующего парсинга
annaov #:
когда у сайта нет открытого sitemap
annaov #:
а структура каталога полностью не раскрывается, страницы выдаются либо от поисковых запросов, либо от тегов, или обрезанной пагинации.

Ага, понятно, вот это уже ясно сформулированная задача.

Тогда. Если нет карты сайты, то перечень рабочих URL адресов мы можете получить только в процессе краулинга (т.е. фактического обхода по сайту через внутренние ссылки).

1. В настройках отключаете переобход картинок, js/css файлов.

2. В настройках извлечения (Extraction) отключаете всё, кроме title заголовков.

3. В настройках robots ставите ignore robots.txt (игнорирование инструкций robots)

4. В настройках скорости лучше поставить Max Threads - 3

5. В настройках User-Agent - GoogleBot

И вперед. 

По результату анализируете URL-ы.

annaov :
Мне нужны только адреса страниц сайта

Нужно только адреса страница сайта - что? Собрать/получить или по готовому списку проанализировать?

Сформулируйте более полно свою рабочую задачу.

Если получить информацию по отдельным адресам, то переключаетесь в режим анализа списка ссылок,

выбираете ручной ввод,

вставляете в рабочее окно перечень нужным вам URL адресов,


нажимаете кнопку "Next" - начнётся процесс сбора данных по указанным вами адресам.

Если просто список URL адресов сайта нужен, то загляните в XML карту сайта, можно взять оттуда.

Всего: 12689