Виктор Петров

Виктор Петров
Рейтинг
240
Регистрация
05.01.2020
Ребята, не стоит вскрывать эту тему
Во-первых, субдомены - это отдельные сайты. Во-вторых, что там уникализировать, если речь об инфо-страницах?
Вообще непонятно зачем блог дублировать на субдомены, я бы вообще так не делал. С коммерцией - понятно, там есть причины, но инфо-то зачем?
minsky #:
Не звизди, интернет построен за счет обмена ссылками, а как там будете использовать дальше, зависит от Вас, даже к примеру Ваша подпись под сообщением

То, что интернет построен на ссылках - понятно. Но на ранжировании в Яндекс это как сказывается?
Год назад это ещё работало. С осени - по нулям, проверено на разных проектах, объёмах ссылок, их типе. Ноль целых хрен десятых.
Можешь - опровергни. Вот стартовые позиции, вот взято ссылок, вот сайт поехал вверх.

df563 #:
А что значит на таких объемах и в таком виде ? Про объемы могу понять что возможно мало в рамках той или иной категории но в целом то ссылки с тематических ресурсов с неплохими показателями

Речь шла о Гугл. Если речь о молодом домене, то десяток ссылок ему ни о чём. Ну, или эти ссылки должны быть очень трафиковыми, настолько, что Гугл уверился в высокой ценности ресурса.
Как по мне, "сквозняки" сейчас хороши для ускорения индексации, подклеивания запросов - но не ранжирования (если речь опять таки не об объёмах). Я вообще предпочитаю контекстные ссылки, анкорные, со статей. Эффект заметнее. Сквозняки же - явный признак аффилированности ресурсов, это уже по другому оценивается.

minsky #:
Да, действительно неплохой софт, лучше тогда сразу весь пакет проверять

Тестировал. Ну, парсер там конкретно слабее Frog или SiteAnalyzer, из плюшек - только что отчёт готовый в pdf в платной версии. Софтина по отслеживанию аутрич-ссылок с встроенным почтовым клиентом - прикольно, но я аутричем не балуюсь. Позиции отслеживать через их софт при наличии кейколлектора как-то даже и незачем. А вот SpyGlass неплохо зашёл - быстро тыцнуть домен и посмотреть, чем дышит. Не все ссылки видны, токсичность и прочие пузомерки там свои и кривые, но в целом практичненько.

Предложу попробовать SEO SpyGlass. Шареварь с оплатой за период, работает на десктопе.
В бесплатной версии покажет количество ссылок-доменов, отчасти - откуда и куда. Нет возможности составить полноценный отчёт и экспортировать.
Платная версия намного функциональнее.
Главная проблема в том, что если не оплатить второй раз платную, бесплатную уже не установить - вернее, не запустить. Будет требовать денег, нет отката версий.
Лично мне сейчас для поверхностного анализа ссылочного профиля хватает бесплатной версии, количество и характер ссылок обновляется регулярно. Для серьёзного анализа, конечно же, этого не хватит.
Бгг. Всё, что касается редизайна сайта в рамках SEO. Вот только вчера накатал.
По факту: вы не соберете хороший дизайн в конструкторе. Разговоры про "творчество" для сайта должны быть наказуемы сапогом по морде. 
Я бы посоветовал упирать на возможности SEO, UX, CRO. Аргументы - ищите. Прав на дизайн нет и быть не может.
На таких объёмах и в таком виде в Гугл ничего не даст. Ну, разве ключи подклеить.
В Яндексе от ссылок сейчас я вообще эффекта не вижу вне зависимости от веса хоста, тематичности и объёмов. С осени минувшего года.
mmb #:

Не устанет, яндекс и так знает кто первоисточник и кто у кого скопировал, другой вопрос, что яндекс не стремится учитывать фактор первоисточника и если взять чужую работу, чуток доработать и выложить на трастовом сайте, то сдвинешь топ.

Не соглашусь. Вижу ряд случаев, когда один и тот же контент одного и того же автора одновременно публикуется на двух разных площадках: большом инфо-портале и на официальном сайте компании-автора. По одному и тому же запросу обе копии ранжируются высоко (в пределах топ-5), но большой портал с огромной посещалкой - на позицию выше.
Вывод прост: авторство, оригинальность и т.п. уступают пользовательским метрикам. И это логично.

easeolv #:
Я же делаю исходя из выдачи. Прогнал по Keyassort и получил структуру. Да в общем то топ 1 конкурент ранжируется по всем словам на одной странице.

Я бы не советовал выдачу Гугла использовать как базу для кластеризации. Он крайне плохо работает с не-английскими языками, а на выдачу в большей мере влияют хостовые метрики, не какие-то семантические векторы. Если речь идёт о русскоязычной версии сайта, для кластеризации всё же стоит использовать Яндекс и московскую выдачу - с точки зрения группировки ключей результаты будут намного лучше.
Впрочем, это имеет смысл только если вы хотите плотно работать со структурой - а это не единственная точка роста.

webinfo #:

Это не значит, что на них нет авторских прав. По крайней мере, по российскому законодательству. Отсутствие прямого запрета на использование не означает разрешения на использование.

Просто авторы с этим не заморачиваются.

Я бы сказал, что тут вопрос рисков. Если какой-то ресурс вложился в картинки, он постарается наказать нарушителя авторских прав. Прецеденты были.
Если речь о растасканных стоковых картинках или рекламе "Кока-колы" 40-х годов - риска получить неприятности фактически нет.
Другое дело, что растиражированный контент и ценности не имеет, тем более - в качестве иллюстрации.

Гуглите "тайтлопокалипсис" - явлению скоро год.
И я бы крепко подумал, прежде чем менять тайтлы на сайте на выводимые гуглом. Он думает о презентабельности сниппета, а вам нужны ключи.
К слову, точка - это конец пассажа. В вашем примере " быстро выкупим ваш старый автомобиль в течение часа " - это про совсем другую группу запросов, не под "выкуп подержанных авто".
Всего: 4434