Не скажется и не вредно.
Совпадения вполне допустимы. Равно как и самые формальные совпадения, когда страницы называются "Услуги", "Контакты" и т.д.
Я тоже, но меня в последнее время прёт именно эта тема. Балансирую между perfomance маркетингом и программированием.
А вообще я только последние лет 5 понял, насколько важно нацелено нагружать свои мозги именно теми задачами, которыми бы раньше ни за что не стал заниматься. Мне лично очень помогает, потому что значительно расширять профессиональный горизонт и укрепляет проф. самодостаточность.
Память нужно тренировать, причём в любом возрасте, а ближе к преклонному так в особенности.
Серьезное тестирование без Python и SQL тоже слабо вписывается в базовые требования работодателей.
Но на самом деле, главное понять логику и словить драйв, а дальше дело пойдет... хотя и не без преодоления сложностей.
Думаю, те деньги, что вам надо они основываются на инвестициях и партнёрстве с привлечением наёмного труда.
Заработать серьёзные деньги на сайтах и на контексте без масштабирования мне не представляется возможным.
Абсолютно солидарен.
TC, начинать вам нужно строго с базовой техники: структура, адресация, разметка, наполнение, объём целевого содержания, внутренние дубли, перелинковка, структура документа, теги и т.д. (берите максимально подробный чек-лист и проверяйте).
Чем добросовестней вы проведете эту работу, тем меньше вам потребуется потратить денег на исполнение заданий.
p.s. Некоторые страницы действительно могут сами вернуться в индекс просто при следующей итерации.
Но если вернулись некоторые, это не значит, что нужно просто ждать, чтобы вернулись все.
Не только клиент, но и работодатель.
Вероятно.
Кстати, может вам в программирование пойти? Или, например, в тестирование?
Одним скорее все не обойдется, потому что наверняка всплывут еще параметры, включая внешние типа utm и т.д.
Вполне нормальная регламентируемая директива.
Работает точно, проверял лично и лично в Вебмастере получал уведомления Исключено по правилам clean-param (за точность формулировки не ручаюсь, но то, что убирали из индекса по clean-param - совершенно точно).
Железно:
User-agent: *Disallow: /*?мусор*
Где "мусор" подстрока УРЛ, например - параметр, который точно не встречается в нужных УРЛ и обязательно есть в мусорных.
Можно и так, но:
а) Ваш вариант запрещает обходить, тогда как clean-param как раз не учитывает адреса с нужными динамическими параметрами.
б) Яндекс в подобных случаях рекомендует использовать именно clean-param.
в) Динамические параметры удобнее дописывать т.е. Clean-param: style&utm&еще_чего-нибудь&ещё_чего-нибудь и т.д.
Но это конечно мелкие частности, ваш вариант тоже имеет место быть.
Где лучше - это вы сами определите, когда несколько месяцев поработаете с разными источниками и остановитесь на тех, которые именно вам больше нравятся / подходят.
Это различные биржи исполнения заданий (их ещё называются буксами). Перечислять не буду, с десяток их набирается точно, поищите в поиске.
Да, один из вариантов.
А вот здесь вам придётся постараться. Гарантировать трафик не получится, всё будет зависеть от вашей активности, ваших ставок на задание и вашей оперативности апать свои задания.
Всё в ваших руках :)
Дим, это уже совсем другая тема.
Проблема растаскивания контента была известна задолго до того, как боты стали так массово беспокоить.
Через Clean-param.
Clean-param: style
хотя в роботс.тхт стоит правило, в т.ч. для яши:
Disallow: /?
Это правило не будет работать.
Всё верно. Господа выше пока не разобрались с разницей между техническими ботами / краулерами (собирающими информацию) и поведенческими ботами, которые используют сначала для прогрева профилей, а потом для накрутки.
Вторые реально могут создавать проблемы и при определённых обстоятельствах влиять на позиции.
Да, для вас это будет самым объективным решением. Антибот Mik-а действительно вызывает сомнения; на прошлой недели мы как раз разбирали особенности его работы и в частности я его тестировал, поэтому выше я его привёл как пример.