Положение обязывает...
СЕО уже давно перетекло не в работу с сайтами, а в продажу всего того, во что верят массы как-бы-сеошников, и Людкевич это продавал, и дальше будет продавать нечто подобное.
Cell, переименуйте тему в Мэт Катс опять бьёт зеркала. И не забывайте сказки:
Помните, что с бдбд стало? Там это всё как-то китайски-завуалированно назвали.
Для укрупнения (и все платить налоги) пока не хватает того, что было до 2008. И у людей давно есть время на поиски в топ100, где подешевле. А за дорогой ТОП10 массовый потребитель платить пока не может. Поэтому грядёт укрупнение чего угодно, но не СЕО-индустрии.
А что такое «нормальная организация структуры сайта»?
И не лучше ли сразу сделать хорошую, а не нормальную?
Экономия ресурсов создателями ПС — вопрос конкурентоспособности. Они там решают свои проблемы, а не ваши... и не могут потратить лишних 5% своего железа на то, чтобы избежать случайного отфильтровывания вашего подопечного.
Уж если с Яндексом такое, то чего ждать простым смертным? Но желающие верить в высокие технологии могут продолжать аутотренинг: Яндекс умный, он во всём разберётся...
Так это слишком уж давно кажется. Вольфу лет 5 назад так казаться перестало...
Даты/этапы погибели сцылкоторговцев не уточните?
Взгляните не в вашу веру в умные машины, а в их обычную выдачу
http://www.google.com/search?q=site%3Awww.yandex.ru%2Fm&filter=0
особенно радует /m//?admin=XSS
И представьте, что на продвижение /m/ было что-то потрачено, а её нету. Не повезло Яндексу.
А на первой странице темы уже говорили, что ПС всё понимают... но переносчики подобных заблуждений почему-то не могут ничего продемонстрировать. И уж тем более не пытаются задуматься о том, как создатели решают проблему дублей, которые могут легко проглотить заметный % этого металлома. А если написать алгоритм отсеивания слишком тщательно, так, чтобы он почти не ошибался, то это тоже съест заметный % возможностей того же железа. И пока ПС из прошлого века не вылезли. Они всё такие же тупые... но умным ребяткам хочется верить в лучшее.
Как-нибудь проверяли эту уверенность в их знании?
Погуглите site:www.yandex.ru
Это версия страницы http://www.yandex.ru/m/?clid=979671 из кэша Google.
и объясните, чем отличаются страницы
http://www.yandex.ru/m/?clid=979671
http://www.yandex.ru/m/
http://www.yandex.ru/m/?clid=йух
т.е. почему умные машины в этом не разобрались?
Просто смотрят они не на то, что вы считаете стандартными вещами.
Следите за игрой слов:
Смайлики расставьте сами.
А пару лет назад было так:
около 13.06.11 склейка, потом учёт сцылочного с месяц, и около 1/3 от былого трафа с Я. До этого траффа с Я не было, хотя появление в индексе страниц нового домена началось с конца мая.
В сентябре по поводу мелкого взбрыка Яндекса... я выкинул со всех страниц <noindex>, и количество слов, доступных для поиска увеличилось, в декабре бан. И всё с самого начала. Склеилось, меня ничего не устроило, и летом 2012 попробовал расклеить (траф исчез сразу после расклейки), думал может отпустило, не отпустило.
Вот уже третья переклейка (переходы с Яндекса)
И по некоторым идейным НЧ прилипал к ТОП3, как и на старом зеркале было. Так что вся эта борьба яндексоидов за чистоту выдачи — фуфло на очень много %, кроме считания слов они мало что умеют.
С Гугла на старое зеркало идут.
Не знаю. Прошлое может и не повторяться в будущем.
Читается хелп, выполняется точно, иначе вы потеряете время ... выкладывается точная копия, индексится, в роботсах Host: новое зеркало
/ru/forum/649356
ждёте склейки (когда добавка в аддурилку старого приводит к сообщению типа: Указанный вами сайт является неглавным зеркалом сайта...). После склейки опять ждёте...
В итоге это надо делать вместо траты времени на всю эту переписку с ботом. И клеить со старым. И Яндекс(козёл) опять всё индексирует и даже ранжирует не плохо. При этом старый (при попытке расклейки) так и не выпустил. Фильтруется именно домен, а не какие-то там (перечисленные для верующих) нарушения.
Покажите конкретно что именно видит и знает поисковик. На какие #ссылки он кликнул и т.д.