Посмотрите как поступают статейные сайты с несколькими категориями на 1 материал. Почитайте как с помощью тегирования ведется продвижение. Если наполнение категорий разное (хоть как-то разнятся статьи в нескольких категориях), то проблем не будет
У вас URL статьи меняется в зависимости от категории? В любом случае, какой смысл закрывать категорию из-за статьи? Категория и подкатегория это не дубли
Поисковых подсказок при сборе семантического ядра вы допустим не сможете собрать - так как "взрослые" запросы в них фильтруются и не показываются. Если не ошибаюсь только в яху они собираются, но и там крайне низкого качества
При покупке/получении ссылок проблемы, так как качественные сайты за ссылки на такие ресурсы могут получить фильтр, ну и ссылки на подобные ресурсы не практикуются. Часто покупаются ссылки с порносайтов, но на мой взгляд от них больше вреда чем пользы
Теоретически контент можно разместить на одной странице, по примеру википедии - делая ссылки на конкретные участки текста в содержании. Там по моему и больше 35 000 знаков бывает. Вот например на энциклопедии звездных войн вукипедии страницы с очень большим количеством килознаков порой есть
Верить то хочется, но на одной вере к поисковикам далеко в seo не продвинешься. Потому и существует этот форум, где общаясь с другими людьми, можно узнать их опыт, поделиться своим и сделать выводы. Яндекс в свое время тоже анонсировал отключение ссылок, и что мы видим в итоге? Фактор был включен за много месяцев до официального анонса яндекса об этом, да и его выключение было очень сомнительным, что много здесь обсуждалось---------- Добавлено 15.01.2016 в 22:46 ----------
Все мои кейсы реальные, и я могу дать контакты людей, которым продвигал сайты для подтверждения. Там, где траф поднялся на 51% был снят фильтр за переоптимизацию яндекса, и я могу полностью предоставить переписку с заказчиком по этому поводу.
Срач я как раз таки не люблю, и писал в режиме конструктивного диалога, пока ты не вмешался со своей необоснованной критикой, переходя на личности---------- Добавлено 15.01.2016 в 22:48 ----------
Ну 20% это конечно немного наверное, но проверьте, увеличив на 50% - врядли результат будет лучше. Доводилось сравнивать конкурентов в топе с продвигаемыми сайтами через сервис gtmetrix -
показатели скорости порой оставляли желать лучшего---------- Добавлено 15.01.2016 в 22:54 ----------
Я написал, что по сути всю совокупность факторов можно свести к 2. Можно поставить простой эксперимент - убрать из контента продвигаемую фразу и снять ссылки на сайт. Я посмотрю как будут достигнут топ по этому ключу - там точно должна использоваться поисковая магия:)
Я свои услуги оказываю качественно, у меня и отзывы по ним есть, так что все эти нападки мимо кассы
Я как раз не путаюсь, а вот ты вначале пишешь, что дизайн ни на что не влияет, а потом, что является одним из определяющих факторов - вот тут точно что-то не сходится.
Уж оскорбления кидать точно не я начал---------- Добавлено 15.01.2016 в 22:58 ----------
Отсутствие выборки это наиболее распространенный повод для отрицания любого мнения по продвижению. Если у тебя есть выборка из 50 сайтов, тебе скажут это смешно. Когда из 500 сайтов, что это мало. В итоге все сводится к тому, что человек должен владеть конфиденциальной информацией поисковых систем о ВСЕХ сайтах в индексе.
Я никому свое мнение не втюхиваю, и не называю очевидным, я его просто высказываю. ЭТо мое мнение, основанное на моем опыте и опыте других форумчан, которых я здесь периодически читаю---------- Добавлено 15.01.2016 в 23:01 ----------
Ну Петросян опять просто нервно курит трубку в сторонке, с таким то конкурентом:)
Если следовать этой логике, то чем больше, тем лучше. Но это влияет только на вероятность нахождения по документу ведь, а не на ранжирование. Иначе в топе были бы только километровые тексты
В чем бредни только ты не сказал и в чем фальшивка. Опять ничего по теме. При чем тут информатика тоже видимо никто кроме тебя не понял. То что в соседней теме пишут про выделение ключей жирным люди, ты тоже бредом называешь
Это ведь ты с пеной у рта свою чушь здесь продолжаешь городить. Я сначала думал что у тебя местами только пробелы по seo, а ты тут элементарные вещи впервые узнаешь. Позиции сайта вернутся после нескольких апдейтов по большей части, а то что позиции останутся на своих местах - про это никто не может гарантировать, так как другие факторы по сайту тоже работают. У меня был как раз аналогичный случай, сайт был недоступен 2 с чем-то недели
а ты свое уже сглотнул как понял достаточно и сейчас молодых тому же учишь?;) Я предпочитаю не слушать и верить в то, что говорят старшие, а думать своим умом и делать свои выводы на собственном опыте. Не всегда мудрость приходит со старостью, иногда старость приходит одна, и по тебе и твоему общению это сразу заметно - общаешься как обиженный школьник:)---------- Добавлено 14.01.2016 в 18:12 ----------
Глянул в оригинале и перевод посмотрел на всякий. Обратите внимание на эту фразу По словам представителей Google.
Также, эксперимент, который был проведен
«Наши эксперименты показали, что замедление страницы результатов на 100 - 400 миллисекунд оказывает измеримое влияние на количество поисков на одного пользователя в размере - 0.2% - 0.6% (в среднем, за 4-6 недель в зависимости от эксперимента). Это означает на 0.2% - 0.6% меньше поисков из-за задержки всего в полсекунды!»
Он не относится напрямую к повышению позиций. Я не отрицаю, что гугл анонсировал это как фактор, влияющий на позиции. Я говорю к тому, что реального влияния на рост позиций это не оказывает---------- Добавлено 14.01.2016 в 18:15 ----------
Если мыслить логично, то фактор должен влиять, но к сожалению, реальность с этим расходится. Я на своих сайтах стремлюсь к максимальной скорости в первую очередь из-за конверсии, аналогично для сайтов, на которых доля мобильного поиска высокая, делать верстку под мобильные
Так, насколько понимаю от имени Datot выступает его адвокат)
Отвечаю
Если следовать вашей логике, наличие оплаченного хостинга влияет на ранжирование сайта. Робот зашел на сайт, а тот недоступен, и выключил из выдачи. Можно ли следуя этой логике считать наличие оплаченного хостинга фактором ранжирования? Нет. Я писал про скорость загрузки сайта, а не доступность его. Скорость считывания информации поисковым краулером очень высокая, так что задержки даже в десяток секунд не повлияют даже на индексацию (а индексация не равно ранжирование). Итог: скорость загрузки сайта не влияет на его ранжирование. Эксперименты амазон ясно доказали влияние на конверсию, но экспериментов, которые доказали влияние скорости загрузки на ранжирование, нет
Скиньте ссылку на собственные исследования или чистые эксперименты других людей, где четко выяснено влияние мобильной верстки на ранжирование в мобильных устройствах. Если у вас такой информации нет, то не пишите то, в чем сами не уверены. Я на своих сайтах проверял, никакого влияния нет, и постоянно читаю на форуме то же самое от других людей. То, что говорит гугл, одно, а то что в реальности - совсем другое
Поясняю самый первый пункт
1. Наличие в контенте страницы ключевых запросов, по которым могут переходить пользователи из поисковых систем. То есть в контенте страниц находится запрос А. Запрос А вбивается в поисковую строку поисковика, и наш сайт занимает определенное место по этому запросу, потому что запрос А содержится в контенте страницы. Вроде разжевал максимально
Таак, чем же отличается пункт 1. Отсутствие использования устаревших спамных технологий накрутки (типа клоакинга, текстовой тошноты вхождения и т.п.) от пункта 6. Перелинковка с вхождением ключевых слов, релевантных странице реципиенту. Тут надо подумать... Может быть, всем?
А где связь скорости загрузки с физической доступностью сайта? Аналогично можно было сказать, что фактором ранжирования сайта является...существование сайта!
Я конечно всегда готов узнать новое, особенно если советы дает гуру, так что с нетерпением жду открытия тайн поисковых систем)
Основные факторы в обеих ПС
1. Наличие в контенте страницы ключевых запросов, по которым могут переходить пользователи.
2. Наличие внешних сигналов, в первую очередь ссылочных, по этим ключевым запросам и со страниц, имеющих отношение к этим запросам
так что факторов на 800 а всего 2)
Остальные суть уточняющие для этих двух факторов
В яндексе на выдачу определенное влияние оказывают поведенческие, в гугле что-то такого не замечал
Остальные факторы:
1. Отсутствие использования устаревших спамных технологий накрутки (типа клоакинга, текстовой тошноты вхождения и т.п.)
2. Отсутствие дублей страниц как полных, так и частичных (по тегам например). Для яндекса более важно, чем для гугла на мой взгляд
3. Анкор-лист. Его типа "естественность" - читай максимально широкий, с nofollow ссылками и пр.
4. Качество донора. Незаспамленность, возраст сайта, качество входящих ссылок
5. Вхождение ключей в теги (в первую очередь в тайтле). Для Яндекса более важно чем для гугла
6. Перелинковка с вхождением ключевых слов, релевантных странице реципиенту
7. Возраст и история сайта (не было ли использование спамных технологий и т.п.)
Для яндекса более важны внутренние факторы, для гугла без ссылок трафика не видать
Мифические влияющие факторы (которые по факту не влияют)
1. Скорость загрузки. На ранжирование не влияет
2. Сайтмэп.хмл - оказывает небольшое влияние только на индексацию
3. Оптимизация под мобильные устройства. На ранжирование в мобильных не влияет
4. Протокол https - на ранжирование не влияет
5. Орфографические, пунктуационные, стилистические и прочие ошибки языка - не влияют
6. Битые ссылки - не влияют
7. Качественный, актуальный, экспертный, полезный для пользователя контент - это растиражированный слоган, который по факту может иметь только косвенное значение, и то не всегда. Когда в гугле говорят контент из зэ кинг, они сильно лукавят. Link is the queen
Мог что-то забыть, но вроде основное написал