- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
А Яндекс в этом плане крут, его инструмент переобхода нагибает гугловский)
Зато жмет трафф, у белых вон уже теории о независимости количества трафа от позиций и о конечном "ниотчегонезависящем" количестве выдаваемого трафа.
Вся эта дичь началась после НГ. Еще в декабре все заходило со свистом. После НГ тормоза нереальные.
Сканирование паг в Вебмастере у меня не работает, так как страницы сначала добавляются в индекс, потом вылетают, по сути получаются такие же показатели, как если бы вообще не сканировал и не аддурлил. Попытки увеличить лимит в настройках сайта тоже не особо помогает. Так что я лично делаю вывод, что Гугл на начальном этапе оценивает дор и выставляет ему лимит паг в день. Та к как у меня есть доры, которые индексируются со скорость ровно в 10 паг в день, или ровно в 70 паг.
Единственный способ, который у меня работает - спам ссылками, но с ссылок должны быть переходы.
Говорю за себя, кто-то посмеется, у кого по 100к за неделю заходит, но факт, до НГ и у меня все было ОК в этом плане. Раньше с индексацией можно было не париться, теперь, видимо, придется чуть поработать.
А Яндекс в этом плане крут, его инструмент переобхода нагибает гугловский)
Давай немного отлеживаться свежим доменам месяц-два, потом только начинает норм индексить и давать какой-то трафф. И это скорее не временное явление, а надолго. Так как стало много шлака в выдачу попадать и Гуглу стало его тяжело индексить, а потом вычищать.
Раньше с индексацией можно было не париться, теперь, видимо, придется чуть поработать.
Дроби крупные доры на сабы, это немного помогает. Даже если гугл посчитает твои поддомены по сути папками, это всё равно положительно сказывается на общей скорости индексации страниц в рамках домен+сабы.
Плюс, бонус морды никто не отменял. Если потратить совсем чуть-чуть времени, то можно поставить на морды сабов самые перспективные запросы.
Вся эта дичь началась после НГ
Да, где-то так. Но первые звоночки еще в ноябре чувствовались. Точно помню, гугл носом начинал крутить: это не хочу индексировать, это тоже что-то не то. Ссылочным правда норм проталкивалось все.
Зато жмет трафф, у белых вон уже теории о независимости количества трафа от позиций и о конечном "ниотчегонезависящем" количестве выдаваемого трафа.
Типа ограничение трафика на домен? Хоть усрись, но выше головы лимита не прыгнешь? Если да, то тут доры опять в выигрыше, ибо масштабы...
Зато жмет трафф, у белых вон уже теории о независимости количества трафа от позиций и о конечном "ниотчегонезависящем" количестве выдаваемого трафа.
Пожалуй, индекс есть - трафа нет. Хотя должно давать трафа нормально.
Дроби крупные доры на сабы, это немного помогает. Даже если гугл посчитает твои поддомены по сути папками, это всё равно положительно сказывается на общей скорости индексации страниц в рамках домен+сабы.
Плюс, бонус морды никто не отменял. Если потратить совсем чуть-чуть времени, то можно поставить на морды сабов самые перспективные запросы.
Инфа интересная, но я и так стал делать в папках, не более 10к паг на папку. Все равно как-то тяжело. Раньше закинул 70к в одну кучу - через две недели индекс. Ну максимум месяц, и траф какой-никакой.
но я и так стал делать в папках, не более 10к паг на папку
Не-не, не в папках, а именно на сабах. Я имел ввиду, что гугл в большинстве случаев (схожий код, дизайн, структура, контент и пр.) приравнивает поддомен к папке, но это не одно и то же.
Проведи простой эксперимент: возьми 100 тыс. кеев и сделай на них два дора на одинаковых шаблонах и текстовке, домены - строго новореги в одной зоне. На первый дор закинь все паги на один домен. На второй - 20 тыс. на коренной домен, а 80 тыс. подели на 10 сабов по 8 тыс.
И посмотри разницу в индексировании. Она не будет грандиозной, но достаточно заметной.
Она не будет грандиозной, но достаточно заметной.
И трафф быстрее пойдет.
Ну что ж, надо будет пробовать. Спасибо за совет.
---------- Добавлено 16.03.2017 в 15:56 ----------
И трафф быстрее пойдет.
В целом, я заметил, что траф из Гугла у меня стал идти буквально сразу после индексации первой сотни-другой страниц. Раньше было пусто недели две, потом начинало что-то капать.
Давай немного отлеживаться свежим доменам месяц-два, потом только начинает норм индексить и давать какой-то трафф. И это скорее не временное явление, а надолго. Так как стало много шлака в выдачу попадать и Гуглу стало его тяжело индексить, а потом вычищать.
туда всегда шлака много шло, как и в Яндекс.
индексация стала хуже. мои ГСы которые клепал по одной схеме несколько лет, больше индексироваться не хотят. то есть хотят но не сильно :(
то есть хотят но не сильно
Скорее сильно не хотят.
В целом, я заметил, что траф из Гугла у меня стал идти буквально сразу после индексации первой сотни-другой страниц. Раньше было пусто недели две, потом начинало что-то капать.
Тоже обратил внимание. В индексе жалких 300 страниц, а трафа, как с 30к раньше. Только частота банов выросла просто до неприличия. У яшки технологию быстробота стащили прям - ливануть трафа пару дней и посмотреть на реакцию юзеров.