Покупал естественно на биржах.
Даже более... Только sape.ru и никаких других.
Насчет "Гулг пропарсил биржи" сомневаюсь... это того не стоит... Гугл глобальная система мирового уровня и ей нет дела по большому счету даже на 2-3 млн. долларов, что она теряет из-за каких-то там бирж...
Может быть механизм следующий? Я не знаю... Это только предположение...
Например есть разумный предел прироста ссылок... Скажем 100 ссылок в месяц... Я закупил 110 ссылок за месяц и тем самым нарушил "естественность" прироста... Проходит время еще неделя... и 110 ссылок за месяц и неделю это уже естественный прирост... И сайт снова возвращается и набирает обороты...
Но тем самым я как-бы "палюсь" что ссылки то покупные и прирост неестественный...
Кто может подтвердить эту гипотезу? Или кто может опровергнуть?
Да нет же, господа...
Тут есть явно какой-то смысл и это уже закономерность... Я могу вам привести несколько таких же картинок, когда после закупки ссылок сайт сначала проваливается, а потом всплывает независимо от даты...
Точно такая же тенденция у меня наблюдается по нескольким запросам и провал идет независимо от даты... Тут что-то более интересное, и 100% связано с закупкой ссылок...
Хочется понять почему именно так? И что влияет на этот провал...
Высказывайте все свои предположения... Может мы чуть лучше поймем как работает этот Гигант...
Это ж позиции в Google... Тогда уже можно говорить что Гугл готовился к матчу и забил все топы сайтами с ключевиками Украина-Англия)))
Но блин, а если серьезно...
Очень интересный эксперимент! Будет здорово узнать его результаты.
Я думаю в данном случае играет больше всего показатель траста сайта.
Если сайт маленький и старый, но траст у него большой - он лучше нового большого сайта с меньшим трастом.
Есть теория сайтов хабов и сайтов авторитетов. Думаю ответ этого эксперимента кроется там.
Втечение 2-х месяцев на 1 внутряк поставил примерно около 100 ссылок, начинал с тематических и с ключами, когда тематика закончилась, ставил ПР 3,2,1 околотематику.
На главную также пошло ссылок 100---------- Добавлено 02.02.2012 в 17:25 ----------
На нужные страницы есть ссылки с главной. Причем это основные сквозные ссылки меню. Они есть на каждой странице, что добавляет страницам внутренний вес и релевантность (ключ в анкоре). И все равно Гугл выбирает главную.
Как считаете, это может быть из за поддомена?
Напомню, домен вида www_поддомен_домен_com и хостинг иностранный. А продвигаемся в google.com.ua причем запросы региональные.
Карты сайта на ресурсе и вправду нет. Программа генератор генерирует ее несколько часов, и результат генерации меня не радует. Дело в том что конечные страницы очень не постоянны и сегодня она может быть, а завтра ее могут уже удалить. Поэтому все url в карту сайта нет смысла добавлять, потому что потом в сайтмапе будет куча ошибок со статусом не найдено. Думал, может попытаться сгенерировать карту сайта только для разделов и категорий? Таких будет около 3-4 тысячи страниц. Но не будет ли это сигналом для Гугла замедлить сканирование конечных страниц? Этот вопрос еще пока для меня открыт. И сложность такой генерации в том, что сайтмап придется перебирать вручную, переписывать robots.txt, а он там не маленький. Тоже интересует ваше мнение по этому поводу.
Внешнее ссылочное наращивал на внутряки по нарастающей втечение 2-х месяцев - должного эффекта пока не дало, но правда еще не все ссылки проиндексированы.
Я думаю что фактор частоты обновления принимается. Актуальность информации еще никто не отменял ни в какой сфере.
Если добавляешь новый раздел товаров каждый месяц, на старых товарах тоже отражается положительно. Идут вверх.
С Новостями есть минус. Для каждой страницы - это дорого, а сквозной блок - это дублированный контент.
Поэтому для товаров самое оптимальное решение - комментарии. По поводу того кому их писать, думал сам догадаешься, но если что http://www.stampro.ru/analitika_item/69/ подобных ребят уже достаточно много причем пишет человек и от натурального очень сложно отличить. Но все нужно делать по уму ;)
Кстати, по поводу уникализации изображений много интересного в интернетах написано. Самое интересное, что такие манипуляции как изменение яркости, контрастности, добавление рамки, обрезание изменение размера и т.д. вообще не помогают.
Самый лучший способ - отзеркаливание по горизонтале и все вышеперечисленное. Но будьте внимательны и даже ваши переделанные отзеркаленные картинки проверяйте в этом сервисе, так как эти приемы - не для кого ни секрет и много кто так делает.
Скорее всего считает! В одной книге читал... Но официальных постов не находил по этому вопросу.
Если есть сервис оценки уникальности изображений вроде этого http://www.tineye.com/. То Гуглу вообще ничего не стоит применить подобный алгоритм у себя на серверах :)
У Гугла для обработки изображений есть отдельный бот - это точно. Как он их "колбасит" и когда не очень то и понятно. Но я могу с уверенностью в 95% сказать, что уникальность картинки учитывается не зависимо от имени файла и описания alt.
Все зависит от продвигаемых запросов. Если запросы НЧ - не критично, парой ссылок и хорошей оптимизацией можно успеха добиться. Если запросы СЧ - хорошо иметь новости, но если их нет - ничего страшного, просто ссылки придется докупать периодически, а некоторые снимать периодически. Если ВЧ - тогда да, делай уникальный блок новостей на странице. И дави всеми возможными факторами.
Если НЧ + СЧ тогда как реализовано на других крупнейших магазинах Укрнета (например Розетка, Мобиллак), добавь под каждый товар возможность оставить отзывы. И думаю, догадаешься что дальше делать с ними :)