- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Это не Дэнс, это наращивание базы: http://notes.sochi.org.ru/263/
Какое отношение имеет "наращивание базы" к смене PR сайтов на разных дата-центрах?
Самое прямое: больше документов в базе - больше ссылок, в том числе и на документы, находившиеся в базе ранее.
Если правильно искать, то никакого "наращивания базы" не видно - все те же 9 млрд документов.
Потом заходим на http://www.google.ru/ и читаем мелким шрифтом внизу "Поиск среди 8 168 684 336 страниц"
Сегодня происходят смешные вещи: BL вернулись к предыдущей версии, т.е. поисчезали все новые и теперь все как было раньше. Один к одному.
Сегодня происходят смешные вещи: BL вернулись к предыдущей версии, т.е. поисчезали все новые и теперь все как было раньше. Один к одному.
Где вы смотрите BL?
Здесь уменьшились:
66.102.9.99
66.102.9.104
Да ... Гугл пошел накручивать базу:
http://www.google.com/search?hl=en&q=the&btnG=Google+Search
- "of about 9,140,000,000 for the."
А было 8 миллиардов пару дней назад.
Причем именно накручить. Забил на robots.txt, недоступные страницы и т.д.... Грязный и дешевый ход.
Есть такое дело. Проиндексировал то, что закрыто в robots.txt. Правда пока кэша нет, может при "подробном рассмотрении" и уберет из базы. Но есть и плюсы. У меня около десятка сайтов в песочнице сидят. Гугл проиндексировал по 300-600 страниц и все. А сейчас уже по несколько тысяч в индексе. Я конечно не уверен, что это лучше, но все равно приятно. :)