- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Вопрос на засыпку при входе в вебмастер просят ввести капчу, у всех так ?
Вопрос на засыпку при входе в вебмастер просят ввести капчу, у всех так ?
у меня только пароль хочет. Но если ошибиться, то и капчу потребует.
У меня скрипт агенского магазина(PHP). Начались проблемы после того,как Яндекс запустил робота для индексирования сайта.Наверное всётаки дело в сервере? Спасибо всем кто откликнулся!
Не обязательно. Робот может делать запросы десяток раз в секунду. Сперва стоит попробовать Crawl-delay и Clean-param, также посмотреть, чтобы страницы контент которых не менялся с прошлого посещения робота отдавали код 304.
Не могу понять ответные ссылки на вебмастере, на первой странице показывается одно количество (например 71 ссылка), а на следующих страницах кол-во ссылок убывает.
Кто знает с чего такие изменения.
Гы... а у меня вообще какую-то дребедень показывает.. Всего проиндексировано 2011 ссылок (чего в принципе не может быть, если, конечно, у меня нет тайных помощников...), а начинаешь смотреть постранично, оказывается, что не больше 120. Заходишь на 1 страницу, там кажет 25, на второй - уже 50, тут появляется третья страница, на которой аж целых 75 выдает 🤪.
При последнем апе выпало порядка 70 ссылок, которые до этого показывались в вебмастере. А на результатах это особо не сказалось (тьфу-тьфу-тьфу тук-тук-тук).
В общем, с бэками в мастере много глюков. Я думаю, это специально так задумано платонами, чтобы разорить бедных АПтимизаторов на бюджетах...🚬.
Здравствуйте! Подскажите, что может происходить?
Вкратце: пол года до ноября 2009 мой сайт продвигали оптимизаторы всевозможным спамом. Внешних ссылок на тот момент было около 3000 (показания вебмастера), сайт был без "www".
С конца ноября я стал сам продвигать сайт. В это же время вебмастер стал определять сайт с "www". и половина внешних ссылок куда-то делась. Я не придал этому значения, типа, чем меньше спама, тем лучше. Стал закупать ссылки (купил около 300 штук за месяц) указывая в urle "www" и все шло хорошо, страницы все переработал, сайт стал подниматься. 8 января вебмастер стал опять определять мой сайт без "www". Главная страница, при проверке, выдаётся с другим "title" и без "сохранённой копии", 15 января исключаются из поиска 4 страницы, 20 января исключены почти все, около 30, остался десяток вместе с главной, главная попрежнему без "сохранённой копии". Сайт виден по прежнему без www, да, вчера откуда-то вернулось 1500 ссылок, теперь их опять 3000. Я писал 3 раза вебмастеру, ответа нет. Подскажите, что может происходить?
С зеркалами проблема. В robots.txt у вас какой главный домен указан? А Яндекс какой главным считает?
остался десяток вместе с главной
Может с зеркалами. А может под АГС попали.
Почему-то не прошло сообщение, где я писал, что мне посоветовали склеить зеркала 9 января, но это пока ничего не дало. Главным зеркалом по прежнему считается без www
В robots.txt я вчера прописал
User-Agent: *
Disallow:
Host: www.мой сайт.ru
раньше было:
Host: http://www.мой сайт.ru
dmz11, сейчас правильно написали. Правда host только Яндекс понимает, поэтому я б для Яндекса отдельную группу написал.
User-agent: Yandex
Disallow:
Host: www.мой сайт.ru
User-Agent: *
Disallow:
Sitemap: http://www.мой сайт.ru/sitemap.xml
Но зеркальщик ходит на сайты в среднем раз в полтора месяца. Т.е. результат будет к весне. Внутренние ссылки сделайте чтобы стояли на www.мой сайт.ru
Понял спасибо. Вообще это нормально , что сейчас страницы вылетают из поиска, а в исключённых не значатся? И что делать с внешними ссылками, снимать или нет, они жрут деньги.